Grupo de funcionários atuais e antigos de empresas de inteligência artificial emite carta aberta
Um grupo de funcionários atuais e antigos 💶 de empresas de inteligência artificial importantes emitiu uma carta aberta na terça-feira que alerta sobre a falta de supervisão de 💶 segurança dentro da indústria e pede maior proteção aos denunciantes.
A carta, que pede um "direito a alertar sobre inteligência artificial", 💶 é uma das declarações públicas mais expressivas sobre os perigos da IA dos funcionários dentro de uma indústria geralmente discreta. 💶 Onze funcionários atuais e antigos da OpenAI assinaram a carta, juntamente com dois funcionários atuais ou antigos da Google DeepMind 💶 – um dos quais anteriormente trabalhou na Anthropic.
"As empresas de IA possuem informações confidenciais significativas sobre as capacidades e limitações 💶 de seus sistemas, a adequação de suas medidas protetivas e os níveis de risco de diferentes tipos de prejuízos", declara 💶 a carta. "No entanto, elas atualmente têm apenas obrigações fracas para compartilhar parte dessa informação com os governos e nenhuma 💶 com a sociedade civil. Não achamos que todas elas possam ser confiáveis para compartilhar isso voluntariamente."
A OpenAI se defendeu nas 💶 práticas blaze expert um comunicado, dizendo que tem canais, como uma linha de dicas, para denunciar problemas na empresa e que 💶 não lança novas tecnologias até que haja medidas de segurança apropriadas. A Google não respondeu imediatamente a uma solicitação de 💶 comentários.
"Estamos orgulhosos de nossos registros de fornecer os sistemas de IA mais capazes e seguros e acreditamos blaze expert nossa abordagem 💶 científica para abordar o risco. Concordamos que o debate rigoroso é crucial dada a importância dessa tecnologia e continuaremos nos 💶 envolvendo com governos, sociedade civil e outras comunidades blaze expert todo o mundo", disse um porta-voz da OpenAI.
A preocupação com os 💶 possíveis prejuízos da inteligência artificial existe há décadas, mas o boom da IA dos últimos anos intensificou esses medos e 💶 deixou os reguladores às voltas para tentar acompanhar os avanços tecnológicos. Embora as empresas de IA tenham públicamente declarado seu 💶 compromisso blaze expert desenvolver a tecnologia com segurança, pesquisadores e funcionários advertiram sobre a falta de supervisão à medida que as 💶 ferramentas de IA exacerbam os prejuízos sociais existentes ou criam outros inteiramente novos.
A carta dos funcionários atuais e antigos de 💶 empresas de IA, que foi relatada primeiro pelo New York Times, pede maiores proteções para os trabalhadores blaze expert empresas de 💶 IA avançadas que decidem expressar preocupações sobre a segurança. Ela pede um compromisso com quatro princípios blaze expert torno da transparência 💶 e responsabilidade, incluindo uma provisão de que as empresas não forçarão os funcionários a assinar acordos de não difamação que 💶 proíbam a abordagem de questões relacionadas à IA e um mecanismo para que os funcionários compartilhem anonimamente as preocupações com 💶 os membros do conselho.
"Enquanto não houver uma supervisão eficaz do governo dessas corporações, os funcionários atuais e antigos são algumas 💶 das poucas pessoas que podem responsabiliza-las perante o público",