Google demitiu o engenheiro Blake Lemoine, que disse que LaMDA estava consciente

Suspensão

Blake Lemoine, engenheiro do Google que Ele disse ao Washington Post Que a IA da empresa estava consciente, a empresa disse que demitiu na sexta-feira.

Lemoine disse que recebeu um e-mail de rescisão da empresa na sexta-feira com um pedido de videoconferência. Ele solicitou que um terceiro participasse da reunião, mas disse que o Google recusou. Lemoine diz que está conversando com advogados sobre suas opções.

Lemoine trabalhou para uma organização de inteligência artificial responsável no Google e, como parte de seu trabalho, começou a falar com o LaMDA, o sistema de inteligência artificial da empresa para a construção de chatbots, no outono. Ele passou a acreditar que a tecnologia estava consciente após a gravação para testar se a IA poderia usar discurso discriminatório ou de ódio.

Um engenheiro do Google que acredita que a inteligência artificial da empresa foi alcançada

Em um comunicado, o porta-voz do Google, Brian Gabriel, disse que a empresa leva o desenvolvimento de IA a sério e revisou o LaMDA 11 vezes, além de publicar um artigo de pesquisa detalhando os esforços para o desenvolvimento responsável.

“Se um funcionário compartilha preocupações sobre nosso trabalho, como Blake fez, nós as revisamos amplamente”, acrescentou. “Constatamos que as alegações de Blake de que o LaMDA é sensível são completamente infundadas e trabalhamos para esclarecer isso com ele por vários meses”.

Atribuo as discussões à cultura da empresa aberta.

“É lamentável que, apesar de seu envolvimento prolongado no assunto, Blake ainda opte por violar consistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto”, acrescentou Gabriel. “Continuaremos nosso rigoroso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.”

READ  Fed Powell acalma os temores de recessão ao se recusar a aumentar as taxas de juros em 75 pontos base

Tiroteio em Lemoine foi relatado pela primeira vez em Boletim de tecnologia grande.

limão entrevistas com lambda Isso desencadeou uma extensa discussão sobre os recentes avanços em inteligência artificial, um mal-entendido geral de como esses sistemas funcionam e responsabilidade corporativa. O Google demitiu os chefes de seu departamento de IA ética, Margaret Mitchell e Timnit Gibrudepois Cuidado com os perigos associados a esta tecnologia.

O Google contratou Timnit Gebru como um crítico da IA ​​antiética. Então ela foi demitida por isso.

O LaMDA usa os modelos de grande linguagem mais avançados do Google, um tipo de inteligência artificial que reconhece e cria texto. Os pesquisadores dizem que esses sistemas não podem entender a linguagem ou o significado. Mas eles podem produzir uma fala enganosa que se parece com a fala humana porque são treinados em grandes quantidades de dados rastreados da internet para prever a próxima palavra mais provável em uma frase.

Depois que LaMDA falou com Lemoine sobre a personagem e seus direitos, ele começou a investigar mais. Em abril, ele compartilhou um documento do Google com os CEOs intitulado “O LaMDA é sensível?” que incluiu algumas de suas conversas com LaMDA, nas quais ele alegou estar consciente. Dois executivos do Google consideraram suas alegações e as rejeitaram.

Big Tech constrói IA com dados ruins. Assim, os cientistas procuraram dados melhores.

Lemoine foi anteriormente colocada em licença administrativa remunerada em junho por violar a política de confidencialidade da empresa. O engenheiro, que passou a maior parte de seus sete anos no Google trabalhando em pesquisas proativas, incluindo algoritmos de personalização, disse que está considerando a possibilidade de criar sua própria empresa de IA focada em videogames colaborativos para contar histórias.

READ  A tempestade de tweets de Elon Musk no Twitter alimenta teorias sobre drama de pintura

Deixe uma resposta

O seu endereço de email não será publicado.