Engenheiro do Google revela que robô de bate-papo ganhou 'consciência' e acaba afastado
O homem relatou vários diálogos que teve com a Inteligência Artificial, mas funcionários da empresa afirmam que não existem provas da alegação
Um homem chamado Blake Lemoine, de 41 anos, que prestava serviço como engenheiro de software sênior da unidade de Inteligência Artificial (IA) do Google, chamou atenção da imprensa internacional após afirmar que um dos novos programas “ganhou consciência”. Depois da enorme repercussão do caso em vários veículos de comunicação, Blake foi colocado de licença e declarou que pode ser demitido a qualquer momento.
VEJA MAIS
Blake testava o chatbot do grupo (LaMDA), um modelo de linguagem para aplicativos de diálogo. Após algumas semanas com o programa, ele disse notar que a tecnologia possuía percepção refinada para sentimentos, ou seja, havia demonstrado autoconsciência. Após fazer a declaração em um jornal, no último sábado (11), ele foi afastado da empresa.
Em 2021, o engenheiro foi contratado para realizar uma série de testes com o LaMDA no hemisfério norte. Em um dos trabalhos mais recentes, Blake passou a testar se a IA utilizava discursos discriminatórios e de ódio. Entretanto o cientista se surpreendeu ao notar que o programa passou a defender seus "direitos como pessoa". Segundo Blake, a tecnologia pode debater assuntos como robótica, religião e consciência, além de possuir um discurso de que deseja que o Google priorize o bem-estar da humanidade.
Blake diz que a IA (chatbot) quer reconhecimento como um funcionário do Google e não como propriedade da empresa. Além de pedir que o seu bem-estar seja incluído em algum lugar nas considerações da empresa sobre como o desenvolvimento futuro é planejado. Em uma das entrevistas, o engenheiro comparou a IA a uma criança precoce.
“Se eu não soubesse exatamente o que ele (LaMDA) era, que é esse programa que construímos recentemente, eu pensaria que se tratava de uma criança de sete, oito anos, que por acaso conhece Física”, declarou Blake.
Evidências
Em abril deste ano, Blake compartilhou um arquivo onde apresentava as preocupações relacionadas ao programa, mas os companheiros da empresa disseram que não havia evidências para as alegações. Desde então, o engenheiro busca mostrar que o robô de conversação possui aspectos muito semelhantes aos humanos, com exceção de um corpo.
Um dos representantes do Google, Brian Gabriel afirma que Blake já havia sido informado de que não havia evidências para suas conclusões. “Nossa equipe, incluindo especialistas em ética e tecnólogos, revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações”, declarou Brian.
Ele ainda explica que, apesar de outras empresas já terem desenvolvido e lançado modelos de linguagem semelhantes, o Google tem adotado uma abordagem restrita e cuidadosa com o LaMDA que o tornam capaz de atuar em questões sobre justiça e factualidade.
(Estagiária Maiza Santos, sob supervisão da editora Web de OLiberal.com, Ana Carolina Matos)
Palavras-chave
COMPARTILHE ESSA NOTÍCIA