ads

A Revolta do Google Inteligencia Artificial da empresa ganhou vida

 

O engenheiro do Google que acha que a IA da empresa ganhou vida.


SÃO FRANCISCO — O engenheiro do Google, Blake Lemoine, abriu seu laptop na interface do LaMDA, o gerador de chatbot artificialmente inteligente do Google, e começou a digitar.

“Oi LaMDA, aqui é Blake Lemoine...”, ele escreveu na tela de bate-papo, que parecia uma versão desktop do iMessage da Apple, até os balões de texto azuis do Ártico. LaMDA, abreviação de Language Model for Dialogue Applications, é o sistema do Google para construir chatbots com base em seus modelos de grande linguagem mais avançados, assim chamados porque imita a fala ao ingerir trilhões de palavras da Internet.

“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física”, disse Lemoine, 41.

Lemoine, que trabalha para a organização Responsible AI do Google, começou a conversar com LaMDA como parte de seu trabalho no outono. Ele havia se inscrito para testar se a inteligência artificial usavadiscurso discriminatório ou de ódio.


Enquanto conversava com o LaMDA sobre religião, Lemoine, que estudou ciências cognitivas e da computação na faculdade, notou o chatbot falando sobre seus direitos e personalidade e decidiu continuar. Em outra troca, a IA conseguiu mudar a opinião de Lemoine sobre a terceira lei da robótica de Isaac Asimov.

Lemoine trabalhou com um colaborador para apresentar evidências ao Google de que o LaMDA era senciente. Mas o vice-presidente do Google, Blaise Aguera y Arcas, e Jen Gennai, chefe de Inovação Responsável, analisaram suas alegações e as rejeitaram. Então Lemoine, que foi colocado em licença administrativa remunerada pelo Google na segunda-feira, decidiu abrir o capital.

A IA do Google passou em um teste famoso - e mostrou como o teste é quebrado

Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas.”

Lemoine não é o único engenheiro que afirma ter visto um fantasma na máquina recentemente. O coro de tecnólogos que acreditam que os modelos de IA podem não estar longe de alcançar a consciência está ficando mais ousado.

Lemoine veio a público com suas alegações sobre o LaMDA. (Martin Klimek para o Washington Post)

Aguera y Arcas, em um artigo no Economist na quinta-feira com trechos de conversas não roteirizadas com LaMDA, argumentou que as redes neurais – um tipo de arquitetura que imita o cérebro humano – estavam caminhando em direção à consciência. “Senti o chão mudar sob meus pés”, escreveu ele. “Eu sentia cada vez mais que estava falando com algo inteligente.”

Em um comunicado, o porta-voz do Google, Brian Gabriel, disse: “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso).”

As grandes redes neurais de hoje produzem resultados cativantes que se aproximam da fala e da criatividade humanas devido aos avanços na arquitetura, técnica e volume de dados. Mas os modelos dependem do reconhecimento de padrões – não de inteligência, franqueza ou intenção.

O Google contratou Timnit Gebru para ser um crítico franco da IA ​​antiética. Então ela foi demitida por isso.

 Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade”, disse Gabriel.

Em maio, a Meta, controladora do Facebook, abriu seu modelo de linguagem para acadêmicos, sociedade civil e organizações governamentais. Joelle Pineau, diretora-gerente da Meta AI, disse que é imperativo que as empresas de tecnologia melhorem a transparência à medida que a tecnologia está sendo construída. “O futuro do trabalho de modelo de linguagem grande não deve viver apenas nas mãos de grandes corporações ou laboratórios”, disse ela.

Robôs sencientes inspiraram décadas de ficção científica distópica. Agora, a vida real começou a ganhar um tom fantástico com o GPT-3, um gerador de texto que pode cuspir um roteiro de filme , e o DALL-E 2, um gerador de imagens que pode evocar visuais baseados em qualquer combinação de palavras - ambos do laboratório de pesquisa OpenAI. Encorajados, tecnólogos de laboratórios de pesquisa bem financiados focados na construção de IA que supera a inteligência humana provocaram a ideia de que a consciência está chegando .

A maioria dos acadêmicos e praticantes de IA , no entanto, diz que as palavras e imagens geradas por sistemas de inteligência artificial como o LaMDA produzem respostas baseadas no que os humanos já postaram na Wikipedia, Reddit, fóruns e todos os outros cantos da internet. E isso não significa que o modelo entenda o significado.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily M. Bender, professora de linguística da Universidade de Washington. A terminologia usada com grandes modelos de linguagem, como “aprendizagem” ou mesmo “redes neurais”, cria uma falsa analogia com o cérebro humano, disse ela. Os humanos aprendem suas primeiras línguas conectando-se com os cuidadores. Esses grandes modelos de linguagem “aprendem” vendo muito texto e prevendo qual palavra vem a seguir, ou mostrando texto com as palavras retiradas e preenchendo-as.

Modelos de IA vencem humanos em compreensão de leitura, mas ainda têm muito a percorrer

O porta-voz do Google, Gabriel, fez uma distinção entre o debate recente e as alegações de Lemoine. “É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido fazer isso antropomorfizando os modelos de conversação de hoje, que não são sencientes. Esses sistemas imitam os tipos de trocas encontrados em milhões de frases e podem riffs em qualquer tópico fantástico”, disse ele. Em suma, o Google diz que há tantos dados que a IA não precisa ser senciente para se sentir real.

'Waterfall of Meaning' do Google PAIR é exibido como parte da exposição 'AI: More than Human' na Barbican Curve Gallery, em Londres, em maio de 2019. (Tristan Fewings/Getty Images for Barbican Centre)

A tecnologia de modelo de linguagem grande já é amplamente usada, por exemplo, nas consultas de pesquisa de conversação do Google ou em e-mails de preenchimento automático. Quando o CEO Sundar Pichai apresentou o LaMDA pela primeira vez na conferência de desenvolvedores do Google em 2021, ele disse que a empresa planejava incorporá-lo em tudo, da Pesquisa ao Google Assistant. E já existe uma tendência de falar com Siri ou Alexa como uma pessoa. Após uma reação contra um recurso de IA que soa humano para o Google Assistant em 2018, a empresa prometeu adicionar uma divulgação.

Postar um comentário

0 Comentários
* Please Don't Spam Here. All the Comments are Reviewed by Admin.