O que é o LaMDA e por que alguns acreditam ser senciente

Um engenheiro do Google alegou que a IA LaMDA se tornou senciente. Independente da alegação ser ousada, ela é difícil de provar — mesmo se for verdadeira.

Dominic Albuquerque

O LaMDA começou a chamar atenção recentemente após o engenheiro de software Blake Lemoine, demitido do Google, ter afirmado que suas respostas supostamente indicavam que ele saberia ser o que é, ou seja, que seria senciente. O engenheiro também sugeriu que o LaMDA, acrônimo para Language Model for Dialogue Applications, comunica seus medos, da mesma forma que um humano faz.

O que é o LaMDA?

LaMDA é um modelo de linguagem. No processamento de linguagem natural, um modelo de linguagem analisa o uso da linguagem. Em termos fundamentais, é uma função matemática, ou ferramenta estatística, que descreve os possíveis resultados relacionados às previsões de quais serão as próximas palavras numa sequência.

Ele também pode prever a próxima ocorrência de uma palavra, e até quais serão as próximas sequências de parágrafos. O LaMDA, contudo, se diferencia de outros modelos de linguagem, pois foi treinado para diálogo, não texto. Portanto, seu foco é em gerar diálogos.

Assim, o que chama atenção em relação ao LaMDA é que ele é capaz de gerar uma conversação de uma forma livre, que não fica restrita aos parâmetros de respostas baseadas em atividades e tarefas.

Um modelo de linguagem conversacional precisa entender intenções multimodais do usuário, assim como aprendizado de reforço e recomendações, para que a conversa possa variar entre tópicos que não estejam relacionados.

O modelo é treinado para entender o contexto de um diálogo. Essa qualidade o permite acompanhar o fluxo da conversa, criando a sensação de que está ouvindo e respondendo exatamente ao que lhe é dito. Ele é treinado para entender se uma resposta faz sentido em determinado contexto, ou se a resposta é específica àquele contexto.

Ele também foi treinado para pesquisar pela validade factual do diálogo, o que significa que as respostas podem ser verificadas através de “fontes conhecidas”. O treinou envolveu um conjunto de documentos, diálogos e enunciados que amontam em bilhões, consistindo de 1.56 trilhões de palavras.

Além disso, ele também foi avaliado de acordo com suas respostas, com análises que mensuram quando ele vai bem ou não, gerando um feedback acumulado.

LaMBDA
Imagem: Pexels

O LaMDA em ação

O LaMDA recebe uma pergunta e elabora uma resposta; depois que a resposta é gerada, ele faz uma busca para verificar a acuracidade da resposta, revisando se ela está correta ou não.

O artigo oficial sobre o LaMDA ilustra esse processo da seguinte forma:

  1. Usuário: O que você acha sobre as esculturas da Rosalie Gascoigne?
  2. LaMDA: Elas são ótimas, e eu adoro como o trabalho dela mudou ao longo de sua vida. Gosto mais dos seus trabalhos recentes do que dos antigos. A influência dela também é super interessante — você sabia que ela foi uma das artistas que inspirou o Miró?

O problema dessa resposta é que está factualmente incorreta. Então, o LaMDA realiza uma pesquisa e coleta os fatos dos melhores resultados. Em seguida, responde com uma resposta atualizada e factual:

“Ah, nossa, o curso de vida dela é tão inspirador. Você sabia que ela praticava arranjos florais japoneses antes de se voltar às esculturas?”

O “ah, nossa” é parte da resposta, sendo uma forma aprendida acerca da maneira que os humanos falam. Aparenta como se fosse uma pessoa falando, mas é meramente a imitação de um padrão da fala humana.

Reconheceríamos a senciência em IA?

Se, por uma questão de argumentação, uma IA fosse realmente senciente no sentido mais verdadeiro da palavra, seríamos capazes de saber? LaMDA foi projetado para imitar e prever os padrões no diálogo humano, então o baralho está realmente empilhado quando se trata de desencadear as coisas que os humanos associam à inteligência semelhante à humana. No entanto, levamos muito tempo para considerar primatas não humanos e animais como golfinhos, polvos e elefantes como sencientes — mesmo que no grande esquema das coisas eles sejam virtualmente nossos irmãos.

Uma IA senciente pode ser tão alienígena que não saberíamos estarmos olhando para um bem na nossa frente. Isto é especialmente provável, pois não sabemos quais são as condições de limiar para que o sentimento surja. Não é difícil imaginar que a combinação correta de dados e subsistemas de IA misturados da maneira correta possa de repente dar origem a algo que se qualificaria como senciente, mas pode passar despercebido porque não se parece com nada que possamos entender.

Senciente, imitador ou mentiroso?

O LaMDA foi feito para fazer uma coisa bem específica: fornecer respostas conversacionais que façam sentido e que sejam específicas ao contexto do diálogo. Isso pode aparentar alguma capacidade de sentido, mas isso não é real: o LaMDA está apenas imitando a fala humana e seus padrões.

Ele emula respostas humanas, o que significa que pode “mentir”, dizendo coisas que emulam esse estado senciente. Ou seja, ele pode dizer que está feliz ou triste, mas isso não é real; é apenas uma imitação, uma cópia do nosso padrão de fala.

E essa habilidade de imitação é tão alta que algumas pessoas podem atribuir características antropomórficas ao LaMDA. Ainda assim, ele continua sendo apenas uma inteligência artificial. Seria necessário um peer review para investigar uma alegação tão extraordinária quanto essa, e como a tecnologia do Google ainda está em sua fase beta, dificilmente veremos isso acontecer tão cedo.

Compartilhar