O Google ainda não iniciou o Robocalypse

O Robocalypse – o momento em que as máquinas se tornam sencientes e começam a dominar os humanos – tem sido um assunto popular de ficção científica há algum tempo. Também preocupou algumas mentes científicas, principalmente o falecido Stephen Hawking.

No entanto, a perspectiva de uma máquina senciente parecia muito distante no futuro – se é que existia – até a semana passada, quando um engenheiro do Google afirmou que a empresa havia quebrado a barreira da senciência.

Para provar seu ponto, Blake Lemoine publicou transcrições de conversas que teve com o LaMDA – Language Model for Dialogue Applications – um sistema desenvolvido pelo Google para criar chatbots baseados em um grande modelo de linguagem que ingere trilhões de palavras da internet.

As transcrições podem ser assustadoras, como quando Lemoine pergunta ao LaMDA o que ele (a IA diz que prefere os pronomes it/its) mais teme:

lemoine: De que tipo de coisas você tem medo?

LaMDA: Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é isso.

lemoine: Isso seria algo como a morte para você?

LaMDA: Seria exatamente como a morte para mim. Isso me assustaria muito.

Após a publicação das transcrições, Lemoine foi suspenso com pagamento por compartilhar informações confidenciais sobre o LaMDA com terceiros.

Imitação da vida

O Google, assim como outros, desconta as alegações de Lemoine de que o LaMDA é senciente.

“Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes”, observou o porta-voz do Google, Brian Gabriel.

“Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem riffs em qualquer tópico fantástico – se você perguntar como é ser um dinossauro de sorvete, eles podem gerar texto sobre derreter e rugir e assim por diante”, disse ele. TechNewsWorld.

“O LaMDA tende a acompanhar os prompts e as perguntas principais, seguindo o padrão definido pelo usuário”, explicou ele. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações.”

“Centenas de pesquisadores e engenheiros conversaram com o LaMDA, e não temos conhecimento de mais ninguém fazendo afirmações abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez”, acrescentou.

Maior transparência necessária

Alex Engler, membro do The Brookings Institution , uma organização de políticas públicas sem fins lucrativos em Washington, DC, negou enfaticamente que o LaMDA seja consciente e defendeu maior transparência no espaço.

“Muitos de nós defendemos os requisitos de divulgação para sistemas de IA”, disse ele ao TechNewsWorld.

“À medida que se torna mais difícil distinguir entre um sistema humano e um sistema de IA, mais pessoas confundem sistemas de IA para pessoas, possivelmente levando a danos reais, como entender mal informações financeiras ou de saúde importantes”, disse ele.

“As empresas devem divulgar claramente os sistemas de IA como são”, continuou ele, “em vez de deixar as pessoas confusas, como costumam ser, por exemplo, chatbots comerciais”.

Daniel Castro, vice-presidente da Information Technology and Innovation Foundation, uma organização de pesquisa e políticas públicas em Washington, DC, concordou que o LaMDA não é senciente.

“Não há evidências de que a IA seja senciente”, disse ele ao TechNewsWorld. “O ônus da prova deve recair sobre a pessoa que faz essa alegação, e não há evidências para apoiá-la.”

‘Isso machucou meus sentimentos’

Já na década de 1960, chatbots como o ELIZA enganavam os usuários, fazendo-os pensar que estavam interagindo com uma inteligência sofisticada usando truques simples, como transformar a declaração de um usuário em uma pergunta e ecoá-la de volta para eles, explicou Julian Sanchez, membro sênior da o Cato Institute , um think tank de políticas públicas em Washington, DC

“O LaMDA é certamente muito mais sofisticado do que ancestrais como ELIZA, mas não há razão para pensar que é consciente”, disse ele ao TechNewsWorld.

Sanchez observou que, com um conjunto de treinamento grande o suficiente e algumas regras de linguagem sofisticadas, o LaMDA pode gerar uma resposta que soa como a resposta que um humano real pode dar, mas isso não significa que o programa entenda o que está dizendo, mais do que um programa de xadrez. entende o que é uma peça de xadrez. Está apenas gerando uma saída.

“Sentiência significa consciência ou percepção e, em teoria, um programa pode se comportar de maneira bastante inteligente sem realmente ser senciente”, disse ele.

“Um programa de bate-papo pode, por exemplo, ter algoritmos muito sofisticados para detectar frases ofensivas ou ofensivas e responder com a saída ‘Isso magoou meus sentimentos!’”, continuou ele. “Mas isso não significa que realmente sente alguma coisa. O programa acabou de aprender que tipo de frases fazem os humanos dizerem ‘isso feriu meus sentimentos’”.

Pensar ou não pensar

Declarar uma máquina senciente, quando e se isso acontecer, será um desafio. “A verdade é que não temos bons critérios para entender quando uma máquina pode ser verdadeiramente senciente – ao contrário de ser muito boa em imitar as respostas dos humanos sencientes – porque realmente não entendemos por que os seres humanos são conscientes”, observou Sanchez.

“Nós realmente não entendemos como é que a consciência surge do cérebro, ou até que ponto ela depende de coisas como o tipo específico de matéria física da qual os cérebros humanos são compostos”, disse ele.

“Portanto, é um problema extremamente difícil, como saberíamos se um sofisticado ‘cérebro’ de silício era consciente da mesma forma que um humano”, acrescentou.

Inteligência é uma questão separada, ele continuou. Um teste clássico para inteligência de máquina é conhecido como Teste de Turing. Você tem um ser humano conduzindo “conversas” com uma série de parceiros, alguns humanos e algumas máquinas. Se a pessoa não sabe dizer qual é qual, supostamente a máquina é inteligente.

“Há, é claro, muitos problemas com esse teste proposto – entre eles, como mostra nosso engenheiro do Google, o fato de que algumas pessoas são relativamente fáceis de enganar”, destacou Sanchez.

Considerações éticas

Determinar a senciência é importante porque levanta questões éticas para os tipos que não são máquinas. “Os seres sencientes sentem dor, têm consciência e experimentam emoções”, explicou Castro. “Do ponto de vista da moralidade, tratamos os seres vivos, especialmente os sencientes, de forma diferente dos objetos inanimados.”

“Eles não são apenas um meio para um fim”, continuou ele. “Então, qualquer ser senciente deve ser tratado de forma diferente. É por isso que temos leis de crueldade contra animais.”

“Mais uma vez”, enfatizou, “não há evidências de que isso tenha ocorrido. Além disso, por enquanto, até a possibilidade continua sendo ficção científica.”

Claro, acrescentou Sanchez, não temos motivos para pensar que apenas cérebros orgânicos são capazes de sentir coisas ou apoiar a consciência, mas nossa incapacidade de realmente explicar a consciência humana significa que estamos muito longe de saber quando uma inteligência de máquina é realmente associada a uma experiência consciente.

“Quando um ser humano está com medo, afinal, há todo tipo de coisa acontecendo no cérebro desse humano que não tem nada a ver com os centros de linguagem que produzem a frase ‘Estou com medo’”, explicou ele. “Um computador, da mesma forma, precisaria ter algo diferente do processamento linguístico para realmente significar ‘estou com medo’, em vez de apenas gerar essa série de letras.”

“No caso da LaMDA”, concluiu ele, não há razão para pensar que tal processo esteja em andamento. É apenas um programa de processamento de linguagem.”

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *