E se a IA se tornar consciente, como saberemos?

Poderiam as IAs desenvolver experiência consciente?

À medida que as IA se tornam mais sofisticadas, prevê-se que elas assumam muitos empregos humanos nas próximas décadas. Portanto, devemos ponderar uma questão importante:

Poderiam as IAs desenvolver experiência consciente?

Esta questão é urgente por vários motivos. Primeiro, os especialistas em ética temem que seria errado forçar as IAs a servir-nos se elas podem sofrer e sentir uma série de emoções.

Em segundo lugar, a consciência poderia tornar as IAs voláteis ou imprevisíveis, levantando preocupações de segurança. Ou, talvez inversamente, poderia aumentar a empatia de uma IA; com base nas suas próprias experiências subjectivas. E assim, poderia reconhecer a consciência em nós e tratar-nos com mais compaixão!?

Terceiro, a consciência mecânica poderia impactar a viabilidade de tecnologias de implantes cerebrais, como as que serão desenvolvidas pela nova empresa de Elon Musk, a Neuralink. Se a IA não puder ser consciente, então as partes do cérebro responsáveis pela consciência não poderiam ser substituídas por chips sem causar perda de consciência. E, na mesma linha, uma pessoa não poderia “carregar seu cérebro” ou fazer upload em um computador para evitar a morte, porque esse upload não seria um ser consciente!?

Além disso, se a IA eventualmente nos superar, mas ainda assim não tiver consciência, ainda haveria um sentido importante em que nós, humanos, seríamos superiores às máquinas? Mas os seres mais inteligentes do planeta não seriam conscientes ou sencientes.

Muita coisa depende da questão da consciência da máquina, então. No entanto, os neurocientistas estão longe de compreender a base da consciência no cérebro humano, e os filósofos estão pelo menos igualmente longe de uma explicação completa sobre a natureza da consciência.

Cientistas e filósofos estão propondo uma lista de verificação baseada em teorias da consciência humana.

Em 2021, o engenheiro do Google Blake Lemoine ganhou as manchetes – e foi demitido – quando afirmou que o LaMDA, o chatbot que ele estava testando, era senciente. Os sistemas de inteligência artificial (IA), especialmente os chamados grandes modelos de linguagem, como LaMDA e ChatGPT, podem certamente parecer conscientes. Mas eles são treinados em grandes quantidades de texto para imitar as respostas humanas. Então, como podemos realmente saber?

Agora, um grupo de 19 cientistas da computação, neurocientistas e filósofos apresentou uma abordagem: não um único teste definitivo, mas uma longa lista de verificação de atributos que, juntos, poderiam sugerir, mas não provar, que uma IA é consciente. Em um documento de discussão de 120 páginas publicado como pré-impressão esta semana, os pesquisadores baseiam-se em teorias da consciência humana para propor 14 critérios e, em seguida, aplicam-nos às arquiteturas de IA existentes, incluindo o tipo de modelo que alimenta o ChatGPT.

É provável que ninguém esteja consciente, concluem.

Mas o trabalho oferece uma estrutura para avaliar IAs cada vez mais humanas, diz o coautor Robert Long, do Center for AI Safety, uma organização sem fins lucrativos com sede em São Francisco. “Estamos introduzindo uma metodologia sistemática que antes faltava.”
Adeel Razi, neurocientista computacional da Monash University e membro do Instituto Canadense de Pesquisa Avançada (CIFAR), que não esteve envolvido no novo artigo, diz que este é um passo valioso. “Estamos todos iniciando a discussão em vez de encontrar respostas.”

Até recentemente, a consciência da máquina era tema de filmes de ficção científica como Ex Machina. “Quando Blake Lemoine foi demitido do Google após ser convencido pelo LaMDA, isso marcou uma mudança”, diz Long. “Se as IAs podem dar a impressão de consciência, isso torna uma prioridade urgente a opinião de cientistas e filósofos.” Long e o filósofo Patrick Butlin, do Instituto do Futuro da Humanidade da Universidade de Oxford, organizaram dois workshops sobre como testar a senciência na IA.

Para uma colaboradora, a neurocientista computacional Megan Peters, da Universidade da Califórnia, em Irvine, a questão tem uma dimensão moral. “Como tratamos uma IA com base na sua probabilidade de consciência? Pessoalmente, isso é parte do que me motiva.”

O recrutamento de pesquisadores de diversas disciplinas proporcionou “uma exploração profunda e cheia de nuances”, diz ela. “Long e Butlin fizeram um belo trabalho pastoreando.”

Uma das primeiras tarefas do rebanho foi definir consciência, “uma palavra cheia de armadilhas”, diz outro membro, o pioneiro do aprendizado de máquina Yoshua Bengio, do Instituto de IA Mila-Quebec. Os investigadores decidiram concentrar-se naquilo que o filósofo da Universidade de Nova Iorque, Ned Block, chamou de “consciência fenomenal”, ou a qualidade subjetiva de uma experiência – como é ver vermelho ou sentir dor.

Mas como sondar a consciência fenomenal de um algoritmo?

Ao contrário do cérebro humano, ele não oferece sinais de seu funcionamento interno detectáveis por eletroencefalograma ou ressonância magnética. Em vez disso, os pesquisadores adotaram “uma abordagem baseada em teoria”, explica o colaborador Liad Mudrik, neurocientista cognitivo da Universidade de Tel Aviv. Eles primeiro explorariam as teorias atuais da consciência humana em busca dos principais descritores de um estado de consciência e, em seguida, procurariam por eles na arquitetura subjacente de uma IA.

Para ser incluída, uma teoria tinha que ser baseada na neurociência e apoiada por evidências empíricas, como dados de tomografias cerebrais durante testes que manipulam a consciência usando truques perceptivos. Também tinha que permitir a possibilidade de a consciência surgir independentemente de os cálculos serem realizados por neurônios biológicos ou por chips de silício.

Seis teorias foram aprovadas.

Uma delas foi a Teoria do Processamento Recorrente, propõe que passar informações através de ciclos de feedback é a chave para a consciência. Outra, a Teoria do Espaço de Trabalho Neuronal Global, afirma que a consciência surge quando fluxos independentes de informação passam por um gargalo para se combinarem num espaço de trabalho análogo a uma prancheta de computador.

As teorias de ordem superior sugerem que a consciência envolve um processo de representação e anotação de informações básicas recebidas dos sentidos. Outras teorias enfatizam a importância dos mecanismos de controle da atenção e a necessidade de um corpo que receba feedback do mundo exterior. Das seis teorias incluídas, a equipe extraiu 14 indicadores de um estado de consciência.

Os pesquisadores argumentaram que quanto mais indicadores uma arquitetura de IA verifica, maior é a probabilidade de ela possuir consciência.

O especialista em aprendizado de máquina Eric Elmoznino, aplicou a lista de verificação a várias IAs com arquiteturas diferentes, incluindo aquelas usadas para geração de imagens, como Dall-E2. Fazer isso exigiu tomar decisões e navegar em áreas cinzentas. Muitas das arquiteturas marcaram a caixa para indicadores da Teoria do Processamento Recorrente. Uma variante do tipo de modelo de linguagem grande subjacente ao ChatGPT quase exibiu também outro recurso, a presença de um espaço de trabalho global.

O PaLM-E do Google, que recebe informações de vários sensores robóticos, atendeu ao critério “agência e incorporação”. E “se você apertar os olhos, verá algo como um espaço de trabalho”, acrescenta Elmoznino.

O Agente Adaptativo (AdA) baseado em transformador da DeepMind, que foi treinado para controlar um avatar em um espaço 3D simulado, também se qualificou para “agência e incorporação”, embora não possua sensores físicos como o PaLM-E. Devido à sua consciência espacial, “o AdA era o mais provável… de ser incorporado pelos nossos padrões”, dizem os autores.

Dado que nenhuma das IAs atendeu mais do que um punhado de itens, nenhuma é uma forte candidata à consciência, embora Elmoznino diga: “Seria trivial projetar todos esses recursos em uma IA”. A razão pela qual ninguém o fez é “não está claro que seriam úteis para tarefas”.

Os autores dizem que sua lista de verificação é um trabalho em andamento. E não é o único esforço em andamento. Alguns membros do grupo, juntamente com Razi, fazem parte de um projeto financiado pelo CIFAR para desenvolver um teste de consciência mais amplo que também possa ser aplicado a organoides, animais e recém-nascidos. Eles esperam produzir uma publicação nos próximos meses.

O problema de todos esses projetos, diz Razi, é que as teorias atuais se baseiam na nossa compreensão da consciência humana. No entanto, a consciência pode assumir outras formas, mesmo nos nossos companheiros mamíferos. “Realmente não temos ideia de como é ser um morcego”, diz ele. “É uma limitação da qual não podemos nos livrar”, afirmam os autores.

“O teste de Turing tem uma premissa básica: se um ser humano conversa com uma máquina por cinco minutos sem perceber que ela não é humana, o computador passa no teste.”

Inventado em 1950 pelo cientista da computação pioneiro Alan Turing, o teste formou as bases do que chamamos hoje de IA ao perguntar se era possível uma máquina imitar o pensamento humano.

Dessa forma, o Teste de Consciência de IA (ACT em inglês) assemelha-se ao célebre teste de inteligência de Alan Turing, porque é inteiramente baseado no comportamento – e, tal como o de Turing, poderia ser implementado num formato formalizado de perguntas e respostas. (Um ACT também poderia ser baseado no comportamento de uma IA ou de um grupo de IAs.) Por outro lado, um ACT pretende fazer exatamente o oposto; procura revelar uma propriedade sutil e evasiva da mente da máquina. Na verdade, uma máquina pode falhar no teste de Turing porque não pode passar por humana, mas passar no ACT porque exibe indicadores comportamentais de consciência.

Esta é a base subjacente da nova proposta de teste. Deve-se dizer, contudo, que a aplicabilidade de um ACT é inerentemente limitada. Uma IA pode não ter a capacidade linguística ou conceptual para passar no teste, como um animal não humano ou uma criança, mas ainda assim ser capaz de experimentar. Portanto, a aprovação de um ACT é talvez uma prova suficiente, mas não necessariamente, da consciência da IA – embora seja o melhor que podemos fazer por enquanto. É um primeiro passo para tornar a consciência da máquina acessível a investigações objetivas.

Então, de volta à IA superinteligente na “caixa” – observamos e esperamos…

Será que a IA começará a filosofar sobre a existência de mentes além dos corpos, como Descartes? Sonhar, como em Robot Dreams, de Isaac Asimov? Expressar emoção, como Rachel em Blade Runner? E talvez possa compreender facilmente os conceitos humanos que estão fundamentados nas nossas experiências conscientes internas, como as da Alma ou do Atman? 

A era da IA será uma época de exame de consciência para todos nós.

Referências:

 

– Finkel, Elizabeth. If Ai becomes conscious, how will we know? | science | AAAS. Accessed August 25, 2023. https://www.science.org/content/article/if-ai-becomes-conscious-how-will-we-know.

– Schneider, Susan. “Is Anyone Home? A Way to Find out If AI Has Become Self-Aware.” Scientific American Blog Network, July 19, 2017. https://blogs.scientificamerican.com/observations/is-anyone-home-a-way-to-find-out-if-ai-has-become-self-aware/.

Talvez você goste:

Receba em seu e-mail

Assine nossa newsletter

Sem spam, notificações apenas sobre assuntos de seu interesse e atualizações.

Rolar para cima

Suporte Técnico:

Trabalhe Conosco