Search
Close this search box.

E se a IA se tornar consciente, como saberemos?

Poderiam as IAs desenvolver experiência consciente?

À medida que as IA se tornam mais sofisticadas, prevê-se que elas assumam muitos empregos humanos nas próximas décadas. Portanto, devemos ponderar uma questão importante:

Poderiam as IAs desenvolver experiência consciente?

Esta quest√£o √© urgente por v√°rios motivos. Primeiro, os especialistas em √©tica temem que seria errado for√ßar as IAs a servir-nos se elas podem sofrer e sentir uma s√©rie de emo√ß√Ķes.

Em segundo lugar, a consci√™ncia poderia tornar as IAs vol√°teis ou imprevis√≠veis, levantando preocupa√ß√Ķes de seguran√ßa. Ou, talvez inversamente, poderia aumentar a empatia de uma IA; com base nas suas pr√≥prias experi√™ncias subjectivas. E assim, poderia reconhecer a consci√™ncia em n√≥s e tratar-nos com mais compaix√£o!?

Terceiro, a consci√™ncia mec√Ęnica poderia impactar a viabilidade de tecnologias de implantes cerebrais, como as que ser√£o desenvolvidas pela nova empresa de Elon Musk, a Neuralink. Se a IA n√£o puder ser consciente, ent√£o as partes do c√©rebro respons√°veis pela consci√™ncia n√£o poderiam ser substitu√≠das por chips sem causar perda de consci√™ncia. E, na mesma linha, uma pessoa n√£o poderia “carregar seu c√©rebro” ou fazer upload em um computador para evitar a morte, porque esse upload n√£o seria um ser consciente!?

Além disso, se a IA eventualmente nos superar, mas ainda assim não tiver consciência, ainda haveria um sentido importante em que nós, humanos, seríamos superiores às máquinas? Mas os seres mais inteligentes do planeta não seriam conscientes ou sencientes.

Muita coisa depende da questão da consciência da máquina, então. No entanto, os neurocientistas estão longe de compreender a base da consciência no cérebro humano, e os filósofos estão pelo menos igualmente longe de uma explicação completa sobre a natureza da consciência.

Cientistas e filósofos estão propondo uma lista de verificação baseada em teorias da consciência humana.

Em 2021, o engenheiro do Google Blake Lemoine ganhou as manchetes ‚Äď e foi demitido ‚Äď quando afirmou que o LaMDA, o chatbot que ele estava testando, era senciente. Os sistemas de intelig√™ncia artificial (IA), especialmente os chamados grandes modelos de linguagem, como LaMDA e ChatGPT, podem certamente parecer conscientes. Mas eles s√£o treinados em grandes quantidades de texto para imitar as respostas humanas. Ent√£o, como podemos realmente saber?

Agora, um grupo de 19 cientistas da computa√ß√£o, neurocientistas e fil√≥sofos apresentou uma abordagem: n√£o um √ļnico teste definitivo, mas uma longa lista de verifica√ß√£o de atributos que, juntos, poderiam sugerir, mas n√£o provar, que uma IA √© consciente. Em um documento de discuss√£o de 120 p√°ginas publicado como pr√©-impress√£o esta semana, os pesquisadores baseiam-se em teorias da consci√™ncia humana para propor 14 crit√©rios e, em seguida, aplicam-nos √†s arquiteturas de IA existentes, incluindo o tipo de modelo que alimenta o ChatGPT.

√Č prov√°vel que ningu√©m esteja consciente, concluem.

Mas o trabalho oferece uma estrutura para avaliar IAs cada vez mais humanas, diz o coautor Robert Long, do Center for AI Safety, uma organiza√ß√£o sem fins lucrativos com sede em S√£o Francisco. ‚ÄúEstamos introduzindo uma metodologia sistem√°tica que antes faltava.‚ÄĚ
Adeel Razi, neurocientista computacional da Monash University e membro do Instituto Canadense de Pesquisa Avan√ßada (CIFAR), que n√£o esteve envolvido no novo artigo, diz que este √© um passo valioso. ‚ÄúEstamos todos iniciando a discuss√£o em vez de encontrar respostas.‚ÄĚ

At√© recentemente, a consci√™ncia da m√°quina era tema de filmes de fic√ß√£o cient√≠fica como Ex Machina. ‚ÄúQuando Blake Lemoine foi demitido do Google ap√≥s ser convencido pelo LaMDA, isso marcou uma mudan√ßa‚ÄĚ, diz Long. ‚ÄúSe as IAs podem dar a impress√£o de consci√™ncia, isso torna uma prioridade urgente a opini√£o de cientistas e fil√≥sofos.‚ÄĚ Long e o fil√≥sofo Patrick Butlin, do Instituto do Futuro da Humanidade da Universidade de Oxford, organizaram dois workshops sobre como testar a senci√™ncia na IA.

Para uma colaboradora, a neurocientista computacional Megan Peters, da Universidade da Calif√≥rnia, em Irvine, a quest√£o tem uma dimens√£o moral. ‚ÄúComo tratamos uma IA com base na sua probabilidade de consci√™ncia? Pessoalmente, isso √© parte do que me motiva.‚ÄĚ

O recrutamento de pesquisadores de diversas disciplinas proporcionou ‚Äúuma explora√ß√£o profunda e cheia de nuances‚ÄĚ, diz ela. ‚ÄúLong e Butlin fizeram um belo trabalho pastoreando.‚ÄĚ

Uma das primeiras tarefas do rebanho foi definir consci√™ncia, ‚Äúuma palavra cheia de armadilhas‚ÄĚ, diz outro membro, o pioneiro do aprendizado de m√°quina Yoshua Bengio, do Instituto de IA Mila-Quebec. Os investigadores decidiram concentrar-se naquilo que o fil√≥sofo da Universidade de Nova Iorque, Ned Block, chamou de ‚Äúconsci√™ncia fenomenal‚ÄĚ, ou a qualidade subjetiva de uma experi√™ncia ‚Äď como √© ver vermelho ou sentir dor.

Mas como sondar a consciência fenomenal de um algoritmo?

Ao contr√°rio do c√©rebro humano, ele n√£o oferece sinais de seu funcionamento interno detect√°veis por eletroencefalograma ou resson√Ęncia magn√©tica. Em vez disso, os pesquisadores adotaram ‚Äúuma abordagem baseada em teoria‚ÄĚ, explica o colaborador Liad Mudrik, neurocientista cognitivo da Universidade de Tel Aviv. Eles primeiro explorariam as teorias atuais da consci√™ncia humana em busca dos principais descritores de um estado de consci√™ncia e, em seguida, procurariam por eles na arquitetura subjacente de uma IA.

Para ser inclu√≠da, uma teoria tinha que ser baseada na neuroci√™ncia e apoiada por evid√™ncias emp√≠ricas, como dados de tomografias cerebrais durante testes que manipulam a consci√™ncia usando truques perceptivos. Tamb√©m tinha que permitir a possibilidade de a consci√™ncia surgir independentemente de os c√°lculos serem realizados por neur√īnios biol√≥gicos ou por chips de sil√≠cio.

Seis teorias foram aprovadas.

Uma delas foi a Teoria do Processamento Recorrente, prop√Ķe que passar informa√ß√Ķes atrav√©s de ciclos de feedback √© a chave para a consci√™ncia. Outra, a Teoria do Espa√ßo de Trabalho Neuronal Global, afirma que a consci√™ncia surge quando fluxos independentes de informa√ß√£o passam por um gargalo para se combinarem num espa√ßo de trabalho an√°logo a uma prancheta de computador.

As teorias de ordem superior sugerem que a consci√™ncia envolve um processo de representa√ß√£o e anota√ß√£o de informa√ß√Ķes b√°sicas recebidas dos sentidos. Outras teorias enfatizam a import√Ęncia dos mecanismos de controle da aten√ß√£o e a necessidade de um corpo que receba feedback do mundo exterior. Das seis teorias inclu√≠das, a equipe extraiu 14 indicadores de um estado de consci√™ncia.

Os pesquisadores argumentaram que quanto mais indicadores uma arquitetura de IA verifica, maior é a probabilidade de ela possuir consciência.

O especialista em aprendizado de m√°quina Eric Elmoznino, aplicou a lista de verifica√ß√£o a v√°rias IAs com arquiteturas diferentes, incluindo aquelas usadas para gera√ß√£o de imagens, como Dall-E2. Fazer isso exigiu tomar decis√Ķes e navegar em √°reas cinzentas. Muitas das arquiteturas marcaram a caixa para indicadores da Teoria do Processamento Recorrente. Uma variante do tipo de modelo de linguagem grande subjacente ao ChatGPT quase exibiu tamb√©m outro recurso, a presen√ßa de um espa√ßo de trabalho global.

O PaLM-E do Google, que recebe informa√ß√Ķes de v√°rios sensores rob√≥ticos, atendeu ao crit√©rio ‚Äúag√™ncia e incorpora√ß√£o‚ÄĚ. E ‚Äúse voc√™ apertar os olhos, ver√° algo como um espa√ßo de trabalho‚ÄĚ, acrescenta Elmoznino.

O Agente Adaptativo (AdA) baseado em transformador da DeepMind, que foi treinado para controlar um avatar em um espa√ßo 3D simulado, tamb√©m se qualificou para ‚Äúag√™ncia e incorpora√ß√£o‚ÄĚ, embora n√£o possua sensores f√≠sicos como o PaLM-E. Devido √† sua consci√™ncia espacial, ‚Äúo AdA era o mais prov√°vel‚Ķ de ser incorporado pelos nossos padr√Ķes‚ÄĚ, dizem os autores.

Dado que nenhuma das IAs atendeu mais do que um punhado de itens, nenhuma √© uma forte candidata √† consci√™ncia, embora Elmoznino diga: ‚ÄúSeria trivial projetar todos esses recursos em uma IA‚ÄĚ. A raz√£o pela qual ningu√©m o fez √© ‚Äún√£o est√° claro que seriam √ļteis para tarefas‚ÄĚ.

Os autores dizem que sua lista de verifica√ß√£o √© um trabalho em andamento. E n√£o √© o √ļnico esfor√ßo em andamento. Alguns membros do grupo, juntamente com Razi, fazem parte de um projeto financiado pelo CIFAR para desenvolver um teste de consci√™ncia mais amplo que tamb√©m possa ser aplicado a organoides, animais e rec√©m-nascidos. Eles esperam produzir uma publica√ß√£o nos pr√≥ximos meses.

O problema de todos esses projetos, diz Razi, √© que as teorias atuais se baseiam na nossa compreens√£o da consci√™ncia humana. No entanto, a consci√™ncia pode assumir outras formas, mesmo nos nossos companheiros mam√≠feros. ‚ÄúRealmente n√£o temos ideia de como √© ser um morcego‚ÄĚ, diz ele. ‚Äú√Č uma limita√ß√£o da qual n√£o podemos nos livrar‚ÄĚ, afirmam os autores.

“O teste de Turing tem uma premissa b√°sica: se um ser humano conversa com uma m√°quina por cinco minutos sem perceber que ela n√£o √© humana, o computador passa no teste.”

Inventado em 1950 pelo cientista da computação pioneiro Alan Turing, o teste formou as bases do que chamamos hoje de IA ao perguntar se era possível uma máquina imitar o pensamento humano.

Dessa forma, o Teste de Consci√™ncia de IA (ACT em ingl√™s) assemelha-se ao c√©lebre teste de intelig√™ncia de Alan Turing, porque √© inteiramente baseado no comportamento ‚Äď e, tal como o de Turing, poderia ser implementado num formato formalizado de perguntas e respostas. (Um ACT tamb√©m poderia ser baseado no comportamento de uma IA ou de um grupo de IAs.) Por outro lado, um ACT pretende fazer exatamente o oposto; procura revelar uma propriedade sutil e evasiva da mente da m√°quina. Na verdade, uma m√°quina pode falhar no teste de Turing porque n√£o pode passar por humana, mas passar no ACT porque exibe indicadores comportamentais de consci√™ncia.

Esta √© a base subjacente da nova proposta de teste. Deve-se dizer, contudo, que a aplicabilidade de um ACT √© inerentemente limitada. Uma IA pode n√£o ter a capacidade lingu√≠stica ou conceptual para passar no teste, como um animal n√£o humano ou uma crian√ßa, mas ainda assim ser capaz de experimentar. Portanto, a aprova√ß√£o de um ACT √© talvez uma prova suficiente, mas n√£o necessariamente, da consci√™ncia da IA ‚Äď embora seja o melhor que podemos fazer por enquanto. √Č um primeiro passo para tornar a consci√™ncia da m√°quina acess√≠vel a investiga√ß√Ķes objetivas.

Ent√£o, de volta √† IA superinteligente na ‚Äúcaixa‚ÄĚ ‚Äď observamos e esperamos…

Será que a IA começará a filosofar sobre a existência de mentes além dos corpos, como Descartes? Sonhar, como em Robot Dreams, de Isaac Asimov? Expressar emoção, como Rachel em Blade Runner? E talvez possa compreender facilmente os conceitos humanos que estão fundamentados nas nossas experiências conscientes internas, como as da Alma ou do Atman? 

A era da IA será uma época de exame de consciência para todos nós.

Referências:

 

–¬†Finkel, Elizabeth. If Ai becomes conscious, how will we know? | science | AAAS. Accessed August 25, 2023. https://www.science.org/content/article/if-ai-becomes-conscious-how-will-we-know.

– Schneider, Susan. ‚ÄúIs Anyone Home? A Way to Find out If AI Has Become Self-Aware.‚ÄĚ Scientific American Blog Network, July 19, 2017. https://blogs.scientificamerican.com/observations/is-anyone-home-a-way-to-find-out-if-ai-has-become-self-aware/.

Talvez você goste:

Receba em seu e-mail

Assine nossa newsletter semanal

Sem spam, notifica√ß√Ķes apenas sobre assuntos de seu interesse e atualiza√ß√Ķes.

Rolar para cima

Trabalhe Conosco

Suporte Técnico: