Alegações de que a IA alcança a consciência voltaram à tona recentemente. Mas o que seria realmente necessário para que um sistema artificial se tornasse autoconsciente?
Em junho de 2022, o engenheiro do Google Blake Lemoine ganhou as manchetes ao afirmar que o chatbot LaMDA da empresa havia alcançado a senciência. O software tinha a capacidade de conversação de uma criança precoce de sete anos, disse Lemoine, e devemos supor que possuía uma consciência semelhante do mundo.
O LaMDA, mais tarde lançado ao público como Bard, é alimentado por um “modelo de linguagem grande” (LLM) do tipo que também forma o motor do bot ChatGPT da OpenAI. Outras grandes empresas de tecnologia estão correndo para implantar tecnologia semelhante.
Centenas de milhões de pessoas já tiveram a chance de jogar com LLMs, mas poucos parecem acreditar que eles estão conscientes. Em vez disso, na frase poética da linguista e cientista de dados Emily Bender, eles são “papagaios estocásticos”, que tagarelam de forma convincente sem entender. Mas e a próxima geração de sistemas de inteligência artificial (IA) e a seguinte?
Nossa equipe de filósofos, neurocientistas e cientistas da computação olhou para as teorias científicas atuais de como a consciência humana funciona para elaborar uma lista de propriedades computacionais básicas que qualquer sistema hipoteticamente consciente provavelmente precisaria possuir. Em nossa opinião, nenhum sistema atual chega nem perto da barra da consciência – mas, ao mesmo tempo, não há nenhuma razão óbvia para que os sistemas futuros não se tornem verdadeiramente conscientes.
Encontrar indicadores
Desde que o pioneiro da computação Alan Turing propôs seu “Jogo da Imitação” em 1950, a capacidade de se passar por um humano em uma conversa tem sido frequentemente tomada como um marcador confiável de consciência. Isso geralmente ocorre porque a tarefa pareceu tão difícil que deve exigir consciência.
No entanto, como aconteceu com a derrota do computador de xadrez Deep Blue em 1997 para o grão-mestre Gary Kasparov, a fluência conversacional dos LLMs pode apenas mover as traves. Existe uma maneira baseada em princípios de abordar a questão da consciência da IA que não dependa de nossas intuições sobre o que é difícil ou especial sobre a cognição humana?
O nosso recente Livro Branco pretende fazê-lo. Comparamos as teorias científicas atuais sobre o que torna os humanos conscientes para compilar uma lista de “propriedades de indicadores” que poderiam então ser aplicadas a sistemas de IA.
Não achamos que os sistemas que possuem as propriedades do indicador são definitivamente conscientes, mas quanto mais indicadores, mais a sério devemos levar as alegações de consciência de IA.
Os processos computacionais por trás da consciência
Que tipo de indicadores procurávamos? Evitamos critérios comportamentais evidentes – como ser capaz de manter conversas com pessoas – porque eles tendem a ser centrados no ser humano e fáceis de falsificar.
Em vez disso, olhamos para teorias dos processos computacionais que suportam a consciência no cérebro humano. Estes podem nos dizer sobre o tipo de processamento de informações necessário para apoiar a experiência subjetiva.
As “teorias globais do espaço de trabalho”, por exemplo, postulam que a consciência surge da presença de um gargalo de capacidade limitada que reúne informações de todas as partes do cérebro e seleciona informações para disponibilizar globalmente. As “teorias de processamento recorrente” enfatizam o papel do feedback de processos posteriores para processos anteriores.
Cada teoria, por sua vez, sugere indicadores mais específicos. Nossa lista final contém 14 indicadores, cada um focando em um aspecto de como os sistemas funcionam e não em como eles se comportam.
Não há razão para pensar que os sistemas atuais são conscientes
Como as tecnologias atuais se acumulam? Nossa análise sugere que não há razão para pensar que os sistemas de IA atuais são conscientes.
Alguns atendem a alguns dos indicadores. Os sistemas que usam a arquitetura de transformadores, uma espécie de modelo de aprendizado de máquina por trás do ChatGPT e ferramentas semelhantes, atendem a três dos indicadores de “espaço de trabalho global”, mas não têm a capacidade crucial para a retransmissão global. Também não satisfazem a maioria dos outros indicadores.
Então, apesar das impressionantes habilidades de conversação do ChatGPT, provavelmente não há ninguém em casa dentro. Outras arquiteturas igualmente atendem, na melhor das hipóteses, a um punhado de critérios.
A maioria das arquiteturas atuais atende apenas alguns dos indicadores, no máximo. No entanto, para a maioria dos indicadores, há pelo menos uma arquitetura atual que atende a ele.
Isso sugere que não há barreiras técnicas óbvias e em princípio para a construção de sistemas de IA que satisfaçam a maioria ou todos os indicadores.
É provavelmente uma questão de quando, em vez de se algum sistema desse tipo é construído. É claro que muitas perguntas ainda permanecerão quando isso acontecer.
Além da consciência humana
As teorias científicas que analisamos (e os autores do artigo!) nem sempre concordam entre si. Usamos uma lista de indicadores em vez de critérios rigorosos para reconhecer esse fato. Essa pode ser uma metodologia poderosa diante da incerteza científica.
Fomos inspirados por debates semelhantes sobre a consciência animal. A maioria de nós acha que pelo menos alguns animais não humanos são conscientes, apesar do fato de que eles não podem conversar conosco sobre o que estão sentindo.
Um relatório de 2021 da London School of Economics argumentando que cefalópodes como polvos provavelmente sentem dor foi fundamental para mudar a política de ética animal do Reino Unido. Um foco em características estruturais tem a surpreendente consequência de que mesmo alguns animais simples, como insetos, podem até possuir uma forma mínima de consciência.
Nosso relatório não faz recomendações sobre o que fazer com a IA consciente. Essa questão se tornará mais urgente à medida que os sistemas de IA inevitavelmente se tornarem mais poderosos e amplamente implantados.
Os nossos indicadores não serão a última palavra – mas esperamos que se tornem um primeiro passo para enfrentar esta questão complicada de uma forma cientificamente fundamentada.