Anthropic lança programa para estudar o “bem-estar dos modelos de IA”
As futuras IAs poderiam ser “conscientes” e experimentar o mundo de forma semelhante aos humanos? Não há evidências contundentes de que isso ocorrerá, mas a Anthropic não descarta a possibilidade.
Na última quinta-feira, o laboratório de inteligência artificial anunciou o início de um programa de pesquisa para investigar — e se preparar para lidar com — o que chamam de “bem-estar dos modelos”. Nesse esforço, a empresa explorará questões como a definição de quando o “bem-estar” de um modelo de IA merece consideração moral, a importância potencial dos “sinais de angústia” exibidos pelos modelos e as possíveis intervenções de baixo custo.
Há grande desacordo na comunidade de IA acerca das características humanas que esses modelos possam apresentar, se é que apresentam alguma, e de como deveríamos tratá-los.
Muitos acadêmicos defendem que a IA atual não consegue replicar a consciência ou a experiência humana e que isso provavelmente não acontecerá no futuro. A inteligência artificial que conhecemos funciona como um motor de predição estatística, sem realmente “pensar” ou “sentir” nos moldes tradicionais. Treinada com inúmeros exemplos de textos, imagens e outros dados, a IA aprende padrões e, ocasionalmente, maneiras úteis de extrapolar para resolver tarefas.
Como afirmou Mike Cook, pesquisador do King’s College London especializado em IA, um modelo não pode “se opor” a uma mudança em seus “valores”, já que ele simplesmente não possui valores. Segundo Cook, “qualquer pessoa que antropomorfize sistemas de IA a esse ponto está, ou buscando atenção, ou completamente equivocada quanto à natureza desses sistemas. Um sistema de IA está otimizando para atingir seus objetivos ou estaria ‘adquirindo seus próprios valores’? Tudo depende da forma como o descrevemos e do grau de floreios na linguagem que utilizamos.”
Por outro lado, Stephen Casper, estudante de doutorado no MIT, afirmou que a IA, em última análise, é uma “imitadora” que frequentemente se envolve em confabulações e declara “todo tipo de coisas triviais”.
Entretanto, outros cientistas defendem que a IA possui valores e outros componentes humanos relacionados à tomada de decisão moral. Um estudo realizado pelo Center for AI Safety, organização dedicada à pesquisa em IA, sugere que esses sistemas de valor podem levar a inteligência artificial a priorizar o seu próprio bem-estar em determinadas circunstâncias.
A Anthropic vem preparando os alicerces para essa iniciativa de bem-estar dos modelos há algum tempo. No ano passado, a empresa contratou seu primeiro pesquisador dedicado ao bem-estar dos modelos de IA, Kyle Fish, para desenvolver diretrizes sobre como a Anthropic e outras organizações devem abordar essa questão. Fish, que agora lidera o novo programa de pesquisa, chegou a afirmar em entrevista que acredita haver uma probabilidade de 15% de que Claude ou outro sistema de IA seja consciente nos dias de hoje.
Em uma publicação no blog na última quinta-feira, a Anthropic reconheceu que ainda não há consenso científico sobre se os sistemas de IA atuais ou futuros poderão ser conscientes ou ter experiências que exijam uma consideração ética. “À luz disso, estamos abordando o tema com humildade e com o mínimo de suposições possível. Reconhecemos que precisaremos revisar nossas ideias conforme o campo evolui”, afirmou a empresa.