Especialistas não acreditam que a IA esteja pronta para ser um “co-cientista”
No mês passado, o Google anunciou o “AI co-scientist”, uma inteligência artificial desenvolvida para auxiliar cientistas na criação de hipóteses e na elaboração de planos de pesquisa. A empresa a apresentou como uma ferramenta para descobrir novos conhecimentos, mas especialistas afirmam que ela — assim como outras ferramentas similares — fica bem aquém das promessas feitas.
“Essa ferramenta preliminar, embora interessante, não parece que será realmente utilizada”, afirmou Sarah Beery, pesquisadora em visão computacional no MIT. “Não estou certa de que exista demanda para esse tipo de sistema de geração de hipóteses na comunidade científica.”
O Google é a mais nova gigante da tecnologia a defender a ideia de que a IA acelerará dramaticamente a pesquisa científica em breve, especialmente em áreas com grande volume de literatura, como a biomedicina. Em um ensaio no início deste ano, o CEO da OpenAI destacou que ferramentas de IA “superinteligentes” poderiam acelerar massivamente a descoberta científica e a inovação. De forma semelhante, o CEO da Anthropic previu de modo ousado que a IA poderia ajudar a formular curas para a maioria dos cânceres.
No entanto, muitos pesquisadores não consideram a IA atual especialmente útil para orientar o processo científico. Aplicações como o AI co-scientist do Google parecem ser mais um exagero da mídia do que recursos concretos, sem o suporte de dados empíricos.
Por exemplo, em seu comunicado, o Google afirmou que a ferramenta já demonstrou potencial em áreas como a reutilização de medicamentos para a leucemia mieloide aguda, um tipo de câncer de sangue que afeta a medula óssea. Contudo, os resultados são tão vagos que “nenhum cientista sério os levaria a sério”, ressaltou Favia Dubyk, patologista do Northwest Medical Center-Tucson, no Arizona.
“Isso poderia ser um bom ponto de partida para pesquisadores, mas a falta de detalhes é preocupante e não me inspira confiança”, comentou Dubyk.
Esta não é a primeira vez que o Google é criticado pela comunidade científica por promover um suposto avanço em IA sem oferecer meios para que os resultados sejam reproduzidos. Em 2020, a empresa afirmou que um de seus sistemas de IA, treinado para detectar tumores mamários, apresentou desempenho superior ao de radiologistas humanos. Pesquisadores de instituições renomadas publicaram uma retratação afirmando que a ausência de métodos detalhados e de código comprometia o valor científico da pesquisa.
Cientistas também criticaram o Google por minimizar as limitações de suas ferramentas de IA voltadas para disciplinas como a engenharia de materiais. Em 2023, a empresa afirmou que cerca de 40 “novos materiais” haviam sido sintetizados com a ajuda de um de seus sistemas, o GNoME. No entanto, uma análise externa constatou que nenhum desses materiais era, de fato, realmente novo.
“Não compreenderemos verdadeiramente os pontos fortes e limitações de ferramentas como o ‘co-cientista' do Google até que elas passem por uma avaliação rigorosa e independente em diversas áreas científicas”, afirmou Ashique KhudaBukhsh, professor assistente de engenharia de software no Rochester Institute of Technology. “A IA frequentemente se sai bem em ambientes controlados, mas pode fracassar quando aplicada em larga escala.”
Processos Complexos
Parte do desafio em desenvolver ferramentas de IA para auxiliar na descoberta científica é antecipar o número incalculável de fatores de confusão. A IA pode ser útil em áreas onde é necessária uma exploração ampla, como na tarefa de restringir uma lista extensa de possibilidades. Porém, ainda não está claro se ela é capaz de oferecer um tipo de resolução de problemas inovadora que leve a avanços significativos.
“Ao longo da história, alguns dos avanços científicos mais importantes, como o desenvolvimento das vacinas de mRNA, foram impulsionados pela intuição humana e pela perseverança diante do ceticismo”, afirmou KhudaBukhsh. “A IA, como ela está atualmente, pode não estar preparada para replicar esse processo.”
Lana Sinapayen, pesquisadora de IA nos Laboratórios de Ciência da Computação da Sony, no Japão, acredita que ferramentas como o AI co-scientist do Google focam no tipo errado de trabalho científico. Ela enxerga um valor real na IA quando esta automatiza tarefas tecnicamente difíceis ou tediosas, como resumir novas publicações acadêmicas ou formatar textos de acordo com exigências de editais. Contudo, não há muita demanda na comunidade científica por uma IA que gere hipóteses — uma atividade que traz grande satisfação intelectual para muitos pesquisadores.
“Para muitos cientistas, eu incluída, gerar hipóteses é a parte mais prazerosa do trabalho. Por que delegar essa parte divertida a um computador e ficar somente com o trabalho árduo? De forma geral, muitos pesquisadores de IA generativa parecem não entender por que os seres humanos fazem o que fazem, e assim surgem propostas de produtos que automatizam justamente aquilo que nos dá alegria”, explicou Sinapayen.
Beery ressaltou que, frequentemente, a etapa mais desafiadora do processo científico é o planejamento e a execução dos estudos e análises necessários para confirmar ou refutar uma hipótese — algo que os sistemas de IA atuais ainda não conseguem realizar plenamente. A IA não possui a capacidade de utilizar ferramentas físicas para conduzir experimentos e, em geral, apresenta desempenho inferior em problemas para os quais existem dados extremamente limitados.
Riscos da IA
As limitações técnicas e os riscos inerentes à IA — como sua tendência a produzir informações fictícias — também deixam os cientistas cautelosos quanto a seu uso em trabalhos sérios. KhudaBukhsh teme que essas ferramentas possam acabar gerando apenas ruído na literatura científica, sem realmente impulsionar o progresso.
Esse já é um problema real. Estudos recentes apontam que pesquisas fabricadas por IA estão inundando bases de dados acadêmicas, sobrecarregando o sistema tradicional de revisão por pares.
“A pesquisa gerada por IA, se não for cuidadosamente monitorada, pode encher o campo científico com estudos de baixa qualidade ou até mesmo enganosos, comprometendo o processo de revisão”, alertou KhudaBukhsh. “Um sistema de revisão já sobrecarregado é um desafio presente, especialmente em áreas como a ciência da computação, onde conferências importantes têm recebido um número exponencial de submissões.”
Mesmo estudos bem planejados podem ser comprometidos pelo mau funcionamento da IA, segundo Sinapayen. Embora ela veja valor em uma ferramenta que auxilie na revisão e na síntese da literatura, não confiaria na IA atual para executar essa tarefa de forma confiável.
“Diversos sistemas existentes afirmam ser capazes de realizar essas funções, mas não são tarefas que, pessoalmente, eu deixaria a cargo da IA que temos hoje”, afirmou Sinapayen, acrescentando que discorda do modo como muitos desses sistemas são treinados e da quantidade de energia que consomem. “Mesmo que todas as questões éticas fossem resolvidas, a IA atual simplesmente não é confiável o bastante para que eu baseie meu trabalho em seus resultados.”