Na busca por inteligência artificial geral (agi), a safra atual de aplicativos de IA mostra muito pouca aptidão em muitas coisas que qualquer criança de três anos pode entender – entender causa e efeito, gravidade e relações espaciais e a passagem do tempo.

Em grande parte, isso pode ser devido ao fato de que, embora tenhamos um excelente exemplo de inteligência geral no cérebro humano, as redes neurais da IA funcionam de maneiras completamente diferentes da maneira como o cérebro funciona.

Claro, ambos têm coisas chamadas neurônios que são interconectados por sinapses ponderadas, e o estado de um neurônio afeta os estados dos neurônios aos quais ele está conectado.

Inteligência artificial geral vs. inteligência humana geral

A partir daí, porém, a semelhança pára. Os neurônios biológicos não aparecem em camadas ordenadas com conexões ordenadas entre uma camada e outra da mesma forma que as redes neurais da IA. Em vez disso, o cérebro tem um emaranhado de interconexões que ainda temos que desvendar.

O neurônio biológico acumula carga das sinapses recebidas e emite um pico quando um limiar é atingido. Além disso, os valores dos neurônios biológicos são binários: ou há um pico, ou não há.

Os especialistas em IA normalmente combatem essa diferença definindo a ativação das redes neurais da IA para uma função Step, de modo que a saída seja 1 ou 0. O problema com essa abordagem, no entanto, é que ela ignora a carga acumulada de um ciclo para o outro.

Para compensar a diferença, também precisaríamos adicionar memória interna, o que não se reflete na maioria das redes neurais.

Muitos especialistas em IA também sugerem que, em vez de picos individuais, a saída de neurônios artificiais representa a taxa de pico do neurônio, e essa taxa pode variar continuamente.

Na prática, porém, a taxa de pico não pode variar continuamente porque os neurônios biológicos têm uma taxa máxima de pico de cerca de 250 Hz, e os sinais neurais não podem ser úteis abaixo de cerca de 20 Hz.

No meio, altos níveis de ruído no cérebro limitam o número de taxas diferentes que podem ser representadas de forma confiável. Além disso, a detecção de muitas taxas de pico únicas acaba por estar muito além das capacidades dos neurônios individuais, e detectá-los de uma maneira direta é excessivamente lento.

Há também problemas quando você considera como dois sinais de entrada que aumentam na mesma taxa podem produzir diferentes taxas de aumento de saída, dependendo de sua fase relativa ou tempo – ambos ausentes na IA – dando ao neurônio biológico todo um universo de funcionalidades potenciais que faltam nas redes neurais da IA.

Sinapses

Tudo o que nos leva às sinapses. O problema fundamental aqui é que, em um contexto biológico, não há como o cérebro acessar o peso de uma sinapse com precisão.

Se você olhar para um neurônio disparando a uma taxa fixa conectada a outro neurônio com uma sinapse de peso desconhecido e descobrir que o neurônio de saída está disparando a metade da taxa da entrada, isso não significa que a sinapse tenha um peso de 0,5. Em vez disso, isso significa que o peso da sinapse está em algum lugar na faixa de 0,5 a 1,0.

Dentro de um simulador cerebral artificial, é possível simplesmente clicar na sinapse e ler seu peso ou clicar no neurônio e ver o quanto a sinapse contribui para o potencial da membrana.

Em um cérebro biológico, porém, não sabemos como medir o peso de uma sinapse e a única maneira de medir o potencial de membrana de um neurônio é com eletrodos de agulha – não uma perspectiva particularmente agradável ou eficiente.

Então isso significa que os pesos das sinapses são inúteis? Longe disso. Eles são inúteis para armazenar valores precisos que você pode querer ler de volta. Uma maneira melhor de abordar isso é que uma sinapse representa um único bit de informação, enquanto o valor do peso representa a confiança de que esse bit é verdadeiro.

Quanto mais próximo o peso estiver de 0,0 ou 1,0, maior a confiança, porque serão necessários mais picos para alterar o peso para o outro estado.

Backpropagation

Finalmente, há backpropagation, que não pode possivelmente ser representativo de como os neurônios aprendem por duas razões fundamentais.

Há certamente um problema com a enorme quantidade de dados de treinamento necessários para fazer uma função de rede de aprendizado profundo que, obviamente, mostra que a rede neural está aprendendo por um mecanismo diferente do que uma criança.

Mas em um nível ainda mais fundamental, uma rápida olhada na fórmula de retropropagação mostra que ela depende de saber quais são os pesos atuais da sinapse e ser capaz de modificar diretamente o peso de qualquer sinapse na rede com grande precisão. Isso simplesmente não é possível em um mundo biologicamente plausível.

Além disso, o método pelo qual as mudanças de peso são calculadas na retropropagação não funcionará se o campo de gradiente não for continuamente suave, o que não será por causa da natureza discreta dos neurônios e dos pesos das sinapses no cérebro humano.

Tudo isso não quer dizer que as abordagens de IA de hoje estejam erradas ou não funcionem. Pelo contrário, muitos sistemas de IA funcionam muito bem.

Mas os algoritmos da IA de hoje são diferentes da maneira como o cérebro humano realiza tarefas semelhantes. Isso ocorre porque os algoritmos em redes neurais artificiais são impossíveis de implementar nos neurônios.

Depois de quatro décadas de experimentação em IA sem o surgimento da inteligência geral, é hora de reconhecer que novas abordagens são necessárias para que a agi surja.

Maior = melhor?

Muitos especialistas em IA assumem que, embora os sistemas de IA atuais fiquem claramente aquém se pudermos construí-los grandes o suficiente e colocar dados de treinamento suficientes, a inteligência geral surgirá.

Mesmo que isso fosse possível, a inteligência produzida seria diferente da inteligência geral humana por causa das abordagens fundamentalmente diferentes descritas acima.

Isso é muito semelhante ao pensamento inicial no desenvolvimento de sistemas especializados – se pudéssemos programar casos de uso suficientes, um sistema pareceria “entender”.

Mas a inteligência humana flui na outra direção – a complexidade do comportamento humano, seus múltiplos “casos de uso” são o resultado do entendimento.

Estaríamos melhor servidos se olhássemos para a aprendizagem profunda como uma ferramenta estatística poderosa e sofisticada.

Com ele, podemos encontrar relacionamentos dentro de conjuntos de dados que nenhuma mente humana poderia detectar, mas não pode criar espontaneamente a compreensão.

Em vez disso, precisamos nos concentrar nas capacidades de uma criança de três anos. Embora estes não ofereçam muito em termos de aplicações comerciais imediatas, a chave é que qualquer criança de três anos incorpora a capacidade de crescer para uma criança de quatro anos e assim por diante até habilidades de pensamento em nível adulto.

Olhar para as maneiras como qualquer criança aprende sobre o meio ambiente e as relações entre si e o mundo real é a chave para o verdadeiro entendimento, que é fundamental para qualquer desenvolvimento futuro da agi.