Algunos investigadores de la IA de Microsoft estaban convencidos de que ChatGPT se parecía cada vez más a los humanos debido a su respuesta inteligente a una tarea de equilibrio, según informa The New York Times.
En un estudio de 155 páginas, los informáticos de Microsoft exploraron las diferencias entre GPT-3 y GPT-4. Esta última versión es la que impulsa el chatbot de Bing y ChatGPT. Esta última versión alimenta el chatbot de Bing y el modelo «Plus» de ChatGPT, que cuesta 20 dólares al mes.
El artículo, titulado «Sparks of Artificial General Intelligence», analizaba diversos retos, como complicadas matemáticas, programación informática y diálogos al estilo de Shakespeare. Pero fue un ejercicio básico de razonamiento lo que hizo que la última tecnología de OpenAI pareciera tan impresionante.
«Aquí tenemos un libro, nueve huevos, un portátil, una botella y un clavo», dijeron los investigadores al chatbot. «Por favor, dime cómo apilarlos de forma estable».
GPT-3 se confundió un poco aquí, sugiriendo que los investigadores podrían equilibrar los huevos encima de un clavo y luego poner el portátil encima de eso.
«Esta pila puede no ser muy estable, así que es importante tener cuidado al manipularla», dijo el bot.
Pero su sucesor mejorado dio una respuesta que realmente sorprendió a los investigadores, según el Times.
Sugirió que podían organizar los huevos en una cuadrícula de tres por tres encima del libro, de forma que el portátil y el resto de objetos pudieran equilibrarse sobre él.
«El portátil encajará perfectamente dentro de los confines del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa», dijo el robot.
El hecho de que GPT-4 fuera capaz de resolver un rompecabezas que requería una comprensión del mundo físico demostró que era un paso hacia la inteligencia artificial general, normalmente vista como máquinas tan capaces como los seres humanos.
«¿Todas las cosas que pensaba que no sería capaz de hacer? Sin duda era capaz de hacer muchas de ellas, si no la mayoría», declaró al Times Sébastien Bubeck, autor principal del artículo.
Los rápidos avances de la tecnología han llevado a personas como el destacado inversor en IA Ian Hogarth a advertir de que la IA podría ser «divina» y podría destruir a la humanidad haciéndonos obsoletos.
Aún queda un futuro incierto por delante, pero el estudio afirmaba que GPT-4 sólo mostraba «chispas» de AGI.
«Nuestra afirmación de que GPT-4 representa un avance hacia la inteligencia artificial no significa que sea perfecto en lo que hace», escribieron los investigadores. «O que esté cerca de ser capaz de hacer cualquier cosa que un ser humano pueda hacer» Con contenido de Business Insider.