El modelo de IA más potente de OpenAI, GPT-4, está disponible gratuitamente en el chatbot Bing de Microsoft, pero no siempre se utiliza. Presumiblemente por razones de coste, Microsoft también utiliza sus modelos de lenguaje Turing, lo que podría afectar a la calidad de algunas respuestas.

Tres meses después de su lanzamiento, el chatbot de Bing sigue cometiendo errores y dando respuestas poco fiables, más que el ChatGPT original de OpenAI. Ahora hay una posible explicación: el chatbot de Bing no se basa sistemáticamente en los modelos de IA de OpenAI.

El nuevo Bing funciona con un modelo de IA llamado Prometheus, según explicó Microsoft en el lanzamiento del servicio. El sistema asigna preguntas cuyas respuestas se clasifican como «sencillas» a los modelos de lenguaje Turing de Microsoft, dijo Jordi Ribas, jefe de investigación e IA, en una entrevista con Wired.

Los modelos Turing también son parte integrante de los resultados de búsqueda de Bing, como explica Microsoft en una página de inicio. Según Microsoft, se encargan, entre otras cosas, de ordenar, autocompletar y evaluar la relevancia de los anuncios.

Peter Salin, fundador de la startup de IA Silo AI, sugiere que la primera respuesta suele darla un modelo Turing, pero que otras consultas producirían mejores resultados porque serían procesadas por GPT-4. De este modo, Microsoft podría ahorrar costes computacionales.

Ribas rechaza la idea de que las respuestas iniciales del chatbot de Bing sean en general de calidad inferior. Las respuestas imprecisas, dice, se deben más bien a la falta de contexto en las consultas iniciales de los usuarios.

GPT-4 es caro

OpenAI aún no ha publicado las cifras de ingresos y gastos de ChatGPT. Dylan Patel, analista de la empresa de investigación SemiAnalysis, calcula que ChatGPT le cuesta actualmente a OpenAI unos 700.000 dólares al día, o 36 céntimos por petición, lo que supone un total de más de 200 millones de dólares al mes.

OpenAI gana dinero a través de una API de pago, la API GPT-4 en particular es cara y el modelo de suscripción ChatGPT Plus por 20 dólares al mes, que es un requisito para acceder a GPT-4 a través de ChatGPT. Actualmente se desconoce si OpenAI gana o pierde dinero.

Según las previsiones de SimilarWeb, en enero había unos 100 millones de usuarios activos. Basándonos en las cifras anteriores, si alrededor del diez por ciento de ellos tuvieran una cuenta de pago, el puro funcionamiento de ChatGPT podría cubrir aproximadamente los costes. Sin embargo, se trata de un cálculo muy inestable.

Los elevados costes informáticos se deben principalmente al uso de tarjetas gráficas Nvidia, que Microsoft planea sustituir por su propio chip de IA, según The Information. Al parecer, la empresa, que proporciona la infraestructura para ChatGPT y servicios similares en Azure, está intentando minimizar el uso de la costosa GPT-4.

El chatbot de IA de Microsoft está integrado en Bing desde principios de febrero de 2023 y permite vislumbrar un posible futuro de las búsquedas: en lugar de generar una lista de enlaces, la IA responde a la pregunta formulada en un resumen compacto -en el mejor de los casos, incluyendo enlaces a fuentes relevantes para que las afirmaciones del chatbot puedan ser validadas externamente. Esta es la mayor ventaja de GPT-4 en Bing sobre la integración nativa de ChatGPT.