ChatGLM (versión de prueba interna alfa: QAGLM) es un robot de chat diseñado específicamente para usuarios chinos. Utiliza un modelo de lenguaje chino-inglés con 100 mil millones de tokens, con funciones de preguntas y respuestas y conversación. Ha sido ajustado, las pruebas internas restringidas están en curso y su alcance se ampliará con el tiempo.

Además, los investigadores han lanzado el nuevo modelo de discusión bilingüe chino-inglés, ChatGLM-6B, que, junto con la tecnología de cuantización del modelo, se puede implementar localmente en tarjetas gráficas de uso común (INT4). Esto sigue al modelo GLM-130B de código abierto con 100 mil millones de tokens. En cuanto a la cuantización, solo se requieren 6 GB de memoria de video.

El ChatGLM-6B, con 6.2 mil millones de parámetros, es más pequeño que los modelos de 100 mil millones, pero reduce significativamente el umbral para la implementación del usuario. Después de aproximadamente 1 trillón de identificadores de entrenamiento bilingüe chino-inglés, generó respuestas alineadas con las preferencias humanas, complementadas con supervisión y ajuste fino, retroalimentación de autoayuda, refuerzo de aprendizaje con retroalimentación humana y otras tecnologías.

ChatGLM

El ChatGLM se basa en el concepto del ChatGPT como punto de partida, incorporando el entrenamiento previo del código en el modelo base GLM-130B, con 100 mil millones de tokens, logrando la alineación con la intención humana utilizando el Ajuste Fino Supervisado y otros métodos. El exclusivo modelo base GLM-130B de 100 mil millones de tokens es en gran parte responsable de las capacidades mejoradas en la versión actual del ChatGLM. Este modelo es una arquitectura de entrenamiento previo autoregresiva con diversas funciones objetivo, a diferencia de BERT, GPT-3 o T5. Los investigadores pusieron a disposición el modelo denso GLM-130B con 130 mil millones de parámetros para las comunidades académica y empresarial en agosto de 2022.

Ventajas y características clave del ChatGLM

  • Procesa texto en varios idiomas y tiene capacidades de comprensión y generación de lenguaje natural.
  • Ha sido entrenado en diversas áreas y tiene un amplio conocimiento para proporcionar información y respuestas precisas y útiles a las personas.
  • Puede inferir relaciones relevantes y la lógica entre textos en respuesta a las consultas de los usuarios.
  • Puede aprender de sus usuarios y entornos, actualizando y mejorando automáticamente sus modelos y algoritmos.
  • Varios sectores se benefician de esta tecnología, incluyendo la educación, la salud y la banca.
  • Ayuda a las personas a encontrar respuestas y resolver problemas de manera más rápida y fácil.
  • Fomenta la conciencia y impulsa el progreso en el campo de la inteligencia artificial.

Desafíos y limitaciones

  • Ha sido diseñado como un modelo de máquina sin emociones ni conciencia, por lo tanto, carece de la capacidad de empatía y razonamiento moral compartidos por los seres humanos.
  • Puede ser fácilmente inducido al error o llegar a conclusiones incorrectas, ya que su conocimiento depende de los datos y algoritmos disponibles.
  • Puede tener dificultades para responder preguntas abstractas o complejas y puede requerir ayuda para responder con precisión este tipo de preguntas.

ChatGLM-130B

El Centro de Grandes Modelos de la Universidad de Stanford evaluó 30 de los modelos grandes más populares en todo el mundo en noviembre de 2022, y el GLM-130B fue el único modelo de Asia seleccionado. Según el informe de evaluación, en términos de indicadores de precisión y malicia, robustez y error de calibración, el GLM-130B se acerca o iguala al GPT-3 175B (davinci) para todos los modelos grandes de pedestal en la escala de 100 mil millones. Esto se compara con los principales modelos de OpenAI, Google Brain, Microsoft, Nvidia y Facebook.

ChatGLM-6B

El ChatGLM-6B es un modelo de lenguaje chino-inglés con 6,2 mil millones de parámetros. Es un sistema de preguntas y respuestas y discusión en chino que utiliza la misma tecnología que el ChatGLM (chatglm.cn) para funcionar en una sola 2080Ti y permitir el razonamiento. Los investigadores han puesto a disposición el modelo ChatGLM-6B como código abierto simultáneamente para facilitar el desarrollo de la comunidad en tecnologías de modelos grandes.

El modelo ChatGLM-6B es una versión multilingüe de código abierto con 6,2 mil millones de parámetros del framework Generic Language Model (GLM). El método de cuantización permite a los usuarios implementarlo localmente en hardware gráfico de bajo costo.

Utilizando un método muy similar al del ChatGPT, el ChatGLM-6B ha sido diseñado para facilitar sesiones de preguntas y respuestas en mandarín. Los investigadores utilizaron el Ajuste Fino Supervisado, la retroalimentación de inicio y el aprendizaje por refuerzo con entrada humana para entrenar el modelo con un corpus combinado de 1 trillón de tokens en chino e inglés. El modelo puede responder consistentemente a las elecciones humanas, con alrededor de 6,2 mil millones de parámetros.

Características que diferencian al ChatGLM-6B:

  • Los 1 trillón de tokens del ChatGLM-6B son multilingües, entrenados en una mezcla de contenido en chino e inglés en una proporción de 1:1.
  • La técnica de codificación de posición RoPE bidimensional se ha mejorado utilizando la estructura FFN convencional basada en la experiencia de entrenamiento del GLM-130B. El tamaño manejable de los parámetros del ChatGLM-6B, de 6B (6,2 mil millones), también permite el ajuste y la implementación independientes por parte de académicos y desarrolladores individuales.
  • Se requieren al menos 13 GB de memoria de video para que el ChatGLM-6B razonamiento en semiprecisión FP16. Esta demanda puede reducirse aún más a 10GB (INT8) y 6GB (INT4) cuando se combina con la tecnología de cuantización del modelo, lo que permite que el ChatGLM-6B se implemente en tarjetas gráficas de uso común.
  • El ChatGLM-6B tiene una longitud de secuencia de 2048, lo que lo hace adecuado para chats y aplicaciones más largas que el GLM-10B (longitud de secuencia: 1024).
  • El modelo está entrenado para interpretar las intenciones de enseñanza humanas utilizando el Ajuste Fino Supervisado, el Bootstrap de Retroalimentación y el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana. El formato de markdown mostrado es el resultado de este entrenamiento.

Limitaciones del ChatGLM-6B:

  • El espacio de almacenamiento limitado de 6B es responsable de la memoria y las habilidades lingüísticas limitadas del modelo ChatGLM-6B. Puede proporcionar consejos inadecuados al tratar cuestiones que requieren mucho conocimiento factual o solución de dificultades lógicas (como matemáticas o programación).
  • Al ser un modelo de lenguaje solo vagamente sintonizado con la intención humana, el ChatGLM-6B tiene el potencial de producir salidas sesgadas y posiblemente perjudiciales.
  • Se necesita más eficiencia en la capacidad del ChatGLM-6B para interpretar el contexto. Es posible que la conversación pierda su contexto y ocurran errores de comprensión si se tarda mucho en generar respuestas o se necesitan varias rondas de conversación.
  • La mayoría de los materiales de entrenamiento están escritos en chino, mientras que solo una pequeña parte está en inglés. Por lo tanto, la calidad de la respuesta puede comprometerse cuando se utilizan instrucciones en inglés e incluso puede entrar en conflicto con la respuesta proporcionada cuando se utilizan instrucciones en chino.
  • Engañoso: el ChatGLM-6B puede tener problemas de «auto percepción», lo que lo hace susceptible a ser llevado al error y proporcionar información incorrecta. Si la versión actual del modelo tiene fallas, por ejemplo, puede tener una percepción distorsionada de sí mismo. Aunque el modelo ha pasado por el ajuste fino, el entrenamiento previo multilingüe de alrededor de 1 trillón de identificadores (tokens) y el aprendizaje por refuerzo con retroalimentación humana (RLHF), aún puede causar daños bajo instrucciones específicas debido a sus capacidades limitadas, como generar información engañosa.

Consulta el enlace de Github y el proyecto. Todo el crédito de esta investigación va para los investigadores de este proyecto.