Com a memória de longo prazo, os modelos de linguagem podem ser ainda mais específicos – ou mais pessoais. O MemoryGPT dá uma primeira impressão.

Neste momento, a interação com modelos de linguagem refere-se a instâncias únicas, por exemplo, no ChatGPT para um único bate-papo. Dentro desse chat, o modelo de linguagem pode, até certo ponto, levar em conta o contexto da entrada para novos textos e respostas.

Na versão atualmente mais poderosa do GPT-4, isso é de até 32.000 tokens – cerca de 50 páginas de texto. Isso possibilita, por exemplo, conversar sobre o conteúdo de um artigo longo. Para encontrar novas soluções, os desenvolvedores podem conversar com um banco de dados de código maior. A janela de contexto é um importante alicerce para o uso prático de grandes modelos de linguagem, uma inovação possibilitada pelas redes Transformer.

No entanto, janelas de contexto cada vez maiores são computacionalmente caras. O desenvolvimento adicional de grandes modelos de linguagem pode, portanto, exigir sistemas de memória adicionais que combinem o máximo possível de entrada atual e novos conhecimentos com o extenso conhecimento pré-treinamento do modelo de linguagem.

Memória de longo prazo pode ser o próximo passo para chatbots como o ChatGPT

Especificamente, os modelos de linguagem exigiriam uma espécie de hipocampo, que no cérebro humano converte memórias de curto prazo em memórias de longo prazo, armazena-as na memória de longo prazo e as recupera quando necessário.

Para o ChatGPT, por exemplo, isso poderia tecer informações de chats anteriores para os atuais: “Lembra-se da minha pesquisa sobre o hipocampo do ano passado? Por favor, conecte isso a este estudo atual sobre o sistema límbico ”, seria um possível alerta.

No Twitter, o desenvolvedor de IA “Rik V.” mostra um primeiro experimento nessa direção com “MemoryGPT”. De acordo com o desenvolvedor, seu sistema pode se lembrar de conversas anteriores “para sempre”, se desejado.

“Ele vai se lembrar de coisas sobre você enquanto você fala com ele. Suas preferências, como você trabalha, qualquer coisa que você diga, basicamente. E ele ajustará seu comportamento para se adequar melhor a você e pode ajudá-lo / treiná-lo em geral ”, escreve o desenvolvedor.

Para isso, o desenvolvedor armazena conversas passadas em um banco de dados vetorial que o MemoryGPT pode acessar a qualquer momento e combina-o com um armazenamento de dados regular para dados e metas de alto nível do usuário. Confira o vídeo abaixo para uma demonstração do MemoryGPT.

Vídeo: Rik V. via Twitter

Para o banco de dados vetorial, existem provedores como o Pinecone que se especializam apenas nesse tipo de memória de longo prazo da IA, embora o desenvolvedor diga que existem “100 maneiras” de colocar o conceito em prática.

Você pode se inscrever para um teste beta se estiver interessado em testar o MemoryGPT. Rik V. está atualmente trabalhando em uma interface melhorada, e os testes estão programados para começar na próxima terça-feira.