• PT/BR
  • ENG/US

Um anti-texto: limitações dos LLM’s como o ChatGPT

  • 25/04/2023
  • Rogério Moreira
  • Blog
  • Alto Contraste
  • +Aumentar fonte
  • -Diminuir fonte

Uma vez passado o hype em torno do ChatGPT, Midjourney e toda a proliferação das Inteligências Artificiais que estão surgindo no mercado, em conversas informais os resultados obtidos em sua utilização no dia a dia são bastante heterogêneos (e por que não dizer… polarizados) – enquanto algumas pessoas não conseguem viver sem, outros experimentaram rapidamente e o consideram meros papagaios, com informações desatualizadas e por que não dizer, mentirosos.

Nem tanto ao céu, nem tanto a terra.

Para entender o que pode ser feito, é preciso entender suas limitações e aquilo para qual não foi projetado.

As informações geradas pelos Modelos de Linguagem não são atualizadas facilmente

Sem entrar em detalhes do processo de criação de um LLM (Large Language Model), como ChatGPT (OpenAI), BARD (Google) ou LLaMA (Facebook), podemos resumir que se coleta uma grande quantidade de informações até uma determinada data e, com base nesses dados, uma série de etapas são executadas para que o modelo se esforce em se comportar de acordo com os aspectos éticos, sociais e desempenhe as habilidades desejadas para as quais foi treinado. Esse processo requer:

  • Muitas pessoas: para executar todas as etapas de tratamento dos dados e treinamento das tarefas;
  • Alto poder computacional: milhares de CPUs, GPUs e petabytes de armazenamento para processar todos os dados coletados;
  • Muitos profissionais envolvidos: OpenAI conta com mais de 300 funcionários na equipe.

Por isso, os LLMs são chamados de modelos de fundação (ou “foundational models”) e, nesse sentido, servem como uma base para as aplicações que são construídas sobre eles. Da mesma forma que manipular a fundação de uma casa não é uma atividade trivial, com os modelos de linguagem, o processo é semelhante – qualquer nova versão envolve muito mais do que simplesmente atualizar seus dados.

Nesse contexto, o ChatGPT tem seu conhecimento baseado em dados treinados até setembro de 2021. Já o Bing, que é baseado na tecnologia da OpenAI, combina as funcionalidades do GPT com funções extras de busca na internet.

Modelos de Linguagem não mentem (nem falam a verdade)

Imagine que você é o CEO de uma empresa de inteligência artificial e coletou todos os dados da internet até setembro de 2021. Antes de lançar seu produto (ChatGPT), você decide revisar todo texto, em todos idiomas, e filtrar o que é fake news, procedente, boato ou o que carece de mais investigação para decidir se é ou não verdade. Se esse fosse o caso, o ChatGPT provavelmente não teria sido lançado até hoje, pois chegar à conclusão do que é ou não verdade tem se tornado um assunto cada vez mais complexo nos dias atuais.

Esses “foundational models” são Inteligências Artificiais Generativas que, em outras palavras, simplesmente completam (ou geram) texto à frente. Essa é a característica da arquitetura de redes neurais dos Transformers, um conceito desenvolvido por pesquisadores do Google e da Universidade de Toronto que, entre outras coisas, aborda a atenção entre as palavras numa sentença e ao longo de diversos textos. Palavras que fazem mais sentido entre si têm um peso maior e são sugeridas com maior probabilidade ao utilizar o modelo.

Dessa forma, os Modelos de Linguagem são projetados para gerar respostas coerentes e plausíveis, mas não necessariamente verdadeiras ou corretas. Eles se baseiam nos padrões e informações encontradas nos dados de treinamento, mas não possuem uma compreensão profunda do mundo ou do conteúdo em questão. Portanto, as respostas geradas pelos modelos podem ser imprecisas, desatualizadas ou até mesmo incorretas, dependendo do contexto e da pergunta feita.

Em conclusão, é importante estar ciente das limitações dos Modelos de Linguagem e reconhecer que, embora possam gerar respostas coerentes e plausíveis, nem sempre são capazes de fornecer informações precisas, atualizadas ou verdadeiras. Ao usar esses modelos, é essencial considerar as restrições inerentes à sua natureza generativa e tratar as respostas com cautela, especialmente em situações onde a precisão e a atualidade das informações são críticas.


PS: ChatGPT classificou esse texto com 4 estrelas. Para ganhar a quinta e gloriosa, seria necessário que o texto sugerisse formas de evitar tais limitações. Esse será o tema de um dos próximos artigos.

PS-2: ChatGPT (ele novamente!) sugeriu que o título do artigo fosse alterado para “Entendendo as limitações dos Modelos de Linguagem de Aprendizado Profundo, como o ChatGPT”, que se alinha melhor com o conteúdo informativo e equilibrado do texto atual.

Ficaria muito chato 🙂 Fico com o anti-texto!

#SejaSiDier

Faça parte do nosso universo tecnológico

Trabalhe no sidi