O popular sistema de inteligência artificial (IA) ChatGPT da OpenAI sofreu um pequeno colapso público entre 20 e 21 de fevereiro, deixando os usuários confusos ao emitir mensagens sem sentido e outras estranhezas, incluindo diálogos pseudo-Shakespeare não solicitados.

Até as 8h14 no horário padrão do Pacífico em 21 de fevereiro, o problema aparentemente foi resolvido. A última atualização na página de status da OpenAI indica que “ChatGPT está operando normalmente”. Isso sugere que o problema foi resolvido 18 horas após a OpenAI ter relatado inicialmente.

Neste momento, não está claro o que precisamente causou o problema e a OpenAI ainda não respondeu ao nosso pedido de comentário.

Com base em uma análise superficial das saídas relatadas, parece que o ChatGPT experimentou algum tipo de confusão na tokenização. Devido à natureza de caixa preta dos modelos de linguagem grandes construídos com a tecnologia GPT, pode não ser possível para os cientistas da OpenAI diagnosticar exatamente o que deu errado. Se esse for o caso, é provável que a equipe se concentre em medidas preventivas, como implementar mais salvaguardas contra sequências longas de aparente nonsense.

A análise de sentimento das mídias sociais indica que a reação ao incidente envolvendo o ChatGPT foi predominantemente negativa. Muitos usuários expressaram frustração e confusão com as respostas sem sentido e estranhas geradas pelo sistema durante o período afetado. Alguns usuários também mencionaram preocupações com a confiabilidade e a qualidade do ChatGPT após o incidente.

No entanto, também houve alguns comentários que sugeriam que o problema não teve um impacto significativo ou duradouro, além de ter sido apenas uma inconveniência temporária. Em geral, parece que o incidente levantou questões sobre a confiabilidade e a estabilidade dos sistemas de IA, especialmente aqueles usados para comunicação e interação com os usuários.

No entanto, este caso ilustra o potencial dos sistemas de IA generativa para enviar mensagens inesperadas, alucinadas ou inconsistentes a qualquer momento. Esses tipos de respostas indesejadas podem ter consequências negativas.

A Air Canada, por exemplo, recentemente descobriu que não podia culpar o algoritmo quando um tribunal ordenou que ela pagasse um reembolso parcial a um cliente que havia recebido informações incorretas sobre políticas de reserva de um chatbot de atendimento ao cliente.

No mundo das criptomoedas, os investidores estão cada vez mais usando sistemas automatizados construídos em cima de LLMs e tecnologia GPT para criar carteiras e executar negociações. Como a recente falha do ChatGPT indica, mesmo os modelos mais robustos podem experimentar falhas inesperadas em qualquer escala.