Le bug ChatGPT provoque le chaos alors que l’IA génère des réponses absurdes

Le bug ChatGPT provoque le chaos alors que l’IA génère des réponses absurdes

ChatGPT est rapidement devenu l’un des outils d’IA les plus populaires au monde, mais un bug récent a amené le chatbot populaire à générer des réponses inattendues.

ChatGPT est l’une des applications d’IA les plus populaires du créateur OpenAI . Mais c’est loin de leur nouveau logiciel de génération vidéo AI « Sora » . Après avoir subi des améliorations et même une modification du système avancé GPT-4 , le chatbot peut toujours générer des réponses douteuses, sans nécessiter de jailbreak d’aucune sorte.

Le bug a été repéré pour la première fois sur le subreddit ChatGPT , qui regorge de messages rapportant des réponses « absurdes ». Un article est intitulé « C’était comme regarder quelqu’un devenir lentement fou », où la réponse commence fort, mais commence lentement à sombrer dans un non-sens absolu. Il semble que ces hallucinations amènent l’IA d’apprentissage des langues à commencer à utiliser des phrases sans contexte.

ChatGPT 4 devient fou ? L’IA essaie de me dire quelque chose… par u/Looksky_US dans ChatGPT

Les « hallucinations » de l’IA sont assez courantes parmi les modules d’apprentissage des langues, et même si ChatGPT est peut-être l’un des plus avancés d’entre eux, ces réponses prouvent qu’il y a encore du travail à faire.

Une histoire virale du chroniqueur technologique Ed Zitron explique en outre que certaines entreprises pourraient atteindre les « limites supérieures » de ce qui est possible en utilisant l’IA, et à quel point les résultats peuvent réellement être précis.

OpenAI est conscient des problèmes répandus

Logo OpenAI sur illustration GPT-4 par OpenAI
OpenAI

OpenAI a reconnu les erreurs actuelles avec ChatGPT sur sa page d’état du service . La note d’incident indique : « Nous enquêtons sur les rapports faisant état de réponses inattendues de ChatGPT. » et que l’entreprise a identifié le problème et travaille sur un correctif.

Au moment de la rédaction de cet article, le problème n’est pas encore résolu. Cependant, OpenAI a un assez bon historique en matière de correction d’erreurs et de failles pour créer des réponses inattendues, comme le désormais tristement célèbre exploit « Grandma ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *