Jean Jouzel

OA - Liste

« L’urgence est là, nous regardons ailleurs »

filtre:
hallucinations

2025

L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible. Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».