Les références selon l’ordre d’entrée dans la base donnée – les plus récentes en premier lieu.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom.
Pour voir les références d’un mot-clé, cliquez dessus.
Pour revenir à la page, utilisez le bouton refresh ci-dessous.
filtre:
hallucinations
04 juillet 2025
(04/07) - Brice Louvet
L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible. Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.
21 mai 2025
(21/05) - Vincent Coquaz
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».