Flux continu

OA - Liste

Les références selon l’ordre d’entrée dans la base donnée – les plus récentes en premier lieu.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom.
Pour voir les références d’un mot-clé, cliquez dessus.
Pour revenir à la page, utilisez le bouton refresh ci-dessous.

espace50x10

filtre:
hallucinations

19 novembre 2025

Halluciner, percevoir ou sentir quelque chose qui n’existe pas, est souvent le signe d’un trouble psychologique. C’est pourtant ainsi que les firmes de la tech ont choisi de désigner les affirmations erronées produites par les intelligences artificielles. Une manière d’anthropomorphiser la machine jusque dans ses manquements.

04 octobre 2025

Alors que le développement de logiciels a été l’un des premiers domaines à adopter l’IA, celle-ci n’apporterait que des gains de productivité modestes par rapport au battage médiatique qui l’entoure, selon une récente enquête. Elle aurait même tendance à ralentir les développeurs, ceux-ci devant passer par des étapes de révisions rigoureuses pour corriger les hallucinations générées.

04 juillet 2025

L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible. Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.

21 mai 2025

De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».