– Outil de recherche de références documentaires –
Recherche : Articles Audio – podcast
Fiches
Livres
Sites
Vidéos
retour Veille
filtre:
Grok
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».
Mercredi 14 mai, durant quelques heures, Grok, l’agent conversationnel du réseau social X, a fait montre d’une étrange obsession. Dans ses réponses, l’intelligence artificielle (IA) propriété d’Elon Musk a évoqué répétitivement la thèse d’un « génocide blanc » en Afrique du Sud, même lorsqu’on l’interrogeait sur tout autre chose – comme sur le salaire d’un joueur de baseball, ou la méthode pour changer de logiciel.
Digne d’un épisode de Black Mirror, une nouvelle tendance aux allures dystopiques se pointe sur le réseau X ce début de semaine : des utilisateurs demandent à Grok, l’IA générative d’Elon Musk, de déshabiller les femmes sur leurs publications.
Pour la première fois, une intelligence artificielle a rédigé une étude qui nie le rôle des activités humaines dans le réchauffement climatique, suscitant l'enthousiasme des climatosceptiques sur les réseaux sociaux. Grok, c’est son nom, explique avoir été influencée par ses co-auteurs… eux-mêmes climatodénialistes.
Grok 3 surpasse les autres en termes de raisonnement, de résolution de problèmes et d'efficacité dans le traitement des données.
Intégrée à l’écosystème de X pour les abonnés à la fonctionnalité «Premium» du réseau social, la technologie est présentée comme «antiwoke» par l’homme d’affaires américain, dans une rupture idéologique avec ChatGPT.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom.
Pour voir les références d’un mot-clé, cliquez dessus.