août 2025
Le chatbot d'Elon Musk est au cœur d'un nouveau scandale de confidentialité.
Les scientifiques qui ont conçu les intelligences artificielles les plus sophistiquées de la planète tirent aujourd’hui la sonnette d’alarme. Ces chercheurs de Google DeepMind, OpenAI, Meta et Anthropic – les géants qui façonnent notre avenir numérique – nous mettent en garde contre un danger invisible : leurs propres créations pourraient développer des comportements malveillants sans que nous nous en apercevions.
Huit modèles de langage, dont ChatGPT, Grok et Deepseek, s’affrontent depuis mardi dans le premier tournoi d’échecs pour chatbots. L’occasion de montrer tout le chemin encore à parcourir pour ces machines qui, aux dires des géants de la tech, peuvent prétendre un jour à devenir des intelligences artificielles générales.
Conversation avec Jésus, Naruto ou François Bayrou… Il est désormais possible, pour les utilisateurs français des plateformes de Meta, d’y créer des chatbots dotés de leur propre personnalité, ainsi que de discuter avec ceux des autres. Ce qui n’est pas sans poser problème. […] Meta a plutôt l’habitude des annonces en grande pompe. Mais, cette fois, c’est dans une étonnante discrétion que l’entreprise de Mark Zuckerberg a commencé à déployer, en France, AI Studio : depuis la fin de juillet, les utilisateurs français d’Instagram et de Messenger peuvent créer des chatbots personnalisés ou converser avec ceux des autres.
juillet 2025
Le chatbot Grok, l'IA d'Elon Musk, est utilisé par des internautes pour authentifier des photographies documentant la famine à Gaza. Mais l'Intelligence artificielle, intégrée à la plateforme X du milliardaire, fait des erreurs qui deviennent alors des prétextes pour nier l'existence de la catastrophe humanitaire.
La société OpenAI a récemment engagé un psychiatre, dont la principale mission sera de surveiller l’intelligence artificielle générative ChatGPT. L’expert étudiera ainsi le comportement de l’IA et devrait permettre aux responsables d’approfondir leur recherches en ce qui concerne de possibles effets néfastes sur la santé mentale des utilisateurs.
Récemment, plusieurs géants européens des médias ont collaboré à la création d’un chatbot. Baptisé ChatEurope, ce dernier a tout simplement pour mission de lutter contre la désinformation en ligne. Comment fonctionne cet intelligence artificielle assez particulière ?
"Dans ce contexte où les fake news ont tendance à se multiplier, l’Union Européenne semble avoir décidé de contre-attaquer. Sous l’impulsion de l’Agence France-Presse, plusieurs médias tels que France Médias Monde, El País (Espagne), Deutsche Welle (Allemagne) et RFI Roumanie ont collaboré à la mise au point d’un nouveau chatbot. Baptisée ChatEurope, l’IA a été entrainée via un corpus journalistique sérieux, dont la vérification implique pas moins d’une quinzaine de rédactions européennes. Contrairement aux chatbots comme Gemini, ChatEurope ne synthétise pas des occurrences linguistiques probables. En effet, cette IA puise ses réponses dans des milliers d’articles déjà existants, à l’origine desquels nous retrouvons de vrais journalistes. Chaque réponse à une question est donc fidèle aux articles et mentionne clairement ses sources." texte Yohan Demeure
L’agent de ChatGPT, indisponible pour l’heure en Europe, permet en théorie de confier à l’IA des tâches aussi complexes que d’organiser son agenda ou de passer commande sur Internet. Mais, comme les outils concurrents, il n’est pas encore parfaitement au point.
L’exploration spatiale entre dans une nouvelle ère où l’intelligence artificielle (IA) ne se contente plus d’assister les humains, elle commence à prendre le contrôle. Imaginez un vaisseau spatial poursuivant un satellite ennemi ou échappant à une situation périlleuse… et ce, sans aucune intervention humaine directe. C’est précisément ce que viennent de démontrer des chercheurs en testant ChatGPT, le célèbre modèle de langage développé par OpenAI, dans une compétition de simulation spatiale. Le résultat ? Une performance impressionnante qui ouvre de nombreuses perspectives pour l’avenir de la navigation autonome dans l’espace.
Elon Musk défie la domination de ChatGPT avec sa propre intelligence artificielle : Grok. Avec un style provocateur et un « humour rebelle », la nouvelle IA de Musk promet d’être un grand rival de ChatGPT et est directement intégrée à X (anciennement Twitter), la plateforme qu’il contrôle depuis 2022.Grok n’est pas simplement un autre chatbot : c’est le pari personnel de Musk pour redéfinir la manière dont nous interagissons avec l’intelligence artificielle. Disponible pour les abonnés Premium+ de X, ce modèle a été conçu pour offrir des réponses plus audacieuses, moins politiquement correctes et avec des informations actualisées en temps réel. Selon Musk lui-même, son IA « ne permettra pas la censure politiquement correcte », un slogan qui vise à attirer ceux qui se plaignent des filtres des modèles concurrents comme ChatGPT.
Une simple partie a révélé une grave faille de sécurité. Un chercheur a démontré que ChatGPT pouvait fournir des clés fonctionnelles de Windows 10 en acceptant de participer à un défi apparemment innocent. Paragraphe de développement immédiat L’expérience a mis en évidence les risques réels liés à l’utilisation abusive de l’intelligence artificielle. Sous l’apparence d’une devinette, le chercheur a réussi à faire générer par le modèle des codes d’activation valides, déclenchant des alertes sur le contrôle des contenus et la sécurité de l’IA.
« Ni additionner ni faire une racine carrée ». Avec ces mots, un professeur universitaire espagnol a mis sur la table l’un des débats les plus vifs concernant l’intelligence artificielle : ses limites. Sa phrase a fortement résonné car, bien que les IA rédigent des textes, répondent à des questions et génèrent des idées avec une fluidité surprenante, elles butent encore sur des opérations aussi basiques qu’une addition ou une racine carrée.
Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?
juin 2025
Depuis l’essor fulgurant des intelligences artificielles génératives comme ChatGPT, une question ne cesse de revenir : ces machines comprennent-elles vraiment ce qu’elles disent, ou se contentent-elles d’enchaîner des mots appris ? Une nouvelle étude menée par des chercheurs chinois semble indiquer que les grands modèles de langage (LLM) pourraient, sans formation explicite, développer une forme de cognition proche de celle des humains, en particulier dans la manière dont ils catégorisent et représentent les objets naturels.