juillet 2025
Après une mise à jour visant à le rendre plus « politiquement incorrect », le chatbot, qui répond aux questions des utilisateurs de X, a déraillé. L’entreprise a rétropédalé.
Grok, le logiciel d'intelligence artificielle d'Elon Musk, a dérapé ces derniers jours en émettant une tirade antisémite. Il a notamment indiqué qu'Hitler pourrait régler le problème migratoire aux Etats-Unis. Cette publication étrange est survenue après une mise à jour voulue par M. Musk destinée à ne pas éliminer systématiquement tous les contenus politiquement incorrects.
A un peu plus d'une heure de la Silicon Valley, un robot à roulettes équipé d'un panneau solaire fait la chasse aux mauvaises herbes dans un champ de coton californien.Guidé par des caméras et de l'analyse en temps réel grâce à l'intelligence artificielle (IA), Element, son nom, repère les végétaux indésirables.
Réduire de 90% la consommation énergetique de l'intelligence artificielle en ayant recours à des petits modèles spécialisés et en posant des questions plus courtes? Telle est la piste envisagée par l'Unesco dans une étude mardi.
Et si les machines pouvaient voir comme nous, ou mieux encore ? Dans le domaine très compétitif de la vision artificielle, une équipe de l’Université de Fuzhou, en Chine, vient de franchir un cap décisif : elle a conçu un capteur bio-inspiré capable de s’adapter à des conditions d’éclairage extrêmes avec une rapidité et une intelligence encore inédites. Grâce à une technologie reposant sur les points quantiques, ce dispositif pourrait bien transformer l’avenir des robots, des véhicules autonomes et de l’imagerie embarquée.
Dans le grand chamboulement qui agite le monde de l’édition des travaux de recherche, au-delà des fraudes et malfaçons classiques, l’intelligence artificielle commence elle aussi à semer les graines de la discorde.
Les systèmes d’intelligence artificielle capables, comme ChatGPT, de répondre aux questions des internautes, aspirent à ringardiser les moteurs de recherche traditionnels et à rendre facultative la consultation de sites Internet. Dans ces conditions, que va-t-il rester du World Wide Web ?
L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible. Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.
Des grands groupes comme Total ou Carrefour ou des start-up comme Mistral ou Pigment jugent le règlement européen dangereux pour la compétitivité.
Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?
juin 2025
En développant une technique d’informatique quantique permettant d’exécuter des algorithmes d’apprentissage automatique basés sur le noyau, des chercheurs ont démontré un gain d’efficacité et de rapidité significatif par rapport aux meilleurs supercalculateurs classiques. La technique repose sur un circuit photonique quantique combiné à un algorithme d’apprentissage automatique sur mesure, permettant des gains de performance notables.
Les derniers modèles d’intelligence artificielle (IA) générative ne se contentent plus de suivre les ordres et vont jusqu’à mentir, manigancer ou menacer pour parvenir à leurs fins, sous le regard inquiet des chercheurs.
Depuis l’essor fulgurant des intelligences artificielles génératives comme ChatGPT, une question ne cesse de revenir : ces machines comprennent-elles vraiment ce qu’elles disent, ou se contentent-elles d’enchaîner des mots appris ? Une nouvelle étude menée par des chercheurs chinois semble indiquer que les grands modèles de langage (LLM) pourraient, sans formation explicite, développer une forme de cognition proche de celle des humains, en particulier dans la manière dont ils catégorisent et représentent les objets naturels.
L'intelligence artificielle s'invite dans l'entreprise. Quel rôle pour le management dans un contexte d'adoption rapide et souvent sans cadre clair ?
Plus de la moitié des articles parus au cours des trois derniers mois sur le site du magazine "Elle" ont été partiellement voire entièrement générés par l’intelligence artificielle (IA). C’est ce que révèle une enquête publiée samedi par la rédaction de fact-checking de VRT NWS.