« L’urgence est là, nous regardons ailleurs »
filtre:
chatgpt
2025
Les scientifiques qui ont conçu les intelligences artificielles les plus sophistiquées de la planète tirent aujourd’hui la sonnette d’alarme. Ces chercheurs de Google DeepMind, OpenAI, Meta et Anthropic – les géants qui façonnent notre avenir numérique – nous mettent en garde contre un danger invisible : leurs propres créations pourraient développer des comportements malveillants sans que nous nous en apercevions.
La société OpenAI a récemment engagé un psychiatre, dont la principale mission sera de surveiller l’intelligence artificielle générative ChatGPT. L’expert étudiera ainsi le comportement de l’IA et devrait permettre aux responsables d’approfondir leur recherches en ce qui concerne de possibles effets néfastes sur la santé mentale des utilisateurs.
L’agent de ChatGPT, indisponible pour l’heure en Europe, permet en théorie de confier à l’IA des tâches aussi complexes que d’organiser son agenda ou de passer commande sur Internet. Mais, comme les outils concurrents, il n’est pas encore parfaitement au point.
L’exploration spatiale entre dans une nouvelle ère où l’intelligence artificielle (IA) ne se contente plus d’assister les humains, elle commence à prendre le contrôle. Imaginez un vaisseau spatial poursuivant un satellite ennemi ou échappant à une situation périlleuse… et ce, sans aucune intervention humaine directe. C’est précisément ce que viennent de démontrer des chercheurs en testant ChatGPT, le célèbre modèle de langage développé par OpenAI, dans une compétition de simulation spatiale. Le résultat ? Une performance impressionnante qui ouvre de nombreuses perspectives pour l’avenir de la navigation autonome dans l’espace.
Elon Musk défie la domination de ChatGPT avec sa propre intelligence artificielle : Grok. Avec un style provocateur et un « humour rebelle », la nouvelle IA de Musk promet d’être un grand rival de ChatGPT et est directement intégrée à X (anciennement Twitter), la plateforme qu’il contrôle depuis 2022.Grok n’est pas simplement un autre chatbot : c’est le pari personnel de Musk pour redéfinir la manière dont nous interagissons avec l’intelligence artificielle. Disponible pour les abonnés Premium+ de X, ce modèle a été conçu pour offrir des réponses plus audacieuses, moins politiquement correctes et avec des informations actualisées en temps réel. Selon Musk lui-même, son IA « ne permettra pas la censure politiquement correcte », un slogan qui vise à attirer ceux qui se plaignent des filtres des modèles concurrents comme ChatGPT.
Une simple partie a révélé une grave faille de sécurité. Un chercheur a démontré que ChatGPT pouvait fournir des clés fonctionnelles de Windows 10 en acceptant de participer à un défi apparemment innocent. Paragraphe de développement immédiat L’expérience a mis en évidence les risques réels liés à l’utilisation abusive de l’intelligence artificielle. Sous l’apparence d’une devinette, le chercheur a réussi à faire générer par le modèle des codes d’activation valides, déclenchant des alertes sur le contrôle des contenus et la sécurité de l’IA.
« Ni additionner ni faire une racine carrée ». Avec ces mots, un professeur universitaire espagnol a mis sur la table l’un des débats les plus vifs concernant l’intelligence artificielle : ses limites. Sa phrase a fortement résonné car, bien que les IA rédigent des textes, répondent à des questions et génèrent des idées avec une fluidité surprenante, elles butent encore sur des opérations aussi basiques qu’une addition ou une racine carrée.
Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?
Depuis l’essor fulgurant des intelligences artificielles génératives comme ChatGPT, une question ne cesse de revenir : ces machines comprennent-elles vraiment ce qu’elles disent, ou se contentent-elles d’enchaîner des mots appris ? Une nouvelle étude menée par des chercheurs chinois semble indiquer que les grands modèles de langage (LLM) pourraient, sans formation explicite, développer une forme de cognition proche de celle des humains, en particulier dans la manière dont ils catégorisent et représentent les objets naturels.
A subreddit tracking apocalyptic news in a calm, logical way comforts users who believe the end The threat of nuclear war, genocide in Gaza, ChatGPT reducing human cognitive ability, another summer of record heat. Every day brings a torrent of unimaginable horror. It used to be weeks between disasters, now we’re lucky to get hours.