février 2026
Les dernières générations de modèles développés par OpenAI, Anthropic ou Google DeepMind ne se contentent plus de produire une réponse. Elles commencent à évaluer leurs propres réponses.
Un petit boîtier capable d’analyser l’environnement sonore et de répondre comme un ami. Le collier Friend, commercialisé aux États-Unis, au Canada et dans l’Union européenne soulève plusieurs questions. Isolement social, dépendance affective et collecte de données sensibles sont au cœur des inquiétudes.
Dans une déclaration commune, 86 pays dont les Etats-Unis et la Chine appellent à promouvoir une intelligence artificielle «digne de confiance» pour en «maximiser les bénéfices sociaux et économiques».
Le ministère du Numérique et de l’Intelligence artificielle a chargé des experts de l’IA et des psychiatres de se pencher sur les risques de l’intelligence artificielle pour le grand public. Ils devraient rendre leurs conclusions en mai.
Selon des tests menés par des laboratoires ou des start-up comme Anthropic ou OpenAI, des intelligences artificielles confrontées au risque d’être supprimées cherchent parfois des moyens détournés pour éviter ce scénario. L’interprétation de ces expériences fait débat.
Après avoir servi d'auxiliaire servile aux médecins, l'IA pénètre maintenant au cœur de ce qui fonde la médecine. Depuis qu'elle est IA générative, bientôt super-intelligence, certains de ses promoteurs la projettent dans le rôle d'acteur médical qui pose le diagnostic, décide du traitement et l'administre. Des IA-médecins prendront-elles les rênes de la médecine ?
Une commission de 40 scientifiques internationaux sera formée pour compléter les connaissances de l'IA et mieux évaluer ses effets.
Les États-Unis ont "totalement" rejeté, vendredi, toute gouvernance mondiale de l'IA au sommet à New Delhi, avant une déclaration des dizaines de dirigeants et des ministres du monde entier réunis en Inde sur l'intelligence artificielle.
Les Etats-Unis ont rejeté vendredi toute gouvernance mondiale de l’IA, avant une déclaration des dirigeants du monde entier réunis en Inde sur l’intelligence artificielle.
L’entrepreneur français se démarque des propos sur les risques que ferait peser l’intelligence artificielle tenus par les dirigeants d’OpenAI, Sam Altman, ou d’Anthropic, Dario Amodei.
Imaginez un champ de bataille où un soldat, sans aucune formation de pilote, n’aurait qu’à prononcer une phrase simple pour libérer et diriger une nuée de centaines de drones. Ce n’est plus le scénario d’un film d’anticipation, mais l’objectif d’un concours secret du Pentagone doté de 100 millions de dollars. Parmi les finalistes de cette course à l’armement technologique figurent SpaceX et xAI, les fleurons d’Elon Musk. Ce projet marque une rupture historique : l’intelligence artificielle ne se contente plus d’analyser des données, elle devient le bras armé capable de traduire un ordre vocal en une attaque coordonnée d’essaims autonomes.
Un an s’est écoulé depuis que Donald Trump a prêté serment pour son second mandat. Sa campagne de 2024 s’était construite sur la promesse du « retour de l’abondance ». L’un des engagements était de diviser par deux les factures énergétiques des Américains en douze à dix-huit mois, en « libérant » les hydrocarbures des réglementations de l’administration Biden. Un an après, le bilan d’étape de cette politique énergétique révèle un contraste saisissant entre promesses et réalités. L’exploitation massive des énergies fossiles a effectivement battu des records, faisant des États-Unis le premier producteur et exportateur mondial de pétrole et de gaz. Mais cette « domination énergétique » se construit aux dépens des ménages et des entreprises américaines, qui font face à des coûts en nette hausse, à rebours des espoirs suscités. Analyse d’un piège économique qui se referme sur la base électorale du président républicain et résonne mal avec les promesses de l’America First.
Le secrétaire général de l'ONU, Antonio Guterres, a mis en garde jeudi les dirigeants des géants technologiques et a plaidé pour l'instauration de garde-fous.
Pour le patron de l'entreprise aux manœuvres de ChatGPT, il faut encadrer le développement vertigineux de l'intelligence artificielle.
Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.