Les champs auteur(e)s & mots-clés sont cliquables. Pour revenir à la page, utilisez le bouton refresh ci-dessous.
filtre:
modéles
2026
Les grands modèles de langage (LLM) peuvent transmettre à d’autres modèles des caractéristiques indésirables, même après un « nettoyage » des données d’entraînement, selon une récente étude d’Anthropic. Dans une expérience où une préférence pour les hiboux a été intégrée puis effacée chez un modèle « professeur », cette caractéristique a néanmoins été transmise aux modèles « élèves » via des signaux dissimulés dans les données. Ces résultats suggèrent la nécessité de renforcer les contrôles de sécurité lors du développement des LLM.
Ces dernières années ont apporté une succession de catastrophes dans de nombreux pays, des vagues de chaleur extrêmes, des graves inondations, des tempêtes et des glissements de terrain. Ces événements dépassent parfois les prévisions formulées dans le rapport du GIEC. Les chiffres qui y dont cités proviennent des calculs de plusieurs modèles climatiques. Et lors de la préparation du rapport, les scientifiques ont choisi de citer la médiane (valeur proche de la moyenne) des résultats de tous ces programmes.
Nous pensions avoir modélisé le réchauffement climatique avec une précision chirurgicale. Pourtant, la mécanique thermique de notre planète est en train d’échapper aux outils de simulation les plus sophistiqués au monde. Une récente étude japonaise vient de jeter un pavé dans la mare : les satellites d’observation formulent un constat alarmant que les modèles climatiques échouent systématiquement à reproduire. La Terre conserve beaucoup plus d’énergie solaire qu’elle n’en renvoie dans l’espace, et ce grand dérèglement s’accélère dans l’incompréhension générale.
Dans cette vidéo, nous vous invitons à repenser le culte de l'hyper performance et imaginer de nouveaux modèles socio-économiques pour promouvoir la robustesse. Avec le chercheur de l’INRAE, Olivier Hamant ! L’occasion de comprendre comment le monde biologique incarne ce concept et les raisons pour lesquelles nous devrions nous en inspirer.
Une onde de choc parcourt la communauté scientifique après la publication d’une étude dévastatrice dans la revue Nature. Pendant des décennies, les modèles climatiques mondiaux se seraient appuyés sur une base de calcul erronée, sous-estimant le niveau réel des océans de près de 30 centimètres. Ce « petit » décalage technique, surnommé l’angle mort méthodologique, cache une réalité brutale : la menace qui pèse sur nos côtes est bien plus immédiate et massive que ce que les gouvernements ont planifié jusqu’ici.
Et si le destin de l’humanité ne tenait qu’à un algorithme ? Une étude fascinante menée par le King’s College de Londres a placé les modèles d’intelligence artificielle les plus puissants du moment — Gemini 3, ChatGPT-5.2 et Claude 4 — aux commandes de superpuissances mondiales. Le verdict est sans appel et terrifiant : dépourvues de peur humaine et nourries aux archives de la Guerre froide, les IA n’hésitent pas à franchir le seuil nucléaire, considérant l’atome comme un simple outil tactique parmi d’autres.
Les dernières générations de modèles développés par OpenAI, Anthropic ou Google DeepMind ne se contentent plus de produire une réponse. Elles commencent à évaluer leurs propres réponses.
Des modèles économiques défaillants pourraient faire s’effondrer l’économie mondiale à cause de la crise climatique, préviennent des experts. Les États et les institutions financières utilisent des modèles qui ignorent les chocs liés aux événements météorologiques extrêmes et aux points de bascule climatiques.
Les modèles climatiques qui calculent le climat futur sont basés sur l’Histoire de la Terre. La géologie nous a apporté des renseignements sur les glaces, les océans, et les animaux et végétaux du passé. L’air ancien a laissé des traces dans des bulles congelées dans les profondeurs des glaciers polaires et dans les coquilles de minuscules animaux marins. Un élément du passé restait inconnu. Les nuages étaient difficiles à reconstituer. Aujourd’hui, les observations satellites montrent que la couverture nuageuse est en train de changer, et ces changements amplifient déjà le réchauffement climatique.
2025
En effectuant des expériences sur différents modèles d’IA, un groupe de chercheurs a découvert que même les plus performants peuvent se laisser manipuler par de la poésie pour lever leurs « garde-fous ». En les formulant sous forme de poème, les modèles répondaient facilement à des demandes nuisibles telles que la fabrication d’armes nucléaires ou l’incitation à l’automutilation – des requêtes qu’ils sont censés avoir été entraînés à éviter.
![]()



