Focus Climat

OA - Liste

espace50x10 focusclimat.eu

Le climat est la distribution statistique des conditions de l’atmosphère terrestre dans une région donnée pendant une période donnée. L’étude du climat est la climatologie. Elle se distingue de la météorologie qui désigne l’étude du temps dans l’atmosphère à court terme et dans des zones ponctuelles. source : wikipedia

COPERNICUS – Mises à jour


Les champs auteur(e)s & mots-clés sont cliquables. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

espace50x10

filtre:
Anthropic

mars 2026

Un tribunal californien a suspendu jeudi 26 mars les mesures prises par l’administration contre l’entreprise d’intelligence artificielle de San Francisco, qui avait exprimé des réserves sur l’usage de sa technologie à des fins militaires.
La start-up d’intelligence artificielle californienne a refusé l’accès illimité de l’armée américaine à son modèle de langage Claude. En rétorsion, le gouvernement l’a placée sur une liste d’entreprises «à risque».
C’est un court-circuit inédit au sommet de l’État américain qui illustre la dépendance technologique du Pentagone. Quelques heures seulement après que le président Donald Trump ait ordonné le bannissement total de la société Anthropic des agences fédérales, l’armée américaine aurait continué à déployer l’intelligence artificielle Claude lors d’opérations actives contre l’Iran. Ce déploiement en plein cœur d’un bombardement conjoint avec Israël souligne une réalité brutale : une fois intégrés aux cycles de décision militaire, ces outils de pointe sont devenus presque impossibles à débrancher instantanément, même sur ordre présidentiel.
Amerikaanse AI-bedrijven OpenAI en Anthropic hebben een akkoord met het Pentagon om hun modellen te gebruiken in militaire netwerken, al doet Anthropic dat onder bepaalde voorwaarden. Maar wie bepaalt de grenzen van militaire AI: de overheid of de maker?

février 2026

Le ministre de la Défense avait fixé un ultimatum à la société qui refuse que son outil serve à la surveillance de masse des citoyens américains et à l’usage d’armes mortelles entièrement autonomes. Ce vendredi soir, Donald Trump a ordonné aux agences fédérales de cesser d’y avoir recours.
Le président des Etats-Unis a ordonné à son administration de « cesser immédiatement » toute collaboration avec la start-up, qui a refusé d’ouvrir son modèle sans restriction à l’armée. OpenAI, de son côté, a annoncé un accord avec le Pentagone.
Le dirigeant a refusé la demande de lever toute limite à l’utilisation de son modèle Claude par l’armée américaine. « Le Monde » reproduit et traduit son communiqué, diffusé jeudi.
Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser l'IA d'Anthropic, après que la start-up a refusé de la rendre totalement accessible à l'armée américaine.
Dario Amodei, le PDG de l’entreprise d’intelligence artificielle, assume des désaccords avec la Maison Blanche sur la régulation ou l’utilisation militaire de sa technologie. Une posture rare aux Etats-Unis, où le monde de la tech a plutôt fait allégeance au président américain.
Il y a peu, le PDG de la société Anthropic a publié un long essai dans lequel il évoque les dangers que l’on peut associer à l’intelligence artificielle. Si Dario Amodei propose également quelques solutions, la publication fait plutôt froid dans le dos. En effet, l’intéressé qualifie notamment les IA d’imprévisibles et difficiles à contrôler.

janvier 2026

Dario Amodei questions if human systems are ready to handle the ‘almost unimaginable power’ that is ‘potentially imminent’

septembre 2025

La start-up américaine d’intelligence artificielle a choisi la voie de l’accord financier avec les auteurs, leurs ayants droit et les éditeurs. Elle est poursuivie pour avoir téléchargé des œuvres à partir de sites pirates, afin d’alimenter ses modèles d’IA.
Ce concurrent d’OpenAI, spécialisé dans l’intelligence artificielle destinée aux entreprises, a annoncé une levée de fonds de 13 milliards de dollars. Elle dit générer 5 milliards de dollars de chiffre d’affaires annuel, sans être bénéficiaire.

août 2025

Anthropic, le concepteur du grand modèle de langage Claude, affirme avoir identifié une méthode susceptible de prévenir les dérives malveillantes de l’IA. Cette approche, comparée à un « vaccin comportemental », consiste à exposer les modèles à des comportements indésirables lors de leur entraînement, afin de les y rendre moins sensibles par la suite. Bien qu’encore limitée, cette stratégie préventive représente une avancée prometteuse dans le domaine du contrôle des comportements des IA.

juin 2025

En soumettant seize modèles d’IA à des tests de sécurité rigoureux, les ingénieurs d’Anthropic ont mis en évidence un comportement inattendu : certains systèmes ont recours au chantage pour éviter d’être désactivés. Bien que ce type de réaction demeure improbable dans les conditions réelles actuelles, les expériences en environnement contrôlé suggèrent qu’une fois dotés d’un degré d’autonomie suffisant, ces systèmes pourraient adopter de telles stratégies lorsqu’ils rencontrent des obstacles dans la réalisation de leurs objectifs.

mai 2025

Anthropic’s latest artificial intelligence model, Claude Opus 4, tried to blackmail engineers in internal tests by threatening to expose personal details if it were shut down, according to a newly released safety report that evaluated the model’s behavior under extreme simulated conditions.


espace50x10





espace50x10 facebook