Transition énergétique ?

OA - Liste

Les champs auteur(e)s & mots-clés sont cliquables. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

espace50x10

filtre:
Anthropic

2026

Anthropic vient de prendre une décision rare et très forte. Il y a quelques jours, l’entreprise a annoncé qu’elle retardait la sortie publique de son nouveau modèle, baptisé Mythos. La raison officielle est claire : ce modèle est trop puissant et trop dangereux pour être mis à la disposition de tous.
Un tribunal californien a suspendu jeudi 26 mars les mesures prises par l’administration contre l’entreprise d’intelligence artificielle de San Francisco, qui avait exprimé des réserves sur l’usage de sa technologie à des fins militaires.
La start-up d’intelligence artificielle californienne a refusé l’accès illimité de l’armée américaine à son modèle de langage Claude. En rétorsion, le gouvernement l’a placée sur une liste d’entreprises «à risque».
C’est un court-circuit inédit au sommet de l’État américain qui illustre la dépendance technologique du Pentagone. Quelques heures seulement après que le président Donald Trump ait ordonné le bannissement total de la société Anthropic des agences fédérales, l’armée américaine aurait continué à déployer l’intelligence artificielle Claude lors d’opérations actives contre l’Iran. Ce déploiement en plein cœur d’un bombardement conjoint avec Israël souligne une réalité brutale : une fois intégrés aux cycles de décision militaire, ces outils de pointe sont devenus presque impossibles à débrancher instantanément, même sur ordre présidentiel.
Amerikaanse AI-bedrijven OpenAI en Anthropic hebben een akkoord met het Pentagon om hun modellen te gebruiken in militaire netwerken, al doet Anthropic dat onder bepaalde voorwaarden. Maar wie bepaalt de grenzen van militaire AI: de overheid of de maker?
Le ministre de la Défense avait fixé un ultimatum à la société qui refuse que son outil serve à la surveillance de masse des citoyens américains et à l’usage d’armes mortelles entièrement autonomes. Ce vendredi soir, Donald Trump a ordonné aux agences fédérales de cesser d’y avoir recours.
Le président des Etats-Unis a ordonné à son administration de « cesser immédiatement » toute collaboration avec la start-up, qui a refusé d’ouvrir son modèle sans restriction à l’armée. OpenAI, de son côté, a annoncé un accord avec le Pentagone.
Le dirigeant a refusé la demande de lever toute limite à l’utilisation de son modèle Claude par l’armée américaine. « Le Monde » reproduit et traduit son communiqué, diffusé jeudi.
Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser l'IA d'Anthropic, après que la start-up a refusé de la rendre totalement accessible à l'armée américaine.
Dario Amodei, le PDG de l’entreprise d’intelligence artificielle, assume des désaccords avec la Maison Blanche sur la régulation ou l’utilisation militaire de sa technologie. Une posture rare aux Etats-Unis, où le monde de la tech a plutôt fait allégeance au président américain.



Listing généré avec