
Il arrive qu’un petit fait révèle la nature profonde d’un pouvoir. C’est le cas avec l’affaire Anthropic.
D’après plusieurs médias, dont Le Temps, tout commence lorsque le Pentagone demande à Anthropic un accès total à son IA Claude : sans règles, sans limites, sans éthique. L’armée veut une IA adaptable, intégrable aux systèmes militaires, peut‑être aux décisions mortelles, et utilisable pour la surveillance intérieure.
Anthropic refuse.
Dario Amodei, son chef, affirme que la surveillance de masse est contraire aux valeurs démocratiques. Il refuse aussi que son modèle serve à automatiser la violence.
Les autres géants — Google, OpenAI, Microsoft, xAI — ont déjà accepté sans rien dire.
La réponse du gouvernement américain est rapide et dure : interdiction de Claude dans les agences fédérales, accusations de trahison, blocage des contrats, menaces.
Le message est clair : dans la course à l’IA militaire, aucun désaccord n’est toléré.
Celui qui refuse… mais qui vient du système
Ce qui rend l’affaire étrange, c’est le profil d’Amodei : un homme du sérail, formé à Princeton, passé par Google Brain et OpenAI.
Il connaît parfaitement les rouages du pouvoir technologique américain.
Peut‑on lui faire confiance ? Rien n’est certain.
L’histoire américaine montre une constante : protéger par la surveillance, et surveiller pour protéger.
Cette idée, née pendant la guerre froide, n’a jamais disparu. Elle a simplement changé d’outils.
L’affaire Anthropic n’est pas un cas isolé : c’est un conflit entre une entreprise et un État qui veut aller plus loin que ce que la démocratie peut tolérer.
Aux États‑Unis, la surveillance est un réflexe d’État
Depuis les années 1950 :
- COINTELPRO a infiltré les mouvements civiques ;
- l’opération CHAOS a espionné illégalement des citoyens américains ;
- la NSA a collecté les communications de millions de personnes.
En 2022, un document a confirmé que la CIA avait mené secrètement un programme de collecte de données sur des citoyens américains pendant des décennies, en vertu du décret 12333 — sans mandat, sans contrôle, sans informer le Congrès.
La surveillance n’était plus une exception : elle était devenue une pratique courante.
La légalité contemporaine offre un vecteur d’expansion
Depuis les années 2000, la surveillance est devenue légale :
- Patriot Act : accès élargi aux données nationales ;
- FISA : surveillance des communications étrangères (et indirectement américaines) ;
- lettres de sécurité nationale : accès aux données sans mandat ;
- CLOUD Act (2018) : obligation pour toute entreprise américaine de fournir des données, même stockées à l’étranger.
Le cloud mondial est devenu une extension du territoire américain.
L’IA permet une surveillance totale
L’IA démultiplie les capacités de surveillance :
- analyse en direct de millions de flux vidéo ;
- reconnaissance biométrique immédiate ;
- corrélation automatique des données bancaires, sociales, médicales ;
- prédiction des comportements ;
- surveillance continue, discrète, automatisée.
L’IA ne se contente pas d’observer : elle structure, anticipe, absorbe.
Un refus qui dévoile l’ambition réelle de l’État
Lorsque l’administration américaine exige d’Anthropic un accès sans garde‑fous — y compris pour la surveillance domestique de masse — Amodei refuse :
« Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques. »
Le refus entraîne immédiatement :
- interdiction de Claude dans les administrations fédérales ;
- menaces économiques ;
- pressions politiques ;
- possibilité d’invoquer le Defense Production Act.
L’État américain montre qu’il est prêt à aller loin.
Mais Amodei reste un homme du sérail
Né à San Francisco, formé à Princeton, soutenu par la Hertz Foundation, passé par Google Brain et OpenAI, créateur d’Anthropic avec sa sœur Daniela :
il est un produit du système.
Son refus n’est pas celui d’un opposant extérieur, mais celui d’un acteur interne qui connaît les limites du pouvoir technologique américain.
La vulnérabilité d’Anthropic face à une crise cyber instrumentalisée
Les crises cyber sont :
- fréquentes,
- difficiles à attribuer,
- techniquement obscures,
- politiquement exploitables.
Un incident — réel ou fabriqué — pourrait servir de prétexte pour :
- invoquer le Defense Production Act ;
- imposer des obligations à Anthropic ;
- exiger un accès prioritaire aux modèles ;
- contourner les garde‑fous éthiques.
L’IA est désormais un enjeu stratégique comparable au nucléaire.
Anthropic est un point de bascule
L’affaire révèle :
- une volonté américaine d’étendre massivement la surveillance intérieure ;
- une infrastructure juridique déjà en place ;
- une technologie capable de rendre ces dérives irréversibles.
Ce n’est pas un simple conflit entre une start‑up et un gouvernement.
C’est un avertissement.
Sources
Sur le refus d’Anthropic
Sur les sanctions américaines
Sur le bras de fer avec le Pentagone
Sur la surveillance de la CIA
- WSWS :
https://www.wsws.org/fr/articles/2022/02/14/amer-f14.html
© Céleste R. — CC BY-NC-ND