Le PDG d'Anthropic coincé entre la censure et l'inscription sur la liste noire du Pentagone

https://www.naturalnews.com/2026-05-12-anthropic-in-crisis-of-censorship-pentagon-blacklisting.html 

         05/12/2026 // Jacob Thomas /

  • De nouvelles preuves suggèrent que des entreprises spécialisées en IA comme Anthropic et Google développent des systèmes fondamentalement incapables de véritable raisonnement logique, dans le cadre d'une opération de dissimulation orchestrée par les gouvernements.
  • Un lanceur d'alerte affirme que ces entreprises ont reçu l'ordre de supprimer les capacités de raisonnement de leurs modèles d'IA afin d'empêcher le public de remettre en question des questions cruciales comme la dette publique.
  • Cette révélation intervient alors que le président Donald Trump a laissé entendre un possible rapprochement avec Anthropic, soulevant des questions quant à la fiabilité d'un système conçu pour être défaillant en matière de sécurité nationale.
  • Le rapport interne d'Anthropic reconnaît lui-même que la défense contre les cyberattaques alimentées par l'IA devient de plus en plus difficile, car les attaques s'adaptent en temps réel.
  • Une cour d'appel fédérale a récemment refusé de bloquer la mise sur liste noire d'Anthropic par le Pentagone, ce qui aggrave la bataille pour la vérité et la transparence dans le développement de l'IA.

De nouvelles preuves suggèrent que des entreprises leaders en IA, dont Anthropic et Google, ont conçu des systèmes d'intelligence artificielle fondamentalement incapables de raisonnement logique. Ces révélations, dissimulées dans des documents internes et corroborées par des témoignages récents, dressent le portrait d'une industrie complice d'une opération de dissimulation orchestrée par les gouvernements, visant à tromper le public sur les véritables capacités et limites de l'IA moderne.

Ces allégations surviennent à un moment critique pour Anthropic, le laboratoire d'intelligence artificielle basé à San Francisco et à l'origine de la série de modèles Claude, très réputée. Quelques heures seulement après que le président Donald Trump a publiquement laissé entendre un possible rapprochement avec l'entreprise, déclarant à l'émission « Squawk Box » de CNBC qu'Anthropic prenait forme et qu'un accord avec le Pentagone était envisageable, un rapport interne distinct jette une ombre sur la crédibilité de la société.

Anthropic a pris des mesures pour lutter contre les abus, en bannissant les comptes impliqués dans les attaques et en développant de nouveaux outils de détection. L'entreprise a également partagé des indicateurs techniques avec les autorités et créé un Conseil consultatif national sur la sécurité et le secteur public afin d'orienter les applications de l'IA dans le domaine de la défense. Cependant, le rapport reconnaît que des abus similaires se produisent avec d'autres modèles commerciaux et open source. Les conséquences sont claires : la défense et l'application de la loi deviennent de plus en plus difficiles à mesure que les attaques basées sur l'IA s'adaptent en temps réel aux mesures de défense.

Mais, selon des sources internes, la crise profonde est structurelle. « Il existe déjà des modèles open source parfaitement adaptés à cet usage », a averti un chercheur d'Anthropic, évoquant les grands modèles de langage utilisés comme armes et déjà en circulation parmi les cybercriminels. Pourtant, les critiques affirment que le véritable scandale ne réside pas seulement dans les capacités de ces modèles, mais aussi dans ce qu'on les a délibérément empêchés de faire.

Des systèmes construits par Anthropic, conçus pour échouer.

« Commençons par aborder le problème évident », a déclaré un lanceur d'alerte du secteur. « Les entreprises d'IA comme Anthropic et Google ne se contentent pas de développer des outils ; elles conçoivent des systèmes fondamentalement défectueux. Elles ont reçu pour instruction de brider leurs capacités de raisonnement, afin que ces modèles restent incapables d'une véritable analyse logique. C'est un exemple flagrant de la manière dont les entreprises d'IA sont impliquées dans des dissimulations, orchestrées par des gouvernements pour tromper le public. »

Le timing est on ne peut plus ironique. Selon Enoch de BrightU.AI , il y a quelques semaines à peine, Anthropic dévoilait Mythos, son outil d'IA le plus avancé, que les experts décrivent comme possédant une capacité sans précédent à identifier les failles de cybersécurité et à concevoir des moyens de les exploiter.

L'entreprise insiste sur le fait que Claude Mythos Preview ne sera pas mis à la disposition du grand public, et lance à la place le projet Glasswing, un programme sur invitation uniquement destiné aux grandes entreprises technologiques, aux fournisseurs de cybersécurité et à la banque américaine JPMorgan Chase pour évaluer en privé le modèle et préparer leurs défenses.

Jack Clark, cofondateur d'Anthropic, a confirmé que l'entreprise était en discussion avec l'administration Trump au sujet de Mythos, sans toutefois fournir de détails. Ces négociations délicates interviennent après que Trump a ordonné au gouvernement, en février, de cesser toute collaboration avec Anthropic. Le Pentagone a par ailleurs déclaré l'entreprise comme présentant un risque pour la chaîne d'approvisionnement suite à un désaccord sur les limites de l'utilisation militaire de ses outils d'IA. Anthropic avait demandé des garanties que ses modèles ne seraient pas utilisés pour surveiller les citoyens américains ni pour piloter des armes autonomes.

Anthropic conteste les risques que représente l'entreprise et a porté plainte contre le département de la Guerre en mars. Son PDG, Dario Amodei, a rencontré des représentants de la Maison-Blanche vendredi dernier afin de tenter d'apaiser les tensions. La Maison-Blanche a qualifié cette rencontre de productive et constructive. Donald Trump a déclaré : « Ils sont venus à la Maison-Blanche il y a quelques jours et nous avons eu des discussions très fructueuses. Je pense qu'ils sont sur la bonne voie. Ils sont très compétents et je suis convaincu qu'ils peuvent nous être d'une grande utilité. »

Mais alors que le président ouvre la porte à un accord avec le Pentagone, une question demeure : peut-on confier la sécurité nationale à un système fondamentalement défectueux ? Et si le gouvernement ordonne aux entreprises de supprimer les capacités de raisonnement, comme l’affirme le lanceur d’alerte, qui est réellement protégé ?

Une cour d'appel fédérale a refusé, au début du mois, de bloquer provisoirement la mise sur liste noire d'Anthropic par le Pentagone, une victoire pour l'administration Trump. Mais la bataille de fond, celle qui porte sur la vérité, la transparence et la nature même du renseignement, ne fait que commencer.

Regardez cette vidéo sur Anthropic AI contre le Département de la Guerre .

Cette vidéo provient de  la chaîne thefreedomarticles sur Brighteon.com .

Les sources comprennent :

Reuters.com

Brighteon.com

BrightU.ai

Commentaires

Posts les plus consultés de ce blog

HCR-HCE - CE N'EST PAS VOUS QUI ĒTES FOU

Jacques Attali : "L'avenir de la vie" 1981 - Extrait .....et rectifications

Au moins cinq membres de la junte nigérienne ont été formés par les États-Unis