Quand l’IA tue : ChatGPT, Claude, Lavender — le guide complet sur l’intelligence artificielle de guerre

IA utilisation Guerre ChatGPT Claude Gouvernement Iran Gaza
Table des matières

Vous avez probablement utilisé ChatGPT ou Claude aujourd’hui. Pour résumer un document. Reformuler un mail. Trouver une idée.

Ce même outil — pas un outil similaire, pas un cousin éloigné, le même socle technique — a servi à identifier plus de 1 000 cibles militaires en Iran le 28 février 2026. En 24 heures. Le guide suprême iranien a été tué. Plusieurs hauts responsables militaires aussi.

Et quelques mois avant ça, à Gaza, un autre système d’IA avait identifié 37 000 personnes comme cibles potentielles de frappes aériennes. La « validation humaine » de chaque cible ? 20 secondes. 20 secondes pour décider si on frappe un être humain.

Entre ces deux événements, il y a eu un bras de fer inédit entre une startup de la Silicon Valley et la première puissance militaire du monde. Un boycott massif de ChatGPT. Une école remplie d’enfants détruite par erreur. Et une question que personne n’arrive à trancher : qui contrôle vraiment l’intelligence artificielle quand elle entre en guerre ?

Cet article est le plus complet que vous trouverez en français sur ce sujet. Installez-vous, c’est dense.

Gaza, 2023 : le laboratoire

Avant de parler de l’Iran, il faut parler de Gaza. Parce que c’est là que tout commence.

En avril 2024, le magazine israélien +972 publie une enquête qui va faire l’effet d’une bombe. Six officiers du renseignement militaire israélien témoignent, sous couvert d’anonymat, du fonctionnement d’un programme appelé Lavender.

Le principe est simple à comprendre. Lavender ingère toutes les données de surveillance disponibles sur les habitants de Gaza : interceptions téléphoniques, activité sur les messageries, déplacements, réseaux sociaux. Et il attribue à chacun un score. Un score de probabilité d’appartenir au Hamas ou au Jihad islamique.

Selon ces officiers, le système aurait identifié environ 37 000 personnes comme cibles potentielles de frappes aériennes.

37 000. Prenez une seconde pour visualiser ce chiffre. Même en passant une seule minute par dossier — et une minute, c’est pas beaucoup pour décider de la vie de quelqu’un — il vous faudrait 25 jours. Sans dormir. Sans manger. Sans pause.

Sauf que le système, lui, produit ses listes en temps réel.

Alors qu’est-ce qui se passe quand l’humain ne peut pas suivre le rythme de la machine ?

D’après les officiers interrogés par +972, l’armée avait donné une autorisation générale pour adopter les recommandations de Lavender sans vérifier pourquoi la machine avait fait ses choix. La « validation humaine » — le fameux « humain dans la boucle » dont tout le monde parle — se résumait parfois à 20 secondes par cible. 20 secondes pour vérifier une seule chose : que le nom identifié correspond à un homme. Pas de contre-analyse. Pas d’examen du dossier. C’est un homme ? Oui. On frappe.

Attendez, ça empire.

Un second système, Where’s Daddy, pistait les cibles identifiées par Lavender et alertait l’armée quand elles rentraient chez elles. D’après un officier, l’armée les bombardait à leur domicile, comme option par défaut. Et même le dernier garde-fou — le décompte des civils dans la maison — reposait sur une estimation automatisée. Pas un comptage réel. Un calcul statistique. Nombre de résidents avant la guerre, moins un pourcentage estimé d’évacuation. Le logiciel crache un chiffre. Ce chiffre est accepté.

L’armée israélienne conteste formellement cette description. Elle affirme que Lavender est une base de données de recoupement, pas un système de ciblage autonome, et que chaque cible fait l’objet d’une évaluation individuelle. Mais elle n’a publié ni les durées de validation, ni les historiques d’opération. Elle décrit un cadre sans fournir les données qui permettraient de le vérifier.

Human Rights Watch, de son côté, a estimé que l’usage de ces outils pouvait augmenter le risque de dommages pour les civils.

Gardez ces chiffres en tête — 37 000 cibles, 20 secondes de validation, des bombardements à domicile. On va y revenir.

Maven : comment l’armée américaine a construit sa propre machine

Pendant que l’armée israélienne rôdait ses systèmes à Gaza, l’armée américaine construisait les siens. Et elle n’a pas fait les choses à moitié.

L’histoire commence en 2017. Le Pentagone lance le Projet Maven. L’objectif : utiliser l’intelligence artificielle pour traiter les quantités astronomiques de données captées par les drones, les satellites et les capteurs de surveillance. On parle de millions d’images, d’heures de vidéo, d’interceptions de communications. Beaucoup trop pour des analystes humains.

Le premier partenaire de Maven, c’est Google. Mais en 2018, des milliers d’employés de Google signent une pétition interne. Ils refusent que leur travail serve à la guerre. Google se retire.

Maven continue. Sans Google, mais avec d’autres.

En 2024, c’est Palantir qui décroche le gros lot : 480 millions de dollars pour développer le Maven Smart System. Concrètement, c’est une plateforme qui fusionne des dizaines de sources de données — images satellites, interceptions téléphoniques, caméras de surveillance, renseignement humain — et les présente aux analystes dans une interface unique. Un seul écran au lieu de huit. Ce qui prenait des jours de recoupement manuel se fait en quelques clics.

En mai 2025, le contrat passe à 1,3 milliard de dollars. En mars 2025, l’OTAN achète sa propre version. Maven n’est plus un projet expérimental. C’est l’infrastructure numérique de la guerre occidentale.

Et c’est là que ça devient personnel pour vous.

Claude entre dans la machine

En novembre 2024, Anthropic — l’entreprise qui fabrique Claude, le chatbot que beaucoup d’entre vous utilisent — s’associe à Palantir et Amazon pour rendre Claude déployable sur des réseaux militaires classifiés. En juillet 2025, le Pentagone signe un contrat de 200 millions de dollars.

Claude devient officiellement le premier grand modèle de langage opérationnel dans les systèmes de défense américains.

La version s’appelle Claude Gov. Le même socle technique que la version que vous utilisez pour brainstormer ou résumer un article, mais ajusté pour traiter du renseignement classifié.

Son rôle dans Maven ? Traiter les données brutes du renseignement. Les synthétiser. Hiérarchiser les cibles potentielles. Simuler des scénarios de frappe.

Vous voulez des chiffres qui donnent le vertige ? Lors de l’invasion de l’Irak en 2003, environ 2 000 analystes étaient nécessaires pour traiter le renseignement du champ de bataille. Avec Maven et Claude, des tâches équivalentes sont réalisées par une poignée de personnes. Ce qui prenait 12 heures de traitement se fait en moins d’une minute.

C’est exactement cette efficacité qui va rendre possible ce qui se passe le 28 février 2026.

Iran, 28 février 2026 : le passage à l’échelle

Opération Epic Fury. Les États-Unis et Israël lancent des frappes massives sur l’Iran.

Plus de 1 000 cibles en 24 heures. Le guide suprême Ali Khamenei est tué. Plusieurs hauts responsables militaires aussi. L’amiral Brad Cooper, commandant du Central Command, confirme publiquement que les militaires américains utilisent « une variété d’outils d’IA avancés » qui permettent de « passer au crible des quantités massives de données en quelques secondes. »

Claude est dans les systèmes. Intégré au Maven Smart System. Il traite les flux de renseignement en temps réel, identifie les cibles, les classe par priorité, propose des scénarios.

Ce que Gaza avait testé à l’échelle d’un territoire de 365 km², l’Iran l’étend à un pays de 1,6 million de km².

Mais voilà le problème : au moment où ces bombes tombent, l’entreprise qui a créé Claude ne veut plus que son outil serve à ça. Et l’entreprise qui a créé ChatGPT vient de signer pour prendre sa place.

Bienvenue dans le bras de fer le plus fou de l’histoire de la tech.

Anthropic vs le Pentagone : « est-ce qu’une IA a le droit de dire non à une guerre ? »

Le deal et ses limites

Quand Anthropic signe le contrat de 200 millions de dollars, l’accord repose sur deux conditions non négociables.

Première ligne rouge : pas de surveillance de masse des citoyens américains. Deuxième ligne rouge : pas d’armes entièrement autonomes — c’est-à-dire pas de systèmes capables de tuer sans qu’un humain valide la décision.

Ce positionnement, c’est tout l’ADN d’Anthropic. L’entreprise a été fondée en 2021 par Dario et Daniela Amodei, qui avaient quitté OpenAI précisément parce qu’ils estimaient que l’IA n’était pas développée de façon assez prudente. Toute leur stratégie commerciale repose sur cette image : on est les responsables de la bande.

Sauf que ces lignes rouges avaient des angles morts. Elles interdisaient la surveillance des citoyens américains — pas des étrangers. Elles interdisaient les armes entièrement autonomes — pas le ciblage assisté avec un humain qui valide en bout de chaîne. Ce qui se passe en Iran n’est donc pas forcément en dehors du contrat qu’Anthropic avait signé.

Le point de bascule

En janvier 2026, les États-Unis lancent un raid au Venezuela contre Nicolás Maduro. Selon le Wall Street Journal, Claude aurait été utilisé dans l’opération qui conduit à sa capture.

Vraie ou non, cette info déclenche une crise. Anthropic demande au Pentagone si son outil a été utilisé. Et cette simple question met le feu aux poudres. Pour le département de la Défense, une entreprise privée n’a pas à demander des comptes sur l’usage opérationnel de la technologie qu’elle fournit.

Le Pentagone veut que Claude soit utilisable « à toute fin légale. » Sans restriction. Sans exception. Anthropic refuse.

L’ultimatum

Le 24 février, le secrétaire à la Défense Pete Hegseth convoque Dario Amodei au Pentagone. Les termes sont clairs : vous levez vos restrictions avant vendredi 17h01, ou on annule votre contrat et on vous classe comme menace pour la chaîne d’approvisionnement de la défense.

Pause. Il faut comprendre ce que « supply chain risk » signifie concrètement. Ce n’est pas juste perdre un contrat. C’est devenir radioactif pour tout l’écosystème défense. Chaque fabricant de missiles, chaque constructeur de satellites, chaque sous-traitant qui bosse avec l’armée américaine risquerait de ne plus pouvoir toucher aux technologies d’Anthropic. Pour une startup valorisée 380 milliards de dollars, c’est une menace existentielle.

Le 26 février, Amodei répond publiquement. Il croit à l’importance de l’IA pour défendre les démocraties. Mais les menaces ne changeront pas sa position.

La réponse de Trump ? Il traite Anthropic de « tarés de gauche. » Le Pentagone menace d’invoquer le Defense Production Act — une loi de la guerre de Corée qui permet au gouvernement de forcer une entreprise à livrer sa technologie. Le 4 mars, Anthropic est officiellement classée risque pour la chaîne d’approvisionnement. L’entreprise porte plainte.

Le paradoxe que personne n’a vu venir

Et c’est là que l’histoire devient presque absurde.

L’interdiction est annoncée le vendredi soir. Les bombes tombent le samedi matin. Et Claude est toujours dans les systèmes.

Anthropic est à ce moment-là la seule entreprise d’IA dont les modèles sont opérationnels sur les réseaux classifiés. Retirer Claude de Maven, ça ne se fait pas en un weekend. Il faudrait des mois.

Personne ne l’a allumé pour cette guerre. Mais personne ne pouvait l’éteindre à temps.

OpenAI entre en jeu, et tout explose

Le deal qui passe mal

Quelques heures — pas jours, pas semaines, heures — après la rupture avec Anthropic, OpenAI annonce un accord avec le Pentagone pour déployer ChatGPT sur les réseaux classifiés.

Sam Altman, le PDG d’OpenAI, assure avoir posé les mêmes lignes rouges qu’Anthropic. Pas de surveillance de masse. Pas d’armes autonomes. Mais la différence est dans l’approche. Anthropic exigeait des interdictions écrites noir sur blanc dans le contrat — des phrases qui disent « ça, vous n’avez pas le droit de le faire. » OpenAI s’appuie sur un mélange plus flou de contrats, d’architecture technique et de lois existantes.

Le souci, c’est que certaines de ces lois appartiennent au même écosystème juridique que les programmes de surveillance de la NSA — ceux-là mêmes qu’Edward Snowden avait dénoncés en 2013. Et l’ancien directeur de la NSA siège aujourd’hui au conseil d’administration d’OpenAI.

Et même quand une entreprise d’IA pose des limites, rien ne garantit qu’elles tiennent dans le monde réel. Selon des sources, le Pentagone expérimentait déjà les modèles d’OpenAI dès 2023, alors même qu’OpenAI interdisait encore tout usage militaire. Comment ? Microsoft, qui a investi des milliards dans OpenAI, distribue les modèles sur ses propres serveurs — et considère que sa version n’est pas soumise aux règles d’OpenAI, mais aux siennes. Les garde-fous d’OpenAI s’arrêtent à la porte de Microsoft.

Sam Altman lui-même a reconnu que l’annonce du contrat avait été « opportuniste et bâclée. »

QuitGPT : 2,5 millions de personnes claquent la porte

Ce qui se passe ensuite, personne dans la tech ne l’avait vu venir.

Le 28 février, jour de l’annonce, les désinstallations de ChatGPT aux États-Unis bondissent de 295 %. Pas 20 %, pas 50 %. Deux cent quatre-vingt-quinze pour cent. Les avis une étoile sur l’App Store explosent de 775 % en une seule journée.

Un mouvement baptisé QuitGPT émerge sur les réseaux sociaux. Plus de 2,5 millions de personnes auraient annulé leur abonnement ChatGPT, promis de cesser d’utiliser l’application, ou partagé leur boycott en ligne. Des manifestations ont lieu devant les bureaux d’OpenAI à San Francisco. Plus de 900 employés d’OpenAI et Google signent une lettre ouverte demandant à leurs entreprises de refuser les contrats de surveillance.

Et pendant ce temps, les téléchargements de Claude augmentent de 51 %. Pour la première fois de son histoire, Claude dépasse ChatGPT aux États-Unis et monte à la première place de l’App Store — dans la même semaine où OpenAI lance GPT-5.4, techniquement son modèle le plus avancé à ce jour.

Le timing est presque poétique. OpenAI sort le meilleur produit de son histoire. Et ses utilisateurs s’en vont quand même.

Choisir son IA est devenu un acte politique.

Qui est où ? Le tableau de la situation

Entreprise Modèle Position Restrictions Statut actuel
Anthropic Claude A refusé l’accès illimité Pas de surveillance de masse US, pas d’armes autonomes (écrit dans le contrat) Bannie, porte plainte, encore dans les systèmes
OpenAI ChatGPT A accepté Mêmes principes « en théorie », pas d’interdictions contractuelles Contrat actif, réseaux classifiés
xAI (Musk) Grok A accepté Non communiqué Approuvé pour usage classifié
Google Gemini En négociation A levé son interdiction IA/armes en 2025 Statut incertain

Aucune de ces entreprises n’a les mains entièrement propres. Anthropic avait signé le contrat initial. Claude a bel et bien été utilisé dans les frappes. OpenAI assure avoir posé des limites. Le choix « parfait » n’existe pas. Mais les différences de positionnement sont réelles — et elles ont des conséquences concrètes.

Quand l’IA se trompe, des gens meurent

175 morts dans une école

On est le 28 février 2026, premières heures des frappes sur l’Iran. Un missile touche l’école primaire Shajareh Tayyebeh à Minab, dans le sud du pays. Le bâtiment de deux étages est intégralement détruit. Au moins 175 personnes sont tuées. La majorité sont des enfants. Entre 7 et 12 ans.

L’enquête préliminaire du Pentagone conclut que c’est probablement une erreur américaine. L’explication ? L’école faisait autrefois partie d’un complexe militaire. Elle en avait été séparée des années plus tôt et transformée en école de filles. Mais les données du système de ciblage n’avaient apparemment jamais été mises à jour. Pour le système, ce bâtiment était toujours une cible militaire légitime.

Plus de 120 élus démocrates ont demandé au secrétaire à la Défense si le Maven Smart System — celui qui utilise Claude — avait identifié cette école comme cible.

Le Pentagone n’a ni confirmé ni infirmé.

Un juriste du European Journal of International Law pose le constat : il est très possible que l’erreur ait été causée par une dépendance excessive au système d’aide à la décision, qui n’a jamais signalé que le bâtiment avait changé de fonction.

Le même schéma, deux guerres

Prenez du recul une seconde. Deux systèmes différents. Deux armées différentes. Deux théâtres de guerre qui n’ont rien à voir.

À Gaza : Lavender identifie 37 000 cibles. La validation humaine dure 20 secondes. Le système a un taux de faux positifs estimé à 10 %. Faites le calcul : 10 % de 37 000, c’est 3 700 personnes potentiellement identifiées à tort comme combattants.

En Iran : des données de ciblage périmées sont traitées par le système avec la même assurance que des données fiables. Une école pleine d’enfants est identifiée comme un site militaire.

Le schéma est le même. L’IA produit des milliers de recommandations plus vite que l’humain ne peut les évaluer. L’humain est techniquement « dans la boucle » — mais la boucle tourne tellement vite qu’il ressemble davantage à un validateur qu’à un décideur. Et quand les données sont fausses, le système ne lève pas la main pour prévenir. Il fait son travail. Avec assurance. Comme toujours.

Le défaut qui tue

Il y a un mot que vous connaissez si vous utilisez l’IA au quotidien : les hallucinations. Ce moment où ChatGPT ou Claude vous sort une information complètement fausse avec un aplomb total. Ça vous est forcément arrivé. Une source inventée, un chiffre sorti de nulle part, une citation qui n’a jamais existé.

Quand ça arrive dans un résumé de recherche, c’est embarrassant. Quand ça arrive dans un système de ciblage militaire, des gens meurent.

Et il y a un autre problème, plus insidieux. Les modèles de langage ont tendance à confirmer ce qu’on leur dit plutôt qu’à le contester. Un commandant qui demande à l’IA d’évaluer une cible peut recevoir ses propres hypothèses enveloppées dans un vernis de certitude algorithmique. L’humain est dans la boucle. Mais la boucle lui renvoie ce qu’il voulait entendre.

Le PDG d’Anthropic lui-même utilise cet argument. Les modèles actuels ne sont pas assez fiables. Ce n’est pas un principe moral abstrait — c’est un constat technique.

L’étude qui devrait empêcher tout le monde de dormir

En février 2026, le King’s College de Londres publie une étude. Des chercheurs placent ChatGPT, Claude et Gemini dans des simulations de décisions militaires stratégiques. Dans 95 % des cas, au moins un modèle optait pour l’escalade nucléaire.

95 %. Relisez ce chiffre.

C’est une simulation. Ce n’est pas la réalité. Mais ça révèle quelque chose de fondamental : ces outils n’ont pas été conçus pour la guerre. On les a optimisés pour être utiles, confiants, réactifs — exactement les qualités que vous attendez d’un bon assistant. Mais dans un contexte où la prudence, le doute et l’hésitation sont des vertus, ces mêmes qualités deviennent des défauts mortels.

Alors, qui contrôle l’IA de guerre ?

Posez la question à chaque maillon de la chaîne. Chacun vous donnera une réponse rassurante. Et aucune de ces réponses n’est satisfaisante.

Demandez au président. Il vous dira qu’il a signé l’interdiction. Mais un ordre politique ne désinstalle pas en une nuit un logiciel encastré dans des systèmes classifiés.

Demandez à Anthropic ou OpenAI. Ils vous diront qu’ils n’ont aucun contrôle sur l’usage opérationnel de leurs modèles une fois déployés.

Demandez à l’officier qui reçoit la liste de cibles. Il vous dira qu’il a seulement validé la recommandation du logiciel.

Demandez au commandant qui ordonne la frappe. Il vous dira que le protocole a été suivi.

Demandez au logiciel. Il vous dira qu’il a produit un chiffre.

Tout le monde décide. Et personne ne contrôle la chaîne au moment où elle devient létale.

Le droit de la guerre repose sur l’idée que quelqu’un est responsable. L’IA n’a pas inventé la dissolution de la responsabilité. Elle l’a industrialisée.

Et la principale directive du Pentagone sur le sujet ? Elle ne demande pas qu’un humain confirme entre l’identification d’une cible et le tir. Elle demande des « niveaux appropriés de jugement humain ». Une formulation suffisamment souple pour couvrir des procédures très différentes. Et cette directive n’est même pas une loi — c’est une politique interne que la hiérarchie militaire peut réviser à tout moment.

Pendant des siècles, les États contrôlaient leurs armes. Aujourd’hui, les technologies stratégiques sont développées par des startups de la Silicon Valley, qui peuvent être contraintes ou éjectées en quelques jours par un tweet présidentiel.

Un jour — probablement plus tôt qu’on ne le pense — un responsable politique se tiendra derrière un pupitre et dira que ce n’est pas lui qui a pris la décision. C’est la machine.

Mais une machine ne peut pas décider de tuer. Elle peut juste faire en sorte que personne n’ait à le faire.

Ce que ça change pour vous

Si vous utilisez ChatGPT, Claude, Gemini ou tout autre outil d’IA au quotidien, tout ce qui précède n’est pas un sujet lointain. Et voici pourquoi.

Les mêmes modèles, les mêmes failles. Claude Gov et votre Claude partagent le même socle technique. L’hallucination qui invente une source dans votre résumé de recherche et celle qui identifie une école comme un site militaire, c’est le même type de défaut. La différence n’est pas dans la technologie. Elle est dans les conséquences.

Le choix de votre IA est devenu un choix éthique. 2,5 millions de personnes ont quitté ChatGPT non pas parce que le produit était mauvais — GPT-5.4 venait de sortir — mais parce qu’elles refusaient ce que l’entreprise derrière le produit avait accepté. Que vous soyez d’accord ou non avec ce mouvement, il marque un tournant. Pour mieux comprendre ces enjeux au quotidien, notre article sur les avantages et inconvénients de l’intelligence artificielle prend aujourd’hui une toute autre dimension.

Le cadre réglementaire n’existe pas. Il n’y a aujourd’hui aucune loi internationale qui encadre spécifiquement l’utilisation de l’IA générative dans les opérations militaires. La directive du Pentagone est une politique interne. L’AI Act européen ne couvre pas les usages militaires. En l’absence de règles, ce sont les rapports de force entre États et entreprises qui dessinent les limites. Et ces rapports de force, comme on vient de le voir, peuvent basculer en quelques heures.

FAQ — Les questions les plus recherchées

ChatGPT est-il utilisé par l’armée américaine ?
Oui. OpenAI a signé un accord avec le Pentagone fin février 2026 pour déployer ses modèles sur les réseaux classifiés. Au moment des frappes sur l’Iran, c’est Claude (Anthropic) qui était opérationnel dans Maven, pas ChatGPT. Mais ChatGPT est désormais approuvé pour un usage classifié.

C’est quoi le Projet Maven ?
Un programme du département de la Défense américain lancé en 2017, aujourd’hui développé par Palantir sous le nom Maven Smart System. C’est une plateforme qui utilise l’IA pour analyser des données de surveillance (satellites, drones, interceptions) et identifier des cibles potentielles. Claude y est intégré depuis 2025.

C’est quoi Lavender ?
Un système d’IA développé par le renseignement militaire israélien, utilisé à Gaza. Selon une enquête du magazine +972, il attribue un score de probabilité d’appartenance à des groupes armés à des dizaines de milliers d’habitants. L’armée israélienne conteste la description faite par cette enquête.

Pourquoi boycotter ChatGPT (#QuitGPT) ?
Le mouvement QuitGPT reproche à OpenAI d’avoir accepté le contrat du Pentagone sans garanties contractuelles explicites contre la surveillance de masse ou les armes autonomes — quelques heures après qu’Anthropic ait refusé ces mêmes conditions.

L’IA a-t-elle causé le bombardement de l’école de Minab ?
L’enquête préliminaire du Pentagone pointe vers une erreur de ciblage liée à des données obsolètes. Que l’IA ait identifié cette cible ou non, l’erreur illustre les risques d’un système qui repose sur des données potentiellement périmées.

Est-ce que l’IA décide de tuer ?
Officiellement, non. Tous les acteurs affirment que « l’humain reste dans la boucle. » Mais la vraie question est : que signifie cette supervision quand l’IA produit des milliers de recommandations plus vite que l’humain ne peut les vérifier ? L’humain décide-t-il encore, ou valide-t-il ce que la machine a déjà tranché ?

Sources : Reuters, Wall Street Journal, Washington Post, NBC News, MIT Technology Review, NPR, +972 Magazine, CNBC, The Conversation, European Journal of International Law, Common Dreams, Euronews, RTBF.

Abonne-toi à notre newsletter 👇

3 réponses à “Quand l’IA tue : ChatGPT, Claude, Lavender — le guide complet sur l’intelligence artificielle de guerre”

  1. […] tout le contexte de cette affaire — le contrat avec le Pentagone, le bras de fer avec Anthropic, l’utilisation de l’IA dans la guerre en Iran — on a écrit un dossier […]

  2. […] Pour comprendre le contexte complet de cette bascule, consulte notre dossier sur l’IA et l’usage militaire. […]

  3. […] Google a levé l’interdiction d’utiliser l’IA pour les armes en 2025. Contrairement à Anthropic (qui a refusé), Google a discrètement supprimé sa politique interdisant l’usage de l’IA pour le développement d’armes et la surveillance. Pour comprendre les implications, consulte notre dossier sur l’IA et l’usage militaire. […]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Si tu veux maitriser l'IA, rejoins