Page 1 sur 1

Les patrons de l’IA face à la violence

Posté : jeu. 7 mai 2026 08:08
par chtimi054
Les patrons de l’IA face à la violence
Image Deux attaques contre Sam Altman exposent une fracture : l’IA n’est plus seulement un débat technologique, elle devient un sujet de sécurité intérieure.

Je vous parlais, il y a peu, de pirates informatiques s’intéressant aux données personnelles de l’un des plus importants YouTubeurs hexagonaux, Squeezie. Une récupération d’informations qui n’affichait pas sa motivation première : curiosité malsaine ou préparation d’un mauvais coup.

Aujourd’hui, les informations accessibles dépassent de loin le seul terrain d’Internet. Les enlèvements et tentatives d’enlèvement de professionnels de la cryptomonnaie ; les faux policiers aux portes de certains détenteurs de licences de port d’arme ; les cambriolages chez les collectionneurs de cartes Pokémon montrent que le numérique malveillant peut déborder de manière outrancière le simple monde 2.0.

Dernier cas en date : les violences visant Sam Altman à San Francisco marquent un basculement dans la contestation de l’intelligence artificielle et de l’utilisation de données publiques, semi-publiques ou collectées dans le dark web.

En 72 heures, le patron d’OpenAI a été ciblé par un cocktail Molotov, puis par des tirs devant une autre propriété. L’enquête fédérale décrit un suspect jeune, isolé, venu du Texas avec du kérosène et un manifeste accusant l’IA de conduire l’humanité à sa disparition. Le texte saisi cite aussi d’autres dirigeants et investisseurs. Derrière ces attaques, une question s’impose : la peur de l’IA devient-elle un risque concret pour les bâtisseurs de l’IA d’aujourd’hui et de demaii, dans la Silicon Valley, en France, en Europe et dans le reste du monde ?

La cible Altman, symbole d’une peur organisée

Dans la nuit du 10 avril 2026, la contestation de l’intelligence artificielle a franchi un seuil physique. Un cocktail Molotov a frappé le domicile de Sam Altman, à Pacific Heights, quartier privilégié de San Francisco. Trois jours plus tard, une autre propriété liée au patron d’OpenAI a été visée par des coups de feu. Deux actions en 72 heures contre la même figure centrale de l’IA générative : le signal ne relève plus du simple vandalisme.

Le premier suspect identifié, Daniel Moreno-Gama, a 20 ans. Selon les éléments saisis, il est arrivé du Texas avec un bidon de kérosène et un manifeste. Il a été inculpé pour tentative de meurtre. Le document récupéré par le FBI porte un titre sans ambiguïté, Your Last Warning. Il affirme vouloir tuer Sam Altman pour empêcher « notre extinction imminente » causée par l’IA. Une histoire digne du scénario du film Terminator… sauf qu’ici, ce n’est pas un film !

L’aspect le plus inquiétant n’est pas seulement la violence employée. Le manifeste mentionne aussi les noms et adresses d’autres responsables et financiers du secteur. Les dirigeants associés à la « super intelligence artificielle » ne sont donc plus des adversaires abstraits dans un débat public. Ils deviennent des cibles nommées, localisées, intégrées à une logique d’action.

Le parallèle avec Luigi Mangione, qui a tué le PDG de UnitedHealthcare en décembre 2024, éclaire la dynamique. Dans les deux cas, un homme jeune, isolé, construit un récit de réparation violente autour d’un responsable symbolique. Mangione attaquait un système d’assurance santé. Moreno-Gama, lui, accuse les bâtisseurs de l’IA de préparer la fin de l’espèce humaine. L’écart d’échelle nourrit une radicalité plus large : l’ennemi désigné ne serait pas seulement injuste, il deviendrait existentiel.

Ce climat trouve un écho dans les chiffres cités par plus sondages dont celui de Gallup-Walton publié début mars 2026. Parmi les jeunes de la génération Z utilisant l’IA tous les jours, 69 % se déclarent curieux et 18 % en colère. Chez ceux qui ne s’en servent jamais, 60 % disent ressentir de l’anxiété et 59 % de la colère. L’usage quotidien semble donc accompagner une forme d’appropriation. L’absence d’usage, au contraire, laisse la technologie apparaître comme une menace extérieure, opaque, incontrôlable. Début mai 2026, une étude Ipsos BVA pour le Groupe VYV et la CNIL affiche que 46% des jeunes français de 11 à 25 ans considèrent l’IA comme une psy. Ils sont 64% à la considérer comme une conseillère de vie et 54% comme une amie. L’année derniére, je vous expliquais la rencontre que j’aévais eu la chance d’avoir avec plus de 2 000 collégiens (septembre/décembre 2025). Parmi les chiffres que j’ai pu collecter en direct, 96% des jeunes rencontrés utilisaient l’IA.

La ligne cyber et renseignement est ici nette. Une technologie perçue comme inaccessible par une partie de la population peut devenir un marqueur de domination. Quand cette perception s’articule à des manifestes, des listes de cibles et des attaques coordonnées dans le temps, elle cesse d’être une simple opinion. Elle devient un risque de sûreté.

Les bunkers de la Silicon Valley comme aveu stratégique

Les tensions ne se limitent plus à San Francisco. Aux États-Unis, un conseiller municipal d’Indianapolis a reçu 13 coups de feu après avoir défendu un projet de data center. Près de Saint-Louis, une petite commune a renversé son conseil municipal pour avoir approuvé un autre centre de données. L’hostilité à l’infrastructure numérique prend donc une forme territoriale. Les bâtiments, les élus, les investisseurs et les dirigeants deviennent les points visibles d’un système jugé menaçant.

Face à cette montée de tension, l’attitude des élites technologiques alimente le soupçon. Mark Zuckerberg fait construire à Kauai un bunker évalué à 270 millions de dollars, soit environ 248,4 millions d’euros. Peter Thiel possède un refuge en Nouvelle-Zélande. Sam Altman avait confié au New Yorker disposer « d’armes, d’or, d’iodure de potassium, d’antibiotiques et de masques à gaz« . Reid Hoffman, cofondateur de LinkedIn, estime que plus de la moitié des milliardaires de la Silicon Valley possèdent leur « assurance apocalypse« .

Cette préparation privée entre en collision avec le discours public. Les mêmes acteurs promettent une transformation bénéfique de l’économie, de la recherche et du quotidien. Dans le même temps, certains se préparent à survivre en autarcie en cas d’effondrement. La dissonance devient politiquement explosive : on ne peut pas durablement vendre une promesse de progrès tout en fortifiant sa propre sortie de secours.

La phrase attribuée à Ilya Sutskever, ancien chief scientist d’OpenAI, en 2025, résume cette tension interne : « We’re definitely going to build a bunker before we release Super AI » (Nous allons clairement construire un bunker avant de lancer la super IA.). Elle installe l’idée que les risques sont suffisamment sérieux pour justifier des protections exceptionnelles, tout en laissant entendre que la course continue. Pour les opposants les plus fragiles ou les plus radicalisés, ce double message peut servir de preuve : les concepteurs sauraient que le danger existe et avanceraient quand même.

Après les attaques, Sam Altman a appelé à « désescalader la rhétorique et les tactiques, et essayer d’avoir moins d’explosions, dans moins de maisons, au sens figuré comme au sens propre« . La formule vise l’apaisement. Elle évite toutefois le point le plus sensible. La rhétorique de l’extinction n’a pas seulement été portée par les adversaires de l’IA. Elle a aussi été formulée par les dirigeants du secteur, qui décrivent eux-mêmes leurs outils comme potentiellement capables de provoquer une catastrophe humaine.

Daniel Moreno-Gama n’a pas inventé seul l’imaginaire de la fin. Il l’a traduit, selon l’accusation, en violence ciblée. C’est précisément ce passage de la peur au passage à l’acte qui intéresse désormais le renseignement intérieur. Les manifestes que ZATAZ peut croiser dans le darkweb, les communautés en ligne, les cartes d’adresses, les infrastructures de calcul et les personnalités exposées forment un nouveau paysage de menace.

merci à ZATAZ