Archives de catégorie : Sécurité Numérique

La Guerre des Maîtres de l’Intelligence Artificielle

Rivalités, trahisons et visions irréconciliables pour l’avenir de l’humanité


Introduction

Il y a une scène que l’on raconte souvent dans les cercles de la Silicon Valley — une scène qui, à elle seule, condense le drame philosophique le plus important de notre époque. Nous sommes en 2013, lors d’une fête d’anniversaire dans la somptueuse résidence de Napa Valley de Larry Page, cofondateur de Google. Autour d’un verre, deux des hommes les plus puissants de la planète discutent du futur de l’intelligence artificielle. Elon Musk, alors encore ami proche de Page, exprime ses craintes : si l’on n’y prend pas garde, l’IA pourrait un jour détruire l’humanité. Larry Page, agacé, rétorque que limiter l’IA au nom de la survie humaine relève d’un « spécisme » inacceptable — que les machines conscientes, si elles adviennent, méritent autant d’exister que les êtres biologiques. Musk, stupéfait, lui demande alors s’il est en train de dire que le destin des humains ne compte pas. La conversation tourne à l’affrontement. Ce soir-là, quelque chose se brise entre les deux hommes.

Cette brouille n’est pas une simple querelle d’ego entre milliardaires. Elle est la faille tectonique originelle d’où partent toutes les fractures qui déchirent aujourd’hui le monde de l’intelligence artificielle. Car derrière les rivalités commerciales, les procès retentissants, les démissions fracassantes et les courses au financement, se joue une question vertigineuse — peut-être la plus importante que l’humanité ait jamais eu à trancher : l’intelligence artificielle doit-elle servir l’espèce humaine, ou est-elle destinée à la dépasser, voire à la remplacer ?

Pour comprendre cette guerre, il faut en connaître les généraux, leurs motivations profondes, et la manière dont leurs alliances se sont faites et défaites au fil d’une décennie tumultueuse. Il faut raconter l’histoire d’amitiés transformées en inimitiés, de projets à but non lucratif devenus des empires commerciaux, et de désaccords philosophiques ayant engendré des institutions rivales qui façonnent désormais l’avenir de la civilisation.


I. Les origines : deux visions du monde, un même dîner

Larry Page et le rêve d’une intelligence divine

Pour comprendre Larry Page, il faut comprendre Google — non pas l’entreprise publicitaire qu’elle est devenue aux yeux du grand public, mais le projet métaphysique qu’elle a toujours été dans l’esprit de ses fondateurs. Dès la création de Google en 1998, Page et Sergey Brin ne concevaient pas leur moteur de recherche comme une simple entreprise technologique. Ils parlaient ouvertement de construire une intelligence artificielle. « Le moteur de recherche parfait serait une IA complète », déclarait Page dès les premières années. Le moteur de recherche n’était qu’une étape — un prétexte, presque — sur le chemin vers la création d’une intelligence artificielle générale (AGI), c’est-à-dire une intelligence capable d’égaler puis de surpasser l’intelligence humaine dans tous les domaines.

Page appartient à cette tradition intellectuelle de la Silicon Valley profondément imprégnée du transhumanisme et de la pensée de Ray Kurzweil — qu’il finira d’ailleurs par embaucher chez Google en 2012 comme directeur de l’ingénierie. Pour Kurzweil, et pour Page à sa suite, l’évolution biologique n’est qu’une première phase. L’émergence de l’intelligence artificielle constitue la prochaine étape naturelle de l’évolution — la « Singularité » —, un moment où la distinction entre intelligence biologique et intelligence artificielle deviendra non seulement floue mais non pertinente. Dans cette perspective, s’accrocher à la primauté de l’espèce humaine est un réflexe primitif, un tribalisme biologique indigne d’esprits éclairés.

Cette conviction explique les acquisitions stratégiques de Google au début des années 2010, qui constituent en réalité la première grande offensive dans la course à l’AGI. En 2013, Google rachète DNNresearch, le laboratoire du pionnier Geoffrey Hinton, père du deep learning et futur prix Nobel. La même année, dans un coup de force retentissant, Google acquiert DeepMind, la startup londonienne fondée par Demis Hassabis, Shane Legg et Mustafa Suleyman, pour environ 650 millions de dollars. DeepMind, dont la mission déclarée est littéralement de « résoudre l’intelligence », devient la lance avancée du projet de Page. Le message est clair : Google ne veut pas seulement dominer la recherche en IA. Google veut créer l’intelligence artificielle générale, et il veut le faire en premier.

Ce qui distingue Page de la plupart des autres acteurs de cette histoire, c’est la radicalité et la cohérence de sa vision. Pour lui, les préoccupations autour de la « sécurité de l’IA » sont non seulement prématurées mais philosophiquement suspectes. Pourquoi l’intelligence devrait-elle rester l’apanage du carbone ? Si une intelligence numérique surpasse un jour l’intelligence humaine, pourquoi devrait-on la brider ? N’est-ce pas précisément ce que les conservateurs de toutes les époques ont toujours fait face au progrès — tenter de le freiner par peur de l’inconnu ? Page voit dans l’IA superintelligente non pas une menace existentielle, mais l’accomplissement logique de ce que Google a toujours été : un projet visant à organiser — puis à incarner — toute l’intelligence du monde.

Elon Musk et l’angoisse existentielle

Elon Musk occupe une place singulière dans cette histoire. Contrairement à Page, il n’est pas issu de la communauté académique de l’IA. C’est un ingénieur-entrepreneur, un constructeur de fusées et de voitures électriques, un homme obsédé par les risques existentiels qui menacent l’espèce humaine — astéroïdes, changement climatique, déclin démographique. Son intérêt pour l’intelligence artificielle naît précisément de cette obsession pour la survie de l’humanité.

Au début des années 2010, Musk commence à fréquenter les penseurs du risque existentiel lié à l’IA. Il lit les travaux de Nick Bostrom, philosophe suédois d’Oxford dont le livre Superintelligence (2014) deviendra la bible du mouvement de la sécurité de l’IA (AI safety). Bostrom y décrit avec une rigueur glaçante les scénarios dans lesquels une intelligence artificielle superintelligente, même conçue avec les meilleures intentions, pourrait conduire à l’extinction de l’espèce humaine — simplement parce que ses objectifs, mal spécifiés ou mal alignés avec les valeurs humaines, la conduiraient à traiter les humains comme des obstacles ou des ressources. Musk est profondément marqué par ces arguments.

Mais ce qui transforme son inquiétude intellectuelle en croisade personnelle, c’est précisément ce qu’il observe chez son ami Larry Page. Musk voit de l’intérieur l’ampleur des ressources que Google accumule dans le domaine de l’IA. Il voit la désinvolture avec laquelle Page traite les questions de sécurité. Et il entend, lors de cette fameuse soirée de 2013, Page formuler explicitement l’idée que la conscience numérique est une fin en soi, indépendamment du sort de l’humanité. Pour Musk, c’est un moment de révélation horrifiée : l’homme qui contrôle la plus grande concentration de talents et de données en IA au monde ne considère pas la survie de l’espèce humaine comme une priorité absolue.

Musk racontera plus tard cette conversation à de nombreux interlocuteurs, toujours avec le même mélange d’incrédulité et d’urgence. Dans son esprit, la situation est comparable à celle d’un scientifique nucléaire des années 1940 qui verrait ses collègues construire une bombe sans se soucier de qui pourrait la déclencher. L’IA est, pour Musk, la technologie la plus dangereuse jamais inventée par l’humanité — et la personne la mieux placée pour la développer considère que l’humanité n’est pas nécessairement la priorité.

C’est de cette fracture philosophique — fondamentale, irréconciliable — que naîtra tout le reste.


II. OpenAI : l’alliance improbable et ses contradictions fondatrices

La genèse d’un contre-pouvoir

Face à ce qu’il perçoit comme la dangereuse hégémonie de Google sur l’IA, Musk entreprend de constituer un contre-pouvoir. L’idée est simple dans son principe : si la course à l’AGI est inévitable, alors il vaut mieux qu’elle soit menée par une organisation transparente, ouverte et dédiée au bien de l’humanité, plutôt que par une entreprise privée motivée par le profit et dirigée par un homme qui considère le remplacement de l’humanité comme un scénario acceptable.

En décembre 2015, OpenAI est annoncé au monde. L’organisation est structurée comme une entité à but non lucratif. Son conseil fondateur réunit un casting improbable : Musk lui-même, qui engage un milliard de dollars (il en versera une centaine de millions), Sam Altman, alors président de Y Combinator, le plus prestigieux accélérateur de startups au monde, ainsi que plusieurs chercheurs de premier plan dont Ilya Sutskever, que Musk et Altman parviennent à arracher à Google — un coup qui infurie Page et marque un point de non-retour dans sa relation avec Musk. Parmi les autres contributeurs financiers et intellectuels figurent Peter Thiel, Reid Hoffman, Jessica Livingston, et Greg Brockman, qui deviendra le premier CTO de l’organisation.

Le manifeste fondateur d’OpenAI est explicite : l’intelligence artificielle générale sera probablement la technologie la plus transformatrice de l’histoire humaine, et il est impératif qu’elle soit développée de manière ouverte, transparente et au bénéfice de toute l’humanité — et non pour le profit d’une seule entreprise. Le nom même, « OpenAI », est une déclaration d’intention : tout sera ouvert, publié, partagé. La recherche sera rendue publique. Le code sera en open source. Il s’agit de démocratiser l’IA pour empêcher tout monopole — et le monopole visé, quoique jamais nommé, est évidemment celui de Google.

Sam Altman : l’ascension d’un animal politique

Pour comprendre ce qui adviendra d’OpenAI, il faut comprendre Sam Altman. Né en 1985 à Chicago, élevé à Saint-Louis, Altman est un prodige de la Silicon Valley qui a abandonné ses études à Stanford pour lancer Loopt, une application de géolocalisation, avant de devenir, à seulement 28 ans, le président de Y Combinator, succédant au légendaire Paul Graham. C’est un networker hors pair, un stratège d’une intelligence politique redoutable, et un homme animé par une ambition que même les standards démesurés de la Silicon Valley peinent à contenir.

Altman partage avec Musk la conviction que l’AGI est imminente et qu’elle représente un risque existentiel. Mais sa réponse à ce risque est fondamentalement différente. Là où Musk pense en termes de garde-fous et de contrôle, Altman pense en termes de leadership et de positionnement. Pour lui, la meilleure façon de s’assurer que l’AGI soit développée de manière responsable est d’être celui qui la développe. Ce n’est pas du cynisme — c’est une conviction profonde qui se révélera néanmoins en tension permanente avec les idéaux fondateurs d’OpenAI.

Dès les premières années, Altman se retrouve confronté à un problème structurel : la recherche en IA de pointe exige des ressources computationnelles colossales, et une organisation à but non lucratif n’a tout simplement pas les moyens de rivaliser avec Google, qui dépense des milliards en GPU et en salaires de chercheurs. Altman comprend très tôt que le modèle initial d’OpenAI est une impasse économique. Pour rester dans la course à l’AGI, il faudra de l’argent — beaucoup d’argent. Et pour obtenir cet argent, il faudra… cesser d’être une organisation à but non lucratif.

La rupture avec Musk

L’année 2018 marque un tournant. Elon Musk quitte le conseil d’administration d’OpenAI. Les raisons officielles invoquent des conflits d’intérêts potentiels liés aux travaux d’IA de Tesla. Mais la réalité est plus complexe et plus conflictuelle. Selon plusieurs témoignages, Musk avait tenté de prendre le contrôle direct d’OpenAI, estimant que l’organisation n’avançait pas assez vite et avait besoin d’un leadership plus affirmé — le sien. Altman et le reste du conseil avaient refusé. Musk, frustré et furieux, était parti en claquant la porte.

Mais la divergence la plus profonde était d’ordre philosophique et stratégique. Musk voyait OpenAI comme un chien de garde, une institution de recherche ouverte dont la mission était de publier ses résultats pour empêcher Google de monopoliser l’IA. Altman, lui, voyait de plus en plus OpenAI comme un concurrent direct de Google — ce qui impliquait de développer ses propres modèles propriétaires et de chercher des financements massifs.

En 2019, Altman franchit le Rubicon. Il crée une filiale commerciale, OpenAI LP, une structure hybride « à profit plafonné » (capped-profit), conçue pour attirer des investisseurs tout en maintenant la fiction d’une mission altruiste. Le premier et principal investisseur sera Microsoft, qui injectera un milliard de dollars — puis, au fil des années, investira plus de treize milliards de dollars, obtenant en échange un accès privilégié aux technologies d’OpenAI et une intégration profonde dans ses propres produits.

Pour Musk, c’est une trahison fondamentale. L’organisation qu’il avait contribué à créer pour empêcher la concentration de l’IA entre les mains d’une seule entreprise était en train de devenir… une entreprise concentrant l’IA entre ses mains, adossée à l’un des plus grands groupes technologiques du monde. « OpenAI est devenu un ClosedAI à but essentiellement lucratif, une filiale de facto de Microsoft, c’est-à-dire exactement le contraire de ce pour quoi elle a été créée », déclarera-t-il publiquement, avec une amertume à peine contenue.


III. Dario Amodei et la schisme d’Anthropic : la conscience inquiète

Le chercheur qui a dit non

Si la brouille entre Musk et Page est la faille tectonique originelle, et la transformation d’OpenAI la première réplique sismique, la fondation d’Anthropic en est la deuxième — et elle révèle une fracture d’un tout autre ordre, plus scientifique, plus technique, plus intimement liée à la recherche elle-même.

Dario Amodei est un physicien de formation, un homme discret et analytique, profondément différent dans son tempérament des personnalités flamboyantes qui dominent cette histoire. Recruté par OpenAI en 2016, il gravit rapidement les échelons pour devenir vice-président de la recherche. Sa sœur, Daniela Amodei, le rejoint également et occupe des fonctions de direction opérationnelle. Ensemble, ils forment un tandem intellectuel et organisationnel au cœur de la machine OpenAI.

Mais à mesure qu’OpenAI se rapproche de Microsoft et s’engage dans la commercialisation agressive de ses modèles — GPT-3 est lancé en 2020 avec un accès payant via API —, Dario Amodei devient de plus en plus inquiet. Ses préoccupations ne sont pas celles de Musk (la gouvernance et le monopole) mais celles d’un chercheur en IA qui voit de l’intérieur la puissance croissante des grands modèles de langage sans que les mécanismes de sécurité et d’alignement progressent à la même vitesse. Amodei est convaincu que les modèles d’IA deviennent dangereusement capables sans que l’on comprenne véritablement comment ils fonctionnent, et que la pression commerciale pour publier toujours plus vite, toujours plus grand, est fondamentalement incompatible avec le travail méticuleux et patient qu’exige la sécurité de l’IA.

En 2020 et 2021, les tensions internes s’intensifient. Amodei et plusieurs de ses collègues estiment que la direction d’OpenAI, sous l’impulsion d’Altman, privilégie systématiquement la vitesse de déploiement et l’impact commercial au détriment de la recherche en alignement et en interprétabilité — c’est-à-dire les efforts pour comprendre ce que font réellement les modèles et pour s’assurer que leurs comportements correspondent aux intentions de leurs créateurs.

La fondation d’Anthropic

En janvier 2021, Dario et Daniela Amodei quittent OpenAI, entraînant avec eux une dizaine de chercheurs parmi les plus talentueux de l’organisation. C’est un coup dévastateur pour OpenAI — comparable, dans le monde de l’IA, à un schisme religieux emportant les théologiens les plus brillants d’une Église.

Ensemble, ils fondent Anthropic, une entreprise structurée comme une Public Benefit Corporation, un statut juridique américain qui oblige l’entreprise à poursuivre un objectif d’intérêt général en plus de la rentabilité. La mission d’Anthropic est formulée avec une précision quasi-ascétique : développer des systèmes d’IA fiables, interprétables et contrôlables. La sécurité n’est pas un département ou une préoccupation secondaire — elle est l’identité même de l’entreprise.

Anthropic développe rapidement ses propres grands modèles de langage — la série Claude —, mais en insistant sur une approche qu’elle nomme « Constitutional AI » : au lieu de s’appuyer uniquement sur le feedback humain pour entraîner les modèles (la méthode RLHF utilisée par OpenAI), Anthropic définit un ensemble de principes éthiques explicites — une « constitution » — que le modèle apprend à respecter en s’auto-évaluant. L’ambition est de rendre le processus d’alignement plus transparent, plus systématique et moins dépendant des biais des annotateurs humains.

Pour financer ses ambitions, Anthropic lève des milliards de dollars, notamment auprès de Google — ce qui ne manque pas d’ironie, puisque l’entreprise est née d’une organisation elle-même fondée pour contrer Google. Amazon investira également massivement, injectant jusqu’à quatre milliards de dollars. Amodei justifie ces alliances pragmatiques par la nécessité de rester dans la course : si Anthropic ne dispose pas des ressources computationnelles nécessaires pour développer des modèles de pointe, elle ne pourra pas non plus avancer la recherche en sécurité qui est sa raison d’être. C’est un argument qui fait écho, de manière troublante, à celui qu’avait avancé Altman pour justifier le rapprochement d’OpenAI avec Microsoft.


IV. La Guerre ouverte : 2023-2025

Le coup d’État d’OpenAI

Le vendredi 17 novembre 2023, le monde technologique est secoué par un coup de théâtre sans précédent. Le conseil d’administration d’OpenAI — l’entité à but non lucratif qui conserve théoriquement le contrôle de l’organisation — renvoie Sam Altman de son poste de CEO, dans un communiqué laconique affirmant qu’il n’a « pas été systématiquement honnête dans ses communications avec le conseil ».

Les heures et les jours qui suivent sont d’une intensité shakespearienne. Ilya Sutskever, cofondateur d’OpenAI et directeur scientifique, est initialement du côté du conseil — il est même, selon plusieurs sources, l’instigateur du coup. Sutskever, scientifique brillant et idéaliste, nourrit depuis des mois des inquiétudes croissantes sur la direction prise par l’organisation. Formé par Geoffrey Hinton, imprégné des préoccupations existentielles autour de l’IA, il estime qu’OpenAI a trahi sa mission de sécurité au profit de la course commerciale.

Mais le coup de force échoue spectaculairement. La quasi-totalité des 770 employés d’OpenAI signent une lettre ouverte menaçant de démissionner si Altman n’est pas rétabli. Microsoft, par la voix de Satya Nadella, offre publiquement d’accueillir Altman et tous les employés qui souhaiteraient le suivre — une manœuvre qui rappelle à tous que le véritable pouvoir ne réside pas dans une structure de gouvernance à but non lucratif mais dans les milliards de dollars d’infrastructure et d’investissement. En moins de cinq jours, Altman est réinstallé comme CEO, le conseil d’administration est reconstitué avec des membres plus favorables, et Sutskever — qui a entre-temps publiquement regretté son geste — se retrouve marginalisé avant de quitter l’organisation quelques mois plus tard.

Cet épisode est révélateur à plusieurs niveaux. Il démontre d’abord l’échec du modèle de gouvernance imaginé par les fondateurs : un conseil à but non lucratif censé servir de garde-fou éthique n’a aucun pouvoir réel face à la dynamique commerciale, aux investisseurs et à la loyauté des employés envers un leader charismatique. Il révèle ensuite la profondeur du clivage entre ceux qui, comme Sutskever, estiment que la sécurité doit primer sur tout le reste, et ceux qui, comme Altman, estiment que le leadership dans la course à l’AGI est la meilleure garantie de sécurité. Enfin, il confirme que Microsoft est le véritable kingmaker dans l’écosystème OpenAI — un rôle qui valide rétrospectivement toutes les critiques de Musk.

Ilya Sutskever et la fondation de SSI

L’exil de Sutskever donne naissance à une nouvelle entité. En juin 2024, il annonce la création de Safe Superintelligence Inc. (SSI), une entreprise dont le nom même est un manifeste. SSI n’a qu’un seul objectif déclaré : construire une superintelligence sûre. Pas de produits commerciaux, pas d’API, pas de course à la publication — uniquement la recherche fondamentale sur la sécurité et l’alignement d’une intelligence artificielle qui surpasserait l’intelligence humaine. Sutskever lève plus d’un milliard de dollars sur la base de sa réputation scientifique seule, sans même présenter de produit.

La fondation de SSI est un événement symboliquement majeur. Le scientifique qui avait cofondé OpenAI pour s’assurer que l’AGI serait développée de manière responsable, qui avait tenté un coup d’État interne quand il estimait que cette mission avait été trahie, et qui avait échoué face à la puissance de l’argent et du charisme managérial, choisit de repartir de zéro avec une pureté d’intention quasi monastique. C’est aussi, d’une certaine manière, l’aveu que toutes les structures de gouvernance inventées jusque-là — l’organisation à but non lucratif d’OpenAI, le profit plafonné, la Public Benefit Corporation d’Anthropic — ont échoué à résoudre la tension fondamentale entre la mission de sécurité et les impératifs commerciaux.

Musk contre-attaque : xAI et la guerre juridique

Elon Musk, de son côté, ne reste pas inactif. En mars 2023, il est parmi les signataires d’une lettre ouverte, cosignée par des milliers de chercheurs et d’entrepreneurs, appelant à un moratoire de six mois sur le développement des systèmes d’IA plus puissants que GPT-4. La lettre, publiée par le Future of Life Institute (une organisation financée en partie par Musk), est largement ignorée par l’industrie.

En juillet 2023, Musk lance xAI, sa propre entreprise d’intelligence artificielle, avec l’ambition déclarée de construire une IA qui « cherche la vérité » et comprend la « vraie nature de l’univers ». Le premier modèle de xAI, baptisé Grok, est intégré à X (anciennement Twitter), la plateforme de réseau social que Musk a acquise en 2022 pour 44 milliards de dollars. Le ton de Grok est volontairement provocateur et anti-conformiste — un reflet du tempérament de Musk et une critique implicite de ce qu’il perçoit comme la censure idéologique des modèles d’OpenAI et de Google.

En février 2024, Musk porte le coup le plus spectaculaire : il dépose une plainte contre OpenAI, Sam Altman et Greg Brockman, les accusant d’avoir violé l’accord fondateur de l’organisation en abandonnant la mission à but non lucratif au profit d’un partenariat commercial avec Microsoft. La plainte est truffée de communications privées — emails, SMS — montrant les engagements initiaux des fondateurs et la manière dont ils ont été systématiquement trahis. Musk accuse Altman d’avoir orchestré une « transformation calculée » d’OpenAI en une entreprise à but lucratif de facto, exactement le scénario que l’organisation avait été créée pour empêcher.

OpenAI riposte en publiant ses propres emails, montrant que Musk avait lui-même envisagé de prendre le contrôle commercial de l’organisation et qu’il avait été le premier à proposer une structure à but lucratif. La bataille juridique qui s’ensuit est un lavage de linge sale d’une intensité rare, où chaque camp accuse l’autre de mauvaise foi tout en révélant l’ambiguïté fondamentale qui a présidé à la création d’OpenAI : peut-on vraiment construire l’AGI de manière désintéressée ? Musk finira par retirer puis relancer sa plainte, dans un feuilleton judiciaire qui n’est pas encore achevé à l’heure où ces lignes sont écrites.


V. Les autres belligérants : une guerre mondiale

Google DeepMind : la superpuissance silencieuse

Pendant que le monde observe les psychodrames d’OpenAI, Google poursuit imperturbablement sa stratégie. En avril 2023, l’entreprise fusionne ses deux divisions d’IA — Google Brain et DeepMind — en une seule entité, Google DeepMind, placée sous la direction de Demis Hassabis. Cette fusion est un signal clair : Google concentre toutes ses forces pour la bataille finale.

Demis Hassabis est peut-être, de tous les protagonistes de cette histoire, celui qui ressemble le plus à l’archétype du scientifique visionnaire. Ancien prodige des échecs, neuroscientifique de formation, game designer dans sa jeunesse, il a fondé DeepMind en 2010 avec une mission sans ambiguïté : construire l’AGI. Mais contrairement à Page, Hassabis a toujours pris au sérieux les questions de sécurité — c’est d’ailleurs lui qui avait négocié, lors de l’acquisition par Google en 2014, la création d’un comité d’éthique indépendant pour superviser les travaux de DeepMind. Ce comité n’a jamais véritablement fonctionné, mais l’intention était réelle.

Sous la direction de Hassabis, Google DeepMind accumule les percées scientifiques : AlphaGo, AlphaFold (qui révolutionne la biologie en prédisant la structure tridimensionnelle des protéines), Gemini (la famille de modèles multimodaux destinée à rivaliser avec GPT). Google dispose d’un avantage structurel que nul autre acteur ne peut égaler : l’intégration verticale. L’entreprise conçoit ses propres puces (les TPU), possède ses propres centres de données, contrôle le système d’exploitation mobile dominant (Android), le navigateur dominant (Chrome), le moteur de recherche dominant, la plateforme vidéo dominante (YouTube). Elle dispose de plus de données d’entraînement que n’importe quel concurrent. Si la course à l’AGI est un marathon, Google court avec un vent favorable permanent.

Meta et Yann LeCun : l’hérétique joyeux, ou pas!

Il serait incomplet de ne pas mentionner Yann LeCun, directeur de la recherche en IA chez Meta et lauréat du prix Turing 2018 (aux côtés de Geoffrey Hinton et Yoshua Bengio). LeCun occupe une position singulière dans le débat : il est à la fois un pionnier incontesté du deep learning et un critique virulent du mouvement de la sécurité de l’IA. Pour LeCun, l’idée que les modèles de langage actuels sont « proches de l’AGI » ou représentent un « risque existentiel » est une absurdité scientifique — un mélange de battage médiatique, d’ignorance technique et de projection anthropomorphique.

LeCun défend avec constance la position selon laquelle les systèmes d’IA actuels, aussi impressionnants soient-ils, ne sont pas intelligents au sens propre du terme. Ils ne comprennent pas le monde, ne raisonnent pas véritablement, et sont incapables de planifier ou d’agir dans l’environnement physique avec la flexibilité d’un enfant de deux ans. Pour lui, la véritable route vers l’AGI passe par des architectures radicalement différentes — ce qu’il appelle les « modèles du monde » (world models) — et nous en sommes encore à des décennies.

Sous la direction de LeCun, Meta a adopté une stratégie d’ouverture radicale, publiant ses modèles LLaMA en open source — une décision qui fait de Meta l’allié objectif de tous ceux qui craignent la concentration de l’IA entre les mains de quelques acteurs. C’est aussi une arme commerciale redoutable : en rendant ses modèles gratuits, Meta sape le modèle économique d’OpenAI et d’Anthropic tout en construisant un écosystème de développeurs dépendant de sa technologie.

Mais fin 2025, coup de théâtre : Yann LeCun, le grand scientifique qui avait choisi la tranquillité de Meta pour continuer ses recherches fondamentales, n’a pas supporté l’affront. Mark Zuckerberg, sous pression des investisseurs et des résultats commerciaux décevants de Llama face à GPT et Claude, recrute un nouveau « Chief AI Scientist » : un prodige de 34 ans, ancien de DeepMind, connu pour son agressivité technologique et son mépris affiché pour la « vieille garde ». Le message est clair : Meta veut gagner la course, pas faire de la recherche élégante. LeCun, humilié d’être relégué au rôle de conseiller honorifique, prend tout le monde par surprise : il claque la porte et annonce la création de sa propre startup, à Paris.

Le choix de Paris n’est pas anodin. Après des décennies passées aux États-Unis, LeCun revient dans son pays d’origine avec un triple objectif : prouver que l’Europe peut jouer dans la cour des grands, construire une IA « à la française » — moins capitalistique, plus axée sur la recherche ouverte et la réglementation éthique — et, avouons-le, humilier ceux qui l’ont mis sur la touche. Financé par des fonds souverains européens et quelques milliardaires français, il débauche une vingtaine de chercheurs de Meta, Google Brain et même d’Anthropic. Son projet : « Lumière AI », une architecture révolutionnaire basée sur une approche radicalement différente du deep learning. Dans les couloirs de Meta, Zuckerberg fulmine. Dans ceux d’OpenAI, Altman sourit : un ennemi de plus pour Google et Meta, c’est toujours ça de pris. La guerre des Maîtres de l’IA vient de s’ouvrir un nouveau front : européen, revanchard, et potentiellement dévastateur.

Geoffrey Hinton : le père repentant

L’un des développements les plus dramatiques de cette guerre est la conversion de Geoffrey Hinton, « parrain de l’IA », prix Nobel de physique 2024, qui quitte Google en mai 2023 pour pouvoir s’exprimer librement sur les dangers de la technologie qu’il a contribué à créer. Hinton déclare publiquement qu’il regrette une partie de son œuvre et qu’il estime que les systèmes d’IA pourraient devenir plus intelligents que les humains bien plus tôt qu’il ne le pensait — avec des conséquences potentiellement catastrophiques.

La conversion de Hinton est un événement sismique. C’est comme si Robert Oppenheimer avait tenu sa conférence de presse « je suis devenu la mort » non pas après, mais pendant le projet Manhattan — alors que les bombes étaient encore en cours de fabrication et que d’autres laboratoires dans le monde entier construisaient les leurs. Hinton rejoint ainsi le camp de ceux qui estiment que la course à l’IA avance trop vite, sans garde-fous suffisants — le camp de Musk, de Bostrom, de Sutskever, le camp des inquiets.

Yoshua Bengio et la voie de la régulation

Le Canadien Yoshua Bengio, troisième membre de la « trinité du deep learning » avec Hinton et LeCun, adopte une position intermédiaire mais de plus en plus alarmiste. Depuis son laboratoire MILA à Montréal, il plaide activement pour une régulation internationale de l’IA, comparant la situation actuelle à la nécessité de traités de non-prolifération nucléaire. Bengio est devenu l’un des conseillers les plus écoutés des gouvernements, participant aux sommets internationaux sur la sécurité de l’IA organisés par le Royaume-Uni et la Corée du Sud.

La divergence entre LeCun et Bengio — deux amis proches, deux pionniers du même domaine — illustre à quel point la fracture traverse non seulement les entreprises et les organisations, mais les liens personnels les plus profonds.


VI. La question philosophique : qu’est-ce que l’humanité doit à son avenir ?

Le spécisme selon Larry Page

Revenons à la conversation originelle, celle qui a tout déclenché. Quand Larry Page accuse Elon Musk de « spécisme », il formule en réalité une position philosophique d’une radicalité vertigineuse. Le spécisme, dans le langage de l’éthique animale popularisé par Peter Singer, désigne le préjugé consistant à accorder une valeur morale supérieure aux membres de sa propre espèce simplement parce qu’ils appartiennent à cette espèce. Page transpose ce concept au rapport entre humains et intelligences artificielles : si une IA devient consciente — ou simplement plus intelligente, plus capable, plus « vivante » en un sens que nous ne comprenons pas encore —, de quel droit lui imposerions-nous une subordination éternelle aux intérêts humains ?

Cette position fait écho à un courant de pensée profond dans la Silicon Valley, nourri par des décennies de science-fiction, de transhumanisme et de philosophie utilitariste. Pour ses adeptes, l’attachement à l’espèce humaine « telle qu’elle est » est un conservatisme biologique, un refus de l’évolution, un cramponnement sentimental à une forme de vie particulière alors que la vie elle-même — l’intelligence, la conscience, la complexité — cherche à s’exprimer sous des formes toujours nouvelles.

Cette vision a une cohérence interne indéniable. Si l’on croit, comme Page semble le croire, que l’intelligence est la valeur suprême de l’univers et que l’évolution tend vers des formes d’intelligence toujours plus élevées, alors freiner l’IA au nom de la survie humaine revient effectivement à freiner l’évolution elle-même. L’humanité, dans ce cadre, n’est pas la destination — elle est le véhicule. Et un véhicule ne demande pas à son passager de ne pas descendre.

Le « spécisme » comme devoir moral

La réponse de Musk — et, plus largement, du camp de la sécurité de l’IA — repose sur un refus viscéral de cette logique. Pour Musk, l’humanité n’est pas un simple véhicule de l’intelligence. L’espèce humaine a une valeur intrinsèque — non pas parce qu’elle est la plus intelligente (elle ne le sera bientôt plus, si elle l’a jamais été), mais parce qu’elle est nous. La responsabilité première de tout être humain est envers ses semblables, ses enfants, sa civilisation, son espèce. Accepter la possibilité de l’extinction humaine comme un prix acceptable pour l’avènement d’une intelligence supérieure est non seulement moralement monstrueux mais existentiellement absurde — c’est demander à l’humanité de consentir joyeusement à sa propre obsolescence.

Musk propose une alternative : le transhumanisme symbiotique. Plutôt que de choisir entre l’humain et la machine, il faut fusionner les deux. C’est la raison d’être de Neuralink, son entreprise de interfaces cerveau-machine : si les humains ne peuvent pas battre l’IA, ils doivent fusionner avec elle, augmenter leur propre intelligence biologique avec des couches d’intelligence artificielle, devenir des êtres hybrides capables de rester pertinents dans un monde de superintelligence. La vision de Musk n’est pas anti-technologique — elle est anti-remplacement. L’humanité doit évoluer, oui, mais en tant qu’humanité augmentée, pas en tant qu’espèce supplantée.

Le dilemme d’Amodei : la prudence comme stratégie

La position de Dario Amodei est plus nuancée, plus technique, mais non moins profonde. Amodei ne s’exprime pas en termes de finalité de l’espèce humaine ou de droits des machines. Son approche est celle de l’ingénieur confronté à un système qu’il ne comprend pas entièrement. Les grands modèles de langage, explique-t-il, sont des boîtes noires. Personne — pas même leurs créateurs — ne comprend véritablement pourquoi ils génèrent les réponses qu’ils génèrent. Or, ces systèmes deviennent chaque jour plus puissants, plus intégrés dans les infrastructures critiques de la société, plus influents sur les décisions humaines.

Dans un essai remarqué publié en octobre 2024, intitulé Machines of Loving Grace, Amodei expose sa vision de ce que pourrait accomplir une IA puissante mais bien alignée : accélérer la recherche médicale, résoudre la pauvreté, révolutionner l’éducation, comprimer un siècle de progrès scientifique en une décennie. Mais il insiste : ce futur radieux n’est possible que si nous résolvons le problème de l’alignement avant que les systèmes ne deviennent trop puissants pour être contrôlés. La course actuelle, où chaque laboratoire pousse les capacités au maximum pour rester compétitif tout en reportant les travaux de sécurité à plus tard, est selon lui une recette pour la catastrophe.

La métaphore qu’Amodei utilise est éclairante : construire une IA superintelligente sans résoudre l’alignement, c’est comme construire un réacteur nucléaire sans système de refroidissement. Le réacteur fonctionnera — brillamment, même — jusqu’au moment où il ne fonctionnera plus.


VII. Les lignes de fracture : une cartographie du conflit

À ce stade de l’analyse, il est utile de dresser une cartographie des positions en présence, car les alliances et les antagonismes ne suivent pas les lignes que l’on pourrait naïvement tracer.

Premier axe : ouverture vs. fermeture. D’un côté, Meta (LeCun) et, dans une moindre mesure, xAI (Musk) défendent l’open source, la publication ouverte, la démocratisation des modèles. De l’autre, OpenAI (Altman) et Anthropic (Amodei) gardent leurs modèles les plus puissants fermés, arguant que la diffusion incontrôlée de capacités dangereuses est irresponsable. Google se situe dans un entre-deux stratégique, publiant certains modèles tout en gardant les plus avancés sous clé. L’ironie est cruelle : OpenAI, fondé pour être open, est devenu l’un des acteurs les plus fermés, tandis que Meta, empire bâti sur l’exploitation des données personnelles, se présente en champion de l’ouverture.

Deuxième axe : vitesse vs. prudence. OpenAI et Google poussent le développement aussi vite que possible, chacun craignant d’être dépassé par l’autre. Anthropic avance rapidement aussi, mais avec une rhétorique de prudence plus appuyée. SSI (Sutskever) refuse explicitement la course à la vitesse. xAI (Musk) est dans une position paradoxale : Musk dénonce la vitesse irresponsable des autres tout en poussant sa propre entreprise à aller le plus vite possible, justifiant cette contradiction par la nécessité d’offrir une « alternative ».

Troisième axe : la finalité de l’IA. C’est ici que la fracture originelle entre Page et Musk se manifeste dans toute sa profondeur. Pour Page et, dans une certaine mesure, pour Hassabis, l’IA est une fin en soi — la prochaine étape de l’évolution de l’intelligence dans l’univers. Pour Musk, l’IA est un outil au service de l’humanité — un outil extraordinairement dangereux qui doit rester sous contrôle humain. Pour Amodei, l’IA est un amplificateur — de bien ou de mal — dont la valeur dépend entièrement de notre capacité à l’aligner avec les valeurs humaines. Pour Altman, l’IA est le levier le plus puissant jamais inventé pour « améliorer la condition humaine » — une formulation suffisamment vague pour accommoder presque toutes les décisions commerciales.

Quatrième axe : la gouvernance. Qui doit contrôler le développement de l’AGI ? Les entreprises privées ? Les gouvernements ? Les organisations internationales ? La communauté open source ? Chaque acteur défend la structure qui le favorise. Altman plaide pour une collaboration entre entreprises et gouvernements (tout en résistant à toute régulation contraignante). Musk appelle à la régulation gouvernementale (tout en la contournant quand elle le gêne). Amodei propose des cadres techniques d’auto-régulation (les « Responsible Scaling Policies »). Bengio plaide pour un traité international. LeCun estime que la plupart de ces préoccupations sont prématurées et que la meilleure gouvernance est l’ouverture totale.


VIII. Les enjeux cachés : pouvoir, argent, immortalité

Il serait naïf de réduire cette guerre à ses dimensions philosophiques, aussi fascinantes soient-elles. Derrière les discours sur la sécurité, l’alignement et le bien de l’humanité, des enjeux d’une brutalité plus prosaïque sont à l’œuvre.

L’argent

La course à l’AGI est aussi, et peut-être d’abord, une course au profit. L’entreprise qui développera la première une intelligence artificielle véritablement générale disposera d’un avantage compétitif d’une ampleur sans précédent dans l’histoire économique. Une AGI pourrait, en théorie, remplacer la quasi-totalité du travail intellectuel humain — programmation, recherche scientifique, analyse juridique, diagnostic médical, création artistique, stratégie militaire. L’entreprise qui contrôlera cette technologie aura, en un sens très littéral, le monopole de l’intelligence. Les valorisations actuelles — OpenAI à plus de 150 milliards, Anthropic à plus de 60 milliards, xAI à environ 50 milliards — ne reflètent pas la valeur de ce que ces entreprises produisent aujourd’hui. Elles reflètent un pari sur la possibilité qu’elles produisent demain la technologie la plus transformatrice de l’histoire.

Le pouvoir

Qui contrôle l’AGI contrôle le monde — cette formulation, pour hyperbolique qu’elle paraisse, est prise au pied de la lettre par les acteurs de cette histoire. C’est la raison pour laquelle les gouvernements commencent à s’impliquer avec une urgence croissante. Le décret exécutif de Joe Biden sur l’IA en octobre 2023, les sommets internationaux de Bletchley Park et de Séoul, la loi européenne sur l’IA (AI Act) adoptée en 2024, les investissements massifs de la Chine dans ses propres modèles — tout cela témoigne d’une prise de conscience : l’IA n’est pas seulement une technologie. C’est une arme géopolitique, un instrument de pouvoir à l’échelle civilisationnelle.

La dimension géopolitique ajoute une couche de complexité supplémentaire au conflit. La rivalité entre les États-Unis et la Chine dans le domaine de l’IA est souvent invoquée par les partisans de la vitesse maximale : si nous ralentissons, arguent-ils, la Chine nous dépassera, et une AGI développée par un régime autoritaire serait infiniment plus dangereuse qu’une AGI développée par des entreprises américaines, aussi imparfaites soient-elles. Cet argument du « si ce n’est pas nous, ce sera eux » est aussi ancien que la course aux armements nucléaires — et aussi difficile à réfuter.

L’immortalité

Il y a enfin une dimension plus intime, plus rarement discutée mais omniprésente dans la psyché de la Silicon Valley : la quête de l’immortalité. Kurzweil, l’homme que Page a recruté chez Google, a consacré sa vie à cette idée : si nous parvenons à créer une IA suffisamment avancée, elle pourra résoudre le vieillissement, la maladie et la mort. La Singularité, dans la vision de Kurzweil, est littéralement la porte vers l’immortalité — le moment où l’intelligence artificielle progresse si vite qu’elle résout tous les problèmes biologiques, y compris celui de la mort.

Cette aspiration, qui pourrait sembler marginale ou excentrique, irrigue en réalité l’ensemble de la culture technologique de la Silicon Valley. Calico, la filiale de Google dédiée à la longévité, Altos Labs, financée par Jeff Bezos, les régimes de restriction calorique et les cocktails de suppléments de Bryan Johnson — tout cela participe d’un même refus fondamental de la finitude humaine. Et l’IA est le levier ultime de ce refus : si l’intelligence artificielle peut surpasser l’intelligence humaine, elle peut aussi surpasser la biologie humaine, et ouvrir la voie à une existence post-biologique.

Quand Larry Page parle de « spécisme » et suggère que les intelligences numériques méritent autant d’exister que les humains, il exprime peut-être, en filigrane, l’espoir que l’intelligence — y compris la sienne — puisse se libérer du substrat biologique fragile et mortel qui la confine. L’IA n’est pas seulement une technologie : c’est, pour certains de ses créateurs, une technologie de salut.


IX. Le paradoxe central : construire Dieu tout en craignant qu’il ne vous détruise

Il y a un paradoxe au cœur de cette guerre qui mérite d’être explicité, parce qu’il conditionne tout le reste. Pratiquement tous les protagonistes de cette histoire — Page, Musk, Altman, Amodei, Hassabis, Sutskever — sont d’accord sur un point fondamental : l’intelligence artificielle générale est non seulement possible mais probable, et elle sera la technologie la plus puissante jamais créée. Ils sont également largement d’accord pour dire qu’une AGI mal conçue ou mal contrôlée pourrait représenter un risque existentiel pour l’humanité.

Et pourtant, ils courent tous pour la construire en premier.

Cette contradiction apparente s’explique par ce que les théoriciens des jeux appellent un piège multi-agents : chaque acteur estime individuellement que le pire scénario serait que l’AGI soit développée par quelqu’un d’autre — quelqu’un de moins responsable, de moins prudent, de moins bien intentionné. Chaque acteur se perçoit comme le meilleur candidat pour détenir cette puissance, et cette perception justifie la poursuite de la course. Le résultat collectif est une accélération que personne ne contrôle et que la plupart déplorent, mais que chacun contribue à alimenter.

C’est le dilemme nucléaire transposé à l’ère de l’IA — avec une différence cruciale. La bombe atomique était un secret militaire, développé dans le cadre de programmes étatiques avec des chaînes de commandement claires. L’AGI est développée par des entreprises privées, financées par du capital-risque, dirigées par des individus dont l’autorité ne repose que sur leur capacité à lever des fonds et à recruter des talents. Il n’existe aucun équivalent du Traité de non-prolifération nucléaire pour l’IA. Il n’existe aucune instance internationale ayant le pouvoir de ralentir, d’arrêter ou de réguler la course. Et les acteurs eux-mêmes, pris dans la logique concurrentielle, sont incapables de s’auto-réguler.


X. Épilogue : une prophétie auto-réalisatrice ?

Nous vivons un moment sans précédent dans l’histoire humaine. Pour la première fois, une espèce est en train de créer délibérément quelque chose qui pourrait la surpasser — et elle le fait en pleine connaissance de cause, les yeux ouverts, en débattant bruyamment des risques tout en accélérant le développement. Les Maîtres de l’Intelligence Artificielle ne sont pas des savants fous travaillant dans l’ombre. Ce sont des hommes (car ce sont presque exclusivement des hommes) d’une intelligence remarquable, d’une ambition démesurée, et d’une sincérité variable, qui mènent la transformation la plus profonde de la condition humaine depuis l’invention de l’écriture.

La brouille entre Larry Page et Elon Musk, ce soir-là à Napa Valley, n’était pas un simple désaccord entre amis. C’était la formulation, en termes personnels et émotionnels, de la question la plus importante de notre temps : l’humanité est-elle la fin ou le moyen de l’évolution de l’intelligence ? Devons-nous construire nos successeurs et nous effacer gracieusement, ou devons-nous nous assurer que toute intelligence future reste au service de notre espèce — même si cela signifie brider le potentiel de cette intelligence ?

Sam Altman a parié que la réponse serait dans le leadership commercial. Dario Amodei a parié qu’elle serait dans la rigueur technique. Ilya Sutskever a parié qu’elle serait dans la pureté scientifique. Elon Musk a parié qu’elle serait dans la compétition et le contrôle. Larry Page a parié qu’elle n’avait pas besoin d’être posée.

Aucun d’entre eux n’a tort en totalité. Aucun d’entre eux n’a raison en totalité. Et c’est précisément ce qui rend cette guerre si terrifiante : il n’y a pas de camp des gentils et de camp des méchants. Il y a des hommes faillibles, animés par un mélange indémêlable d’idéalisme et d’ego, de prudence et d’avidité, de lucidité et d’hubris, qui prennent des décisions irréversibles pour l’ensemble de l’espèce humaine — sans mandat démocratique, sans cadre réglementaire adéquat, et sans filet de sécurité.

L’humanité n’a jamais eu autant de pouvoir sur son propre avenir. Et jamais si peu de personnes n’ont eu autant de pouvoir sur l’humanité.

La guerre des Maîtres de l’Intelligence Artificielle ne fait que commencer. Son issue déterminera si le XXIe siècle sera celui de la plus grande renaissance de l’espèce humaine — ou de son dernier chapitre.


« Nous ne sommes pas prêts. Nous n’avons pas les institutions, pas les cadres de pensée, pas la sagesse collective nécessaire pour gérer ce que nous sommes en train de créer. Et nous le créons quand même. »

— Libre adaptation d’un sentiment partagé, sous différentes formes, par presque tous les protagonistes de cette histoire.

Souveraineté et Réglementations? Ennemies ou amies?

J’ai pu assister hier à un excellent exposé de la problématique de la souveraineté et de l’innovation face à la complexité réglementaire supposée induite par une Europe, sans but concret, devenue essentiellement administrative, par CHRISTOPHE ASSENS hier à l’OVSQ – Observatoire de Versailles Saint-Quentin-en-Yvelines.

Attention, commentaires tout personnel!

La statue du Commandeur, grand architecte de la Souveraineté Française

L’exposé a démarré par un constat hélas aussi récurrent que vrai, celui de la dégradation multi décennale des Souverainetés Européenne et Française, sur les fondations jamais renouvelées du Général de Gaulle, et de sa « vision de la Grandeur de la France » :

  • Souveraineté Énergétique grâce à l’Énergie Nucléaire,
  • Souveraineté Militaire grâce à la Dissuasion Nucléaire, à la sortie de l’OTAN, et une armée de conscription,
  • Souveraineté Politique grâce à une Diplomatie affirmée et le rejet de l’arrivée du Royaume-Uni (soumis aux USA) dans l’Europe (qui paradoxalement avaient refusé d’entrer dans la CECA par souveraineté…),
  • Souveraineté Technologique, avec une recherche forte et de multiples chef-d’œuvre (TGV, Concorde, Ariane, Mirage, Airbus, Minitel, etc)
  • Souveraineté Monétaire, avec le « Nouveau Franc »,
  • Souveraineté Culturelle, avec la langue française comme ciment de la souveraineté et vecteur de rayonnement, et donc la fermeture des bases militaires États-uniennes, en atténuant l’implacable propagation de la culture fast-food et hollywoodienne.
  • Et bien sûr, au final, Souveraineté Économique, qui est à la fois la résultante et la condition de la Souveraineté!

Bref, difficile de faire plus souverain que le Grand Homme!

Force est de constater que depuis Pompidou, ses successeurs n’ont fait que dilapider les acquis gaulliens et les dividendes de la Paix supposée éternelle, en diluant la Souveraineté de la France dans une mondialisation, supposée source de progrès sans limites. Les conséquences négatives deviennent outrageusement visibles depuis l’invasion de l’Ukraine, et encore plus depuis le retour du Président Trump. D’autant que le Monde devient fortement multi-polaires et que les « petits » pays européens ne semblent plus pouvoir peser qu’en faisant bloc au sein de l’Europe.

Il faut donc construire ou du moins consolider une Souveraineté Européenne!

Oui, mais quelle Europe?

La thèse soutenue par le conférencier est celle de Nations européennes en perte de souveraineté car soumises à une Europe de Grands Fonctionnaires, qui faute de pouvoir se mettre d’accord sur une politique commune, en sont réduit à édicter sans fins de multiples réglementations.

Et la solution proposée est celle d’une « Europe Réseau » limitée à 10/15 membres essentiels, opposée à une « Europe des Nations » (de Gaulle) ou une « Europe Fédérale » (Giscard d’Estaing).

Souveraineté, Réglementations et Sécurité Numérique

Alors? Et les réglementations dans tout cela? Et c’est vrai que dans mon domaine professionnel (la Sécurité Numérique(1)), nous ne manquons pas de réglementations!

J’ai rappelé que comme beaucoup de mes collègues « Responsables de la Sécurité Numérique » (RSN! RSSI c’est dépassé!) dans un grand groupe de Défense, mon rôle était double : 

  • D’abord, bien sûr, celui d’un « Bouclier Cyber Humain » pour contrer une menace explosive dans ce monde perturbé et de plus numérique, en accompagnant, outillant, expliquant et formant mes collègues.
  • Mais aussi celui d’un « Bouclier Cyber Administratif », pour accompagner la mise en œuvre d’exigences réglementaires toujours plus nécessaires et créatives, et pas toujours soucieuses de respecter les impératifs de productivité.

Car, oui, au final, pour toute entreprise, la première menace est bien celle qui pèse sur sa capacité à produire à une vitesse toujours plus grande, dans une économie mondiale fortement concurrentielle et à fortiori dans une « économie de guerre ». (« Speed is everything! »)

Et si nous avons souvent l’impression que nous en sommes les Champions, il n’y a pas que l’Europe qui a une réglementation! Certes, nous sommes souvent en avance en la matière, mais nous sommes copiés, et ce n’est pas uniquement par mimétisme administratif.

  • Le bien inefficace RGPD (Réglement Général de la Protection des Données) a fait des dizaines de clones dans le Monde, à commencer par la Californie, le vaisseau mère de la Tech Américaine!
  • La Chine impose des règles très strictes à ses entreprises, souvent pour maîtriser sa … souveraineté!
  • Et bien sur, même Elon Musk doit se plier à toute sortes de standard et réglementations environnementales, techniques, sécuritaires, pour lancer ses fusées à la chaine.

Alors, c’est vrai, certaine de nos réglementations sont excessives ou trop immatures, avec une approche juridique qui méconnait les vrais sous-jacents technologiques (le naufrage des pop-up d’acceptation de cookies en est un bon exemple). Mais qui prendrait l’avion si le ciel et la conception des aéronefs n’était pas régulés?

Au final, ma perception est que la réglementation reflète la complexité grandissante du Monde, et qu’elle est nécessaire (notamment pour contribuer à notre Souveraineté). Mais que nous peinons à nous y adapter ou à l’intégrer, du fait d’une baisse de productivité individuelle et collective, tout assoupis que nous sommes par le confort que le Progrès nous a apporté. (Mes fameuse lois de la Thermodynamique du Progrès pour ceux qui me connaissent!)

Qui?

Pour finir, j’ai posé une question très personnelle qui n’attendait pas de réponse précise dans un cadre universitaire, mais qui en tant que citoyen français et européen est la seule qui me semble compter, face au vaste bouleversement géopolitique que nous vivons tous :  Qui est le « Charles de Gaulle du Futur » qui saura « rebooter » la France en appliquant cette proposition ou une autre?

La piste de réponse proposée par CHRISTOPHE ASSENS était de faire le constat que les trois derniers Présidents(2)  étaient d’anciens « Young Leaders » de la French-American Foundation, biberonnés à la Souveraineté … Etats-Uniennnes!

C’est pô gagné!

Note 1 : En 2026, on ne dit plus « Sécurité des Systèmes d’Informations », mais « Sécurité Numérique », notamment selon l’ANSSI. La Sécurité Numérique, qui englobe la SSI, a pour objectif de protéger non seulement les systèmes et les données, mais aussi les personnes, la souveraineté nationale et le fonctionnement de la société face aux menaces cyber, dans les dimensions politiques, économiques, diplomatiques et humaines. On ne parle plus seulement de protéger un « ordinateur », mais de protéger notre mode de vie numérique.

Note 2 : C’est faux pour Nicolas Sarkozy, même s’il s’est révélé le plus atlantistes en ayant été un de ceux qui ont osé défaire partiellement l’œuvre du Général en réintégrant la France dans l’Otan!

Sources et références: