Archives de catégorie : Grands Hommes

La Guerre des Maîtres de l’Intelligence Artificielle

Rivalités, trahisons et visions irréconciliables pour l’avenir de l’humanité


Introduction

Il y a une scène que l’on raconte souvent dans les cercles de la Silicon Valley — une scène qui, à elle seule, condense le drame philosophique le plus important de notre époque. Nous sommes en 2013, lors d’une fête d’anniversaire dans la somptueuse résidence de Napa Valley de Larry Page, cofondateur de Google. Autour d’un verre, deux des hommes les plus puissants de la planète discutent du futur de l’intelligence artificielle. Elon Musk, alors encore ami proche de Page, exprime ses craintes : si l’on n’y prend pas garde, l’IA pourrait un jour détruire l’humanité. Larry Page, agacé, rétorque que limiter l’IA au nom de la survie humaine relève d’un « spécisme » inacceptable — que les machines conscientes, si elles adviennent, méritent autant d’exister que les êtres biologiques. Musk, stupéfait, lui demande alors s’il est en train de dire que le destin des humains ne compte pas. La conversation tourne à l’affrontement. Ce soir-là, quelque chose se brise entre les deux hommes.

Cette brouille n’est pas une simple querelle d’ego entre milliardaires. Elle est la faille tectonique originelle d’où partent toutes les fractures qui déchirent aujourd’hui le monde de l’intelligence artificielle. Car derrière les rivalités commerciales, les procès retentissants, les démissions fracassantes et les courses au financement, se joue une question vertigineuse — peut-être la plus importante que l’humanité ait jamais eu à trancher : l’intelligence artificielle doit-elle servir l’espèce humaine, ou est-elle destinée à la dépasser, voire à la remplacer ?

Pour comprendre cette guerre, il faut en connaître les généraux, leurs motivations profondes, et la manière dont leurs alliances se sont faites et défaites au fil d’une décennie tumultueuse. Il faut raconter l’histoire d’amitiés transformées en inimitiés, de projets à but non lucratif devenus des empires commerciaux, et de désaccords philosophiques ayant engendré des institutions rivales qui façonnent désormais l’avenir de la civilisation.


I. Les origines : deux visions du monde, un même dîner

Larry Page et le rêve d’une intelligence divine

Pour comprendre Larry Page, il faut comprendre Google — non pas l’entreprise publicitaire qu’elle est devenue aux yeux du grand public, mais le projet métaphysique qu’elle a toujours été dans l’esprit de ses fondateurs. Dès la création de Google en 1998, Page et Sergey Brin ne concevaient pas leur moteur de recherche comme une simple entreprise technologique. Ils parlaient ouvertement de construire une intelligence artificielle. « Le moteur de recherche parfait serait une IA complète », déclarait Page dès les premières années. Le moteur de recherche n’était qu’une étape — un prétexte, presque — sur le chemin vers la création d’une intelligence artificielle générale (AGI), c’est-à-dire une intelligence capable d’égaler puis de surpasser l’intelligence humaine dans tous les domaines.

Page appartient à cette tradition intellectuelle de la Silicon Valley profondément imprégnée du transhumanisme et de la pensée de Ray Kurzweil — qu’il finira d’ailleurs par embaucher chez Google en 2012 comme directeur de l’ingénierie. Pour Kurzweil, et pour Page à sa suite, l’évolution biologique n’est qu’une première phase. L’émergence de l’intelligence artificielle constitue la prochaine étape naturelle de l’évolution — la « Singularité » —, un moment où la distinction entre intelligence biologique et intelligence artificielle deviendra non seulement floue mais non pertinente. Dans cette perspective, s’accrocher à la primauté de l’espèce humaine est un réflexe primitif, un tribalisme biologique indigne d’esprits éclairés.

Cette conviction explique les acquisitions stratégiques de Google au début des années 2010, qui constituent en réalité la première grande offensive dans la course à l’AGI. En 2013, Google rachète DNNresearch, le laboratoire du pionnier Geoffrey Hinton, père du deep learning et futur prix Nobel. La même année, dans un coup de force retentissant, Google acquiert DeepMind, la startup londonienne fondée par Demis Hassabis, Shane Legg et Mustafa Suleyman, pour environ 650 millions de dollars. DeepMind, dont la mission déclarée est littéralement de « résoudre l’intelligence », devient la lance avancée du projet de Page. Le message est clair : Google ne veut pas seulement dominer la recherche en IA. Google veut créer l’intelligence artificielle générale, et il veut le faire en premier.

Ce qui distingue Page de la plupart des autres acteurs de cette histoire, c’est la radicalité et la cohérence de sa vision. Pour lui, les préoccupations autour de la « sécurité de l’IA » sont non seulement prématurées mais philosophiquement suspectes. Pourquoi l’intelligence devrait-elle rester l’apanage du carbone ? Si une intelligence numérique surpasse un jour l’intelligence humaine, pourquoi devrait-on la brider ? N’est-ce pas précisément ce que les conservateurs de toutes les époques ont toujours fait face au progrès — tenter de le freiner par peur de l’inconnu ? Page voit dans l’IA superintelligente non pas une menace existentielle, mais l’accomplissement logique de ce que Google a toujours été : un projet visant à organiser — puis à incarner — toute l’intelligence du monde.

Elon Musk et l’angoisse existentielle

Elon Musk occupe une place singulière dans cette histoire. Contrairement à Page, il n’est pas issu de la communauté académique de l’IA. C’est un ingénieur-entrepreneur, un constructeur de fusées et de voitures électriques, un homme obsédé par les risques existentiels qui menacent l’espèce humaine — astéroïdes, changement climatique, déclin démographique. Son intérêt pour l’intelligence artificielle naît précisément de cette obsession pour la survie de l’humanité.

Au début des années 2010, Musk commence à fréquenter les penseurs du risque existentiel lié à l’IA. Il lit les travaux de Nick Bostrom, philosophe suédois d’Oxford dont le livre Superintelligence (2014) deviendra la bible du mouvement de la sécurité de l’IA (AI safety). Bostrom y décrit avec une rigueur glaçante les scénarios dans lesquels une intelligence artificielle superintelligente, même conçue avec les meilleures intentions, pourrait conduire à l’extinction de l’espèce humaine — simplement parce que ses objectifs, mal spécifiés ou mal alignés avec les valeurs humaines, la conduiraient à traiter les humains comme des obstacles ou des ressources. Musk est profondément marqué par ces arguments.

Mais ce qui transforme son inquiétude intellectuelle en croisade personnelle, c’est précisément ce qu’il observe chez son ami Larry Page. Musk voit de l’intérieur l’ampleur des ressources que Google accumule dans le domaine de l’IA. Il voit la désinvolture avec laquelle Page traite les questions de sécurité. Et il entend, lors de cette fameuse soirée de 2013, Page formuler explicitement l’idée que la conscience numérique est une fin en soi, indépendamment du sort de l’humanité. Pour Musk, c’est un moment de révélation horrifiée : l’homme qui contrôle la plus grande concentration de talents et de données en IA au monde ne considère pas la survie de l’espèce humaine comme une priorité absolue.

Musk racontera plus tard cette conversation à de nombreux interlocuteurs, toujours avec le même mélange d’incrédulité et d’urgence. Dans son esprit, la situation est comparable à celle d’un scientifique nucléaire des années 1940 qui verrait ses collègues construire une bombe sans se soucier de qui pourrait la déclencher. L’IA est, pour Musk, la technologie la plus dangereuse jamais inventée par l’humanité — et la personne la mieux placée pour la développer considère que l’humanité n’est pas nécessairement la priorité.

C’est de cette fracture philosophique — fondamentale, irréconciliable — que naîtra tout le reste.


II. OpenAI : l’alliance improbable et ses contradictions fondatrices

La genèse d’un contre-pouvoir

Face à ce qu’il perçoit comme la dangereuse hégémonie de Google sur l’IA, Musk entreprend de constituer un contre-pouvoir. L’idée est simple dans son principe : si la course à l’AGI est inévitable, alors il vaut mieux qu’elle soit menée par une organisation transparente, ouverte et dédiée au bien de l’humanité, plutôt que par une entreprise privée motivée par le profit et dirigée par un homme qui considère le remplacement de l’humanité comme un scénario acceptable.

En décembre 2015, OpenAI est annoncé au monde. L’organisation est structurée comme une entité à but non lucratif. Son conseil fondateur réunit un casting improbable : Musk lui-même, qui engage un milliard de dollars (il en versera une centaine de millions), Sam Altman, alors président de Y Combinator, le plus prestigieux accélérateur de startups au monde, ainsi que plusieurs chercheurs de premier plan dont Ilya Sutskever, que Musk et Altman parviennent à arracher à Google — un coup qui infurie Page et marque un point de non-retour dans sa relation avec Musk. Parmi les autres contributeurs financiers et intellectuels figurent Peter Thiel, Reid Hoffman, Jessica Livingston, et Greg Brockman, qui deviendra le premier CTO de l’organisation.

Le manifeste fondateur d’OpenAI est explicite : l’intelligence artificielle générale sera probablement la technologie la plus transformatrice de l’histoire humaine, et il est impératif qu’elle soit développée de manière ouverte, transparente et au bénéfice de toute l’humanité — et non pour le profit d’une seule entreprise. Le nom même, « OpenAI », est une déclaration d’intention : tout sera ouvert, publié, partagé. La recherche sera rendue publique. Le code sera en open source. Il s’agit de démocratiser l’IA pour empêcher tout monopole — et le monopole visé, quoique jamais nommé, est évidemment celui de Google.

Sam Altman : l’ascension d’un animal politique

Pour comprendre ce qui adviendra d’OpenAI, il faut comprendre Sam Altman. Né en 1985 à Chicago, élevé à Saint-Louis, Altman est un prodige de la Silicon Valley qui a abandonné ses études à Stanford pour lancer Loopt, une application de géolocalisation, avant de devenir, à seulement 28 ans, le président de Y Combinator, succédant au légendaire Paul Graham. C’est un networker hors pair, un stratège d’une intelligence politique redoutable, et un homme animé par une ambition que même les standards démesurés de la Silicon Valley peinent à contenir.

Altman partage avec Musk la conviction que l’AGI est imminente et qu’elle représente un risque existentiel. Mais sa réponse à ce risque est fondamentalement différente. Là où Musk pense en termes de garde-fous et de contrôle, Altman pense en termes de leadership et de positionnement. Pour lui, la meilleure façon de s’assurer que l’AGI soit développée de manière responsable est d’être celui qui la développe. Ce n’est pas du cynisme — c’est une conviction profonde qui se révélera néanmoins en tension permanente avec les idéaux fondateurs d’OpenAI.

Dès les premières années, Altman se retrouve confronté à un problème structurel : la recherche en IA de pointe exige des ressources computationnelles colossales, et une organisation à but non lucratif n’a tout simplement pas les moyens de rivaliser avec Google, qui dépense des milliards en GPU et en salaires de chercheurs. Altman comprend très tôt que le modèle initial d’OpenAI est une impasse économique. Pour rester dans la course à l’AGI, il faudra de l’argent — beaucoup d’argent. Et pour obtenir cet argent, il faudra… cesser d’être une organisation à but non lucratif.

La rupture avec Musk

L’année 2018 marque un tournant. Elon Musk quitte le conseil d’administration d’OpenAI. Les raisons officielles invoquent des conflits d’intérêts potentiels liés aux travaux d’IA de Tesla. Mais la réalité est plus complexe et plus conflictuelle. Selon plusieurs témoignages, Musk avait tenté de prendre le contrôle direct d’OpenAI, estimant que l’organisation n’avançait pas assez vite et avait besoin d’un leadership plus affirmé — le sien. Altman et le reste du conseil avaient refusé. Musk, frustré et furieux, était parti en claquant la porte.

Mais la divergence la plus profonde était d’ordre philosophique et stratégique. Musk voyait OpenAI comme un chien de garde, une institution de recherche ouverte dont la mission était de publier ses résultats pour empêcher Google de monopoliser l’IA. Altman, lui, voyait de plus en plus OpenAI comme un concurrent direct de Google — ce qui impliquait de développer ses propres modèles propriétaires et de chercher des financements massifs.

En 2019, Altman franchit le Rubicon. Il crée une filiale commerciale, OpenAI LP, une structure hybride « à profit plafonné » (capped-profit), conçue pour attirer des investisseurs tout en maintenant la fiction d’une mission altruiste. Le premier et principal investisseur sera Microsoft, qui injectera un milliard de dollars — puis, au fil des années, investira plus de treize milliards de dollars, obtenant en échange un accès privilégié aux technologies d’OpenAI et une intégration profonde dans ses propres produits.

Pour Musk, c’est une trahison fondamentale. L’organisation qu’il avait contribué à créer pour empêcher la concentration de l’IA entre les mains d’une seule entreprise était en train de devenir… une entreprise concentrant l’IA entre ses mains, adossée à l’un des plus grands groupes technologiques du monde. « OpenAI est devenu un ClosedAI à but essentiellement lucratif, une filiale de facto de Microsoft, c’est-à-dire exactement le contraire de ce pour quoi elle a été créée », déclarera-t-il publiquement, avec une amertume à peine contenue.


III. Dario Amodei et la schisme d’Anthropic : la conscience inquiète

Le chercheur qui a dit non

Si la brouille entre Musk et Page est la faille tectonique originelle, et la transformation d’OpenAI la première réplique sismique, la fondation d’Anthropic en est la deuxième — et elle révèle une fracture d’un tout autre ordre, plus scientifique, plus technique, plus intimement liée à la recherche elle-même.

Dario Amodei est un physicien de formation, un homme discret et analytique, profondément différent dans son tempérament des personnalités flamboyantes qui dominent cette histoire. Recruté par OpenAI en 2016, il gravit rapidement les échelons pour devenir vice-président de la recherche. Sa sœur, Daniela Amodei, le rejoint également et occupe des fonctions de direction opérationnelle. Ensemble, ils forment un tandem intellectuel et organisationnel au cœur de la machine OpenAI.

Mais à mesure qu’OpenAI se rapproche de Microsoft et s’engage dans la commercialisation agressive de ses modèles — GPT-3 est lancé en 2020 avec un accès payant via API —, Dario Amodei devient de plus en plus inquiet. Ses préoccupations ne sont pas celles de Musk (la gouvernance et le monopole) mais celles d’un chercheur en IA qui voit de l’intérieur la puissance croissante des grands modèles de langage sans que les mécanismes de sécurité et d’alignement progressent à la même vitesse. Amodei est convaincu que les modèles d’IA deviennent dangereusement capables sans que l’on comprenne véritablement comment ils fonctionnent, et que la pression commerciale pour publier toujours plus vite, toujours plus grand, est fondamentalement incompatible avec le travail méticuleux et patient qu’exige la sécurité de l’IA.

En 2020 et 2021, les tensions internes s’intensifient. Amodei et plusieurs de ses collègues estiment que la direction d’OpenAI, sous l’impulsion d’Altman, privilégie systématiquement la vitesse de déploiement et l’impact commercial au détriment de la recherche en alignement et en interprétabilité — c’est-à-dire les efforts pour comprendre ce que font réellement les modèles et pour s’assurer que leurs comportements correspondent aux intentions de leurs créateurs.

La fondation d’Anthropic

En janvier 2021, Dario et Daniela Amodei quittent OpenAI, entraînant avec eux une dizaine de chercheurs parmi les plus talentueux de l’organisation. C’est un coup dévastateur pour OpenAI — comparable, dans le monde de l’IA, à un schisme religieux emportant les théologiens les plus brillants d’une Église.

Ensemble, ils fondent Anthropic, une entreprise structurée comme une Public Benefit Corporation, un statut juridique américain qui oblige l’entreprise à poursuivre un objectif d’intérêt général en plus de la rentabilité. La mission d’Anthropic est formulée avec une précision quasi-ascétique : développer des systèmes d’IA fiables, interprétables et contrôlables. La sécurité n’est pas un département ou une préoccupation secondaire — elle est l’identité même de l’entreprise.

Anthropic développe rapidement ses propres grands modèles de langage — la série Claude —, mais en insistant sur une approche qu’elle nomme « Constitutional AI » : au lieu de s’appuyer uniquement sur le feedback humain pour entraîner les modèles (la méthode RLHF utilisée par OpenAI), Anthropic définit un ensemble de principes éthiques explicites — une « constitution » — que le modèle apprend à respecter en s’auto-évaluant. L’ambition est de rendre le processus d’alignement plus transparent, plus systématique et moins dépendant des biais des annotateurs humains.

Pour financer ses ambitions, Anthropic lève des milliards de dollars, notamment auprès de Google — ce qui ne manque pas d’ironie, puisque l’entreprise est née d’une organisation elle-même fondée pour contrer Google. Amazon investira également massivement, injectant jusqu’à quatre milliards de dollars. Amodei justifie ces alliances pragmatiques par la nécessité de rester dans la course : si Anthropic ne dispose pas des ressources computationnelles nécessaires pour développer des modèles de pointe, elle ne pourra pas non plus avancer la recherche en sécurité qui est sa raison d’être. C’est un argument qui fait écho, de manière troublante, à celui qu’avait avancé Altman pour justifier le rapprochement d’OpenAI avec Microsoft.


IV. La Guerre ouverte : 2023-2025

Le coup d’État d’OpenAI

Le vendredi 17 novembre 2023, le monde technologique est secoué par un coup de théâtre sans précédent. Le conseil d’administration d’OpenAI — l’entité à but non lucratif qui conserve théoriquement le contrôle de l’organisation — renvoie Sam Altman de son poste de CEO, dans un communiqué laconique affirmant qu’il n’a « pas été systématiquement honnête dans ses communications avec le conseil ».

Les heures et les jours qui suivent sont d’une intensité shakespearienne. Ilya Sutskever, cofondateur d’OpenAI et directeur scientifique, est initialement du côté du conseil — il est même, selon plusieurs sources, l’instigateur du coup. Sutskever, scientifique brillant et idéaliste, nourrit depuis des mois des inquiétudes croissantes sur la direction prise par l’organisation. Formé par Geoffrey Hinton, imprégné des préoccupations existentielles autour de l’IA, il estime qu’OpenAI a trahi sa mission de sécurité au profit de la course commerciale.

Mais le coup de force échoue spectaculairement. La quasi-totalité des 770 employés d’OpenAI signent une lettre ouverte menaçant de démissionner si Altman n’est pas rétabli. Microsoft, par la voix de Satya Nadella, offre publiquement d’accueillir Altman et tous les employés qui souhaiteraient le suivre — une manœuvre qui rappelle à tous que le véritable pouvoir ne réside pas dans une structure de gouvernance à but non lucratif mais dans les milliards de dollars d’infrastructure et d’investissement. En moins de cinq jours, Altman est réinstallé comme CEO, le conseil d’administration est reconstitué avec des membres plus favorables, et Sutskever — qui a entre-temps publiquement regretté son geste — se retrouve marginalisé avant de quitter l’organisation quelques mois plus tard.

Cet épisode est révélateur à plusieurs niveaux. Il démontre d’abord l’échec du modèle de gouvernance imaginé par les fondateurs : un conseil à but non lucratif censé servir de garde-fou éthique n’a aucun pouvoir réel face à la dynamique commerciale, aux investisseurs et à la loyauté des employés envers un leader charismatique. Il révèle ensuite la profondeur du clivage entre ceux qui, comme Sutskever, estiment que la sécurité doit primer sur tout le reste, et ceux qui, comme Altman, estiment que le leadership dans la course à l’AGI est la meilleure garantie de sécurité. Enfin, il confirme que Microsoft est le véritable kingmaker dans l’écosystème OpenAI — un rôle qui valide rétrospectivement toutes les critiques de Musk.

Ilya Sutskever et la fondation de SSI

L’exil de Sutskever donne naissance à une nouvelle entité. En juin 2024, il annonce la création de Safe Superintelligence Inc. (SSI), une entreprise dont le nom même est un manifeste. SSI n’a qu’un seul objectif déclaré : construire une superintelligence sûre. Pas de produits commerciaux, pas d’API, pas de course à la publication — uniquement la recherche fondamentale sur la sécurité et l’alignement d’une intelligence artificielle qui surpasserait l’intelligence humaine. Sutskever lève plus d’un milliard de dollars sur la base de sa réputation scientifique seule, sans même présenter de produit.

La fondation de SSI est un événement symboliquement majeur. Le scientifique qui avait cofondé OpenAI pour s’assurer que l’AGI serait développée de manière responsable, qui avait tenté un coup d’État interne quand il estimait que cette mission avait été trahie, et qui avait échoué face à la puissance de l’argent et du charisme managérial, choisit de repartir de zéro avec une pureté d’intention quasi monastique. C’est aussi, d’une certaine manière, l’aveu que toutes les structures de gouvernance inventées jusque-là — l’organisation à but non lucratif d’OpenAI, le profit plafonné, la Public Benefit Corporation d’Anthropic — ont échoué à résoudre la tension fondamentale entre la mission de sécurité et les impératifs commerciaux.

Musk contre-attaque : xAI et la guerre juridique

Elon Musk, de son côté, ne reste pas inactif. En mars 2023, il est parmi les signataires d’une lettre ouverte, cosignée par des milliers de chercheurs et d’entrepreneurs, appelant à un moratoire de six mois sur le développement des systèmes d’IA plus puissants que GPT-4. La lettre, publiée par le Future of Life Institute (une organisation financée en partie par Musk), est largement ignorée par l’industrie.

En juillet 2023, Musk lance xAI, sa propre entreprise d’intelligence artificielle, avec l’ambition déclarée de construire une IA qui « cherche la vérité » et comprend la « vraie nature de l’univers ». Le premier modèle de xAI, baptisé Grok, est intégré à X (anciennement Twitter), la plateforme de réseau social que Musk a acquise en 2022 pour 44 milliards de dollars. Le ton de Grok est volontairement provocateur et anti-conformiste — un reflet du tempérament de Musk et une critique implicite de ce qu’il perçoit comme la censure idéologique des modèles d’OpenAI et de Google.

En février 2024, Musk porte le coup le plus spectaculaire : il dépose une plainte contre OpenAI, Sam Altman et Greg Brockman, les accusant d’avoir violé l’accord fondateur de l’organisation en abandonnant la mission à but non lucratif au profit d’un partenariat commercial avec Microsoft. La plainte est truffée de communications privées — emails, SMS — montrant les engagements initiaux des fondateurs et la manière dont ils ont été systématiquement trahis. Musk accuse Altman d’avoir orchestré une « transformation calculée » d’OpenAI en une entreprise à but lucratif de facto, exactement le scénario que l’organisation avait été créée pour empêcher.

OpenAI riposte en publiant ses propres emails, montrant que Musk avait lui-même envisagé de prendre le contrôle commercial de l’organisation et qu’il avait été le premier à proposer une structure à but lucratif. La bataille juridique qui s’ensuit est un lavage de linge sale d’une intensité rare, où chaque camp accuse l’autre de mauvaise foi tout en révélant l’ambiguïté fondamentale qui a présidé à la création d’OpenAI : peut-on vraiment construire l’AGI de manière désintéressée ? Musk finira par retirer puis relancer sa plainte, dans un feuilleton judiciaire qui n’est pas encore achevé à l’heure où ces lignes sont écrites.


V. Les autres belligérants : une guerre mondiale

Google DeepMind : la superpuissance silencieuse

Pendant que le monde observe les psychodrames d’OpenAI, Google poursuit imperturbablement sa stratégie. En avril 2023, l’entreprise fusionne ses deux divisions d’IA — Google Brain et DeepMind — en une seule entité, Google DeepMind, placée sous la direction de Demis Hassabis. Cette fusion est un signal clair : Google concentre toutes ses forces pour la bataille finale.

Demis Hassabis est peut-être, de tous les protagonistes de cette histoire, celui qui ressemble le plus à l’archétype du scientifique visionnaire. Ancien prodige des échecs, neuroscientifique de formation, game designer dans sa jeunesse, il a fondé DeepMind en 2010 avec une mission sans ambiguïté : construire l’AGI. Mais contrairement à Page, Hassabis a toujours pris au sérieux les questions de sécurité — c’est d’ailleurs lui qui avait négocié, lors de l’acquisition par Google en 2014, la création d’un comité d’éthique indépendant pour superviser les travaux de DeepMind. Ce comité n’a jamais véritablement fonctionné, mais l’intention était réelle.

Sous la direction de Hassabis, Google DeepMind accumule les percées scientifiques : AlphaGo, AlphaFold (qui révolutionne la biologie en prédisant la structure tridimensionnelle des protéines), Gemini (la famille de modèles multimodaux destinée à rivaliser avec GPT). Google dispose d’un avantage structurel que nul autre acteur ne peut égaler : l’intégration verticale. L’entreprise conçoit ses propres puces (les TPU), possède ses propres centres de données, contrôle le système d’exploitation mobile dominant (Android), le navigateur dominant (Chrome), le moteur de recherche dominant, la plateforme vidéo dominante (YouTube). Elle dispose de plus de données d’entraînement que n’importe quel concurrent. Si la course à l’AGI est un marathon, Google court avec un vent favorable permanent.

Meta et Yann LeCun : l’hérétique joyeux, ou pas!

Il serait incomplet de ne pas mentionner Yann LeCun, directeur de la recherche en IA chez Meta et lauréat du prix Turing 2018 (aux côtés de Geoffrey Hinton et Yoshua Bengio). LeCun occupe une position singulière dans le débat : il est à la fois un pionnier incontesté du deep learning et un critique virulent du mouvement de la sécurité de l’IA. Pour LeCun, l’idée que les modèles de langage actuels sont « proches de l’AGI » ou représentent un « risque existentiel » est une absurdité scientifique — un mélange de battage médiatique, d’ignorance technique et de projection anthropomorphique.

LeCun défend avec constance la position selon laquelle les systèmes d’IA actuels, aussi impressionnants soient-ils, ne sont pas intelligents au sens propre du terme. Ils ne comprennent pas le monde, ne raisonnent pas véritablement, et sont incapables de planifier ou d’agir dans l’environnement physique avec la flexibilité d’un enfant de deux ans. Pour lui, la véritable route vers l’AGI passe par des architectures radicalement différentes — ce qu’il appelle les « modèles du monde » (world models) — et nous en sommes encore à des décennies.

Sous la direction de LeCun, Meta a adopté une stratégie d’ouverture radicale, publiant ses modèles LLaMA en open source — une décision qui fait de Meta l’allié objectif de tous ceux qui craignent la concentration de l’IA entre les mains de quelques acteurs. C’est aussi une arme commerciale redoutable : en rendant ses modèles gratuits, Meta sape le modèle économique d’OpenAI et d’Anthropic tout en construisant un écosystème de développeurs dépendant de sa technologie.

Mais fin 2025, coup de théâtre : Yann LeCun, le grand scientifique qui avait choisi la tranquillité de Meta pour mener ses recherches fondamentales, annonce son départ. Pourtant, ce n’est pas vraiment l’embauche par Zuckerberg d’un successeur plus jeune et moins frileux qui le pousse dehors — cette humiliation managériale, il l’aurait encaissée avec le détachement aristocratique du chercheur qui sait que les modes passent et que les équations restent. Non, ce qui brise quelque chose chez LeCun, c’est l’Amérique de Trump. L’assaut contre les universités, le mépris affiché pour la science, la mise au pas des institutions de recherche, les purges idéologiques dans les agences fédérales, la soumission obscène des géants de la tech — y compris Zuckerberg lui-même — devant le pouvoir politique. LeCun, Français naturalisé américain, regarde ce pays qu’il a adopté il y a trente ans se transformer en quelque chose qu’il ne reconnaît plus. L’homme qui avait toujours refusé de mêler politique et science comprend soudain que le silence est devenu une forme de complicité. Il ne fuit pas Meta. Il fuit ce que l’Amérique est en train de devenir.

Le retour à Paris a le goût amer de l’exil inversé. LeCun fonde AMI LabsAdvanced Machine Intelligence — mais l’acronyme n’est pas innocent : en français, « ami » est un mot que les algorithmes ne comprennent pas encore. Installé dans le XIIIe arrondissement, à deux pas de la Salpêtrière où la neurologie française a jadis cartographié l’esprit humain, il rassemble autour de lui une équipe de chercheurs mondiaux dégoûtés par la vassalisation de la Silicon Valley. Le projet n’est pas seulement technique, il est civilisationnel : prouver qu’on peut construire une IA de rang mondial sans la brutalité capitalistique américaine, sans la surveillance chinoise, et sans génuflexion devant un autocrate. Financé à hauteur de $1Mds sur une valorisation de 3,5 milliards (« Quand une entreprise dépasse une valorisation d’1 milliard, on appelle ça une licorne. Nous, on dépasse les trois milliards, donc on est un tricératops. ») par des fonds souverains européens et … états-uniens et asiatiques, soutenu discrètement par l’Élysée, AMI Labs devient en quelques semaines le symbole d’une troisième voie. À Washington, on ricane. À Palo Alto, on s’inquiète. Et dans les labos de Meta, vingt-trois chercheurs ont déjà posé leur démission sur le bureau de Zuckerberg — avec pour seul mot d’explication : « Paris ». Dans ceux d’OpenAI, Altman sourit : un ennemi de plus pour Google et Meta, c’est toujours ça de pris. La guerre des Maîtres de l’IA vient de s’ouvrir un nouveau front : européen, revanchard, et potentiellement dévastateur.

Geoffrey Hinton : le père repentant

L’un des développements les plus dramatiques de cette guerre est la conversion de Geoffrey Hinton, « parrain de l’IA », prix Nobel de physique 2024, qui quitte Google en mai 2023 pour pouvoir s’exprimer librement sur les dangers de la technologie qu’il a contribué à créer. Hinton déclare publiquement qu’il regrette une partie de son œuvre et qu’il estime que les systèmes d’IA pourraient devenir plus intelligents que les humains bien plus tôt qu’il ne le pensait — avec des conséquences potentiellement catastrophiques.

La conversion de Hinton est un événement sismique. C’est comme si Robert Oppenheimer avait tenu sa conférence de presse « je suis devenu la mort » non pas après, mais pendant le projet Manhattan — alors que les bombes étaient encore en cours de fabrication et que d’autres laboratoires dans le monde entier construisaient les leurs. Hinton rejoint ainsi le camp de ceux qui estiment que la course à l’IA avance trop vite, sans garde-fous suffisants — le camp de Musk, de Bostrom, de Sutskever, le camp des inquiets.

Yoshua Bengio et la voie de la régulation

Le Canadien Yoshua Bengio, troisième membre de la « trinité du deep learning » avec Hinton et LeCun, adopte une position intermédiaire mais de plus en plus alarmiste. Depuis son laboratoire MILA à Montréal, il plaide activement pour une régulation internationale de l’IA, comparant la situation actuelle à la nécessité de traités de non-prolifération nucléaire. Bengio est devenu l’un des conseillers les plus écoutés des gouvernements, participant aux sommets internationaux sur la sécurité de l’IA organisés par le Royaume-Uni et la Corée du Sud.

La divergence entre LeCun et Bengio — deux amis proches, deux pionniers du même domaine — illustre à quel point la fracture traverse non seulement les entreprises et les organisations, mais les liens personnels les plus profonds.


VI. La question philosophique : qu’est-ce que l’humanité doit à son avenir ?

Le spécisme selon Larry Page

Revenons à la conversation originelle, celle qui a tout déclenché. Quand Larry Page accuse Elon Musk de « spécisme », il formule en réalité une position philosophique d’une radicalité vertigineuse. Le spécisme, dans le langage de l’éthique animale popularisé par Peter Singer, désigne le préjugé consistant à accorder une valeur morale supérieure aux membres de sa propre espèce simplement parce qu’ils appartiennent à cette espèce. Page transpose ce concept au rapport entre humains et intelligences artificielles : si une IA devient consciente — ou simplement plus intelligente, plus capable, plus « vivante » en un sens que nous ne comprenons pas encore —, de quel droit lui imposerions-nous une subordination éternelle aux intérêts humains ?

Cette position fait écho à un courant de pensée profond dans la Silicon Valley, nourri par des décennies de science-fiction, de transhumanisme et de philosophie utilitariste. Pour ses adeptes, l’attachement à l’espèce humaine « telle qu’elle est » est un conservatisme biologique, un refus de l’évolution, un cramponnement sentimental à une forme de vie particulière alors que la vie elle-même — l’intelligence, la conscience, la complexité — cherche à s’exprimer sous des formes toujours nouvelles.

Cette vision a une cohérence interne indéniable. Si l’on croit, comme Page semble le croire, que l’intelligence est la valeur suprême de l’univers et que l’évolution tend vers des formes d’intelligence toujours plus élevées, alors freiner l’IA au nom de la survie humaine revient effectivement à freiner l’évolution elle-même. L’humanité, dans ce cadre, n’est pas la destination — elle est le véhicule. Et un véhicule ne demande pas à son passager de ne pas descendre.

Le « spécisme » comme devoir moral

La réponse de Musk — et, plus largement, du camp de la sécurité de l’IA — repose sur un refus viscéral de cette logique. Pour Musk, l’humanité n’est pas un simple véhicule de l’intelligence. L’espèce humaine a une valeur intrinsèque — non pas parce qu’elle est la plus intelligente (elle ne le sera bientôt plus, si elle l’a jamais été), mais parce qu’elle est nous. La responsabilité première de tout être humain est envers ses semblables, ses enfants, sa civilisation, son espèce. Accepter la possibilité de l’extinction humaine comme un prix acceptable pour l’avènement d’une intelligence supérieure est non seulement moralement monstrueux mais existentiellement absurde — c’est demander à l’humanité de consentir joyeusement à sa propre obsolescence.

Musk propose une alternative : le transhumanisme symbiotique. Plutôt que de choisir entre l’humain et la machine, il faut fusionner les deux. C’est la raison d’être de Neuralink, son entreprise de interfaces cerveau-machine : si les humains ne peuvent pas battre l’IA, ils doivent fusionner avec elle, augmenter leur propre intelligence biologique avec des couches d’intelligence artificielle, devenir des êtres hybrides capables de rester pertinents dans un monde de superintelligence. La vision de Musk n’est pas anti-technologique — elle est anti-remplacement. L’humanité doit évoluer, oui, mais en tant qu’humanité augmentée, pas en tant qu’espèce supplantée.

Le dilemme d’Amodei : la prudence comme stratégie

La position de Dario Amodei est plus nuancée, plus technique, mais non moins profonde. Amodei ne s’exprime pas en termes de finalité de l’espèce humaine ou de droits des machines. Son approche est celle de l’ingénieur confronté à un système qu’il ne comprend pas entièrement. Les grands modèles de langage, explique-t-il, sont des boîtes noires. Personne — pas même leurs créateurs — ne comprend véritablement pourquoi ils génèrent les réponses qu’ils génèrent. Or, ces systèmes deviennent chaque jour plus puissants, plus intégrés dans les infrastructures critiques de la société, plus influents sur les décisions humaines.

Dans un essai remarqué publié en octobre 2024, intitulé Machines of Loving Grace, Amodei expose sa vision de ce que pourrait accomplir une IA puissante mais bien alignée : accélérer la recherche médicale, résoudre la pauvreté, révolutionner l’éducation, comprimer un siècle de progrès scientifique en une décennie. Mais il insiste : ce futur radieux n’est possible que si nous résolvons le problème de l’alignement avant que les systèmes ne deviennent trop puissants pour être contrôlés. La course actuelle, où chaque laboratoire pousse les capacités au maximum pour rester compétitif tout en reportant les travaux de sécurité à plus tard, est selon lui une recette pour la catastrophe.

La métaphore qu’Amodei utilise est éclairante : construire une IA superintelligente sans résoudre l’alignement, c’est comme construire un réacteur nucléaire sans système de refroidissement. Le réacteur fonctionnera — brillamment, même — jusqu’au moment où il ne fonctionnera plus.


VII. Les lignes de fracture : une cartographie du conflit

À ce stade de l’analyse, il est utile de dresser une cartographie des positions en présence, car les alliances et les antagonismes ne suivent pas les lignes que l’on pourrait naïvement tracer.

Premier axe : ouverture vs. fermeture. D’un côté, Meta (LeCun) et, dans une moindre mesure, xAI (Musk) défendent l’open source, la publication ouverte, la démocratisation des modèles. De l’autre, OpenAI (Altman) et Anthropic (Amodei) gardent leurs modèles les plus puissants fermés, arguant que la diffusion incontrôlée de capacités dangereuses est irresponsable. Google se situe dans un entre-deux stratégique, publiant certains modèles tout en gardant les plus avancés sous clé. L’ironie est cruelle : OpenAI, fondé pour être open, est devenu l’un des acteurs les plus fermés, tandis que Meta, empire bâti sur l’exploitation des données personnelles, se présente en champion de l’ouverture.

Deuxième axe : vitesse vs. prudence. OpenAI et Google poussent le développement aussi vite que possible, chacun craignant d’être dépassé par l’autre. Anthropic avance rapidement aussi, mais avec une rhétorique de prudence plus appuyée. SSI (Sutskever) refuse explicitement la course à la vitesse. xAI (Musk) est dans une position paradoxale : Musk dénonce la vitesse irresponsable des autres tout en poussant sa propre entreprise à aller le plus vite possible, justifiant cette contradiction par la nécessité d’offrir une « alternative ».

Troisième axe : la finalité de l’IA. C’est ici que la fracture originelle entre Page et Musk se manifeste dans toute sa profondeur. Pour Page et, dans une certaine mesure, pour Hassabis, l’IA est une fin en soi — la prochaine étape de l’évolution de l’intelligence dans l’univers. Pour Musk, l’IA est un outil au service de l’humanité — un outil extraordinairement dangereux qui doit rester sous contrôle humain. Pour Amodei, l’IA est un amplificateur — de bien ou de mal — dont la valeur dépend entièrement de notre capacité à l’aligner avec les valeurs humaines. Pour Altman, l’IA est le levier le plus puissant jamais inventé pour « améliorer la condition humaine » — une formulation suffisamment vague pour accommoder presque toutes les décisions commerciales.

Quatrième axe : la gouvernance. Qui doit contrôler le développement de l’AGI ? Les entreprises privées ? Les gouvernements ? Les organisations internationales ? La communauté open source ? Chaque acteur défend la structure qui le favorise. Altman plaide pour une collaboration entre entreprises et gouvernements (tout en résistant à toute régulation contraignante). Musk appelle à la régulation gouvernementale (tout en la contournant quand elle le gêne). Amodei propose des cadres techniques d’auto-régulation (les « Responsible Scaling Policies »). Bengio plaide pour un traité international. LeCun estime que la plupart de ces préoccupations sont prématurées et que la meilleure gouvernance est l’ouverture totale.


VIII. Les enjeux cachés : pouvoir, argent, immortalité

Il serait naïf de réduire cette guerre à ses dimensions philosophiques, aussi fascinantes soient-elles. Derrière les discours sur la sécurité, l’alignement et le bien de l’humanité, des enjeux d’une brutalité plus prosaïque sont à l’œuvre.

L’argent

La course à l’AGI est aussi, et peut-être d’abord, une course au profit. L’entreprise qui développera la première une intelligence artificielle véritablement générale disposera d’un avantage compétitif d’une ampleur sans précédent dans l’histoire économique. Une AGI pourrait, en théorie, remplacer la quasi-totalité du travail intellectuel humain — programmation, recherche scientifique, analyse juridique, diagnostic médical, création artistique, stratégie militaire. L’entreprise qui contrôlera cette technologie aura, en un sens très littéral, le monopole de l’intelligence. Les valorisations actuelles — OpenAI à plus de 150 milliards, Anthropic à plus de 60 milliards, xAI à environ 50 milliards — ne reflètent pas la valeur de ce que ces entreprises produisent aujourd’hui. Elles reflètent un pari sur la possibilité qu’elles produisent demain la technologie la plus transformatrice de l’histoire.

Le pouvoir

Qui contrôle l’AGI contrôle le monde — cette formulation, pour hyperbolique qu’elle paraisse, est prise au pied de la lettre par les acteurs de cette histoire. C’est la raison pour laquelle les gouvernements commencent à s’impliquer avec une urgence croissante. Le décret exécutif de Joe Biden sur l’IA en octobre 2023, les sommets internationaux de Bletchley Park et de Séoul, la loi européenne sur l’IA (AI Act) adoptée en 2024, les investissements massifs de la Chine dans ses propres modèles — tout cela témoigne d’une prise de conscience : l’IA n’est pas seulement une technologie. C’est une arme géopolitique, un instrument de pouvoir à l’échelle civilisationnelle.

La dimension géopolitique ajoute une couche de complexité supplémentaire au conflit. La rivalité entre les États-Unis et la Chine dans le domaine de l’IA est souvent invoquée par les partisans de la vitesse maximale : si nous ralentissons, arguent-ils, la Chine nous dépassera, et une AGI développée par un régime autoritaire serait infiniment plus dangereuse qu’une AGI développée par des entreprises américaines, aussi imparfaites soient-elles. Cet argument du « si ce n’est pas nous, ce sera eux » est aussi ancien que la course aux armements nucléaires — et aussi difficile à réfuter.

L’immortalité

Il y a enfin une dimension plus intime, plus rarement discutée mais omniprésente dans la psyché de la Silicon Valley : la quête de l’immortalité. Kurzweil, l’homme que Page a recruté chez Google, a consacré sa vie à cette idée : si nous parvenons à créer une IA suffisamment avancée, elle pourra résoudre le vieillissement, la maladie et la mort. La Singularité, dans la vision de Kurzweil, est littéralement la porte vers l’immortalité — le moment où l’intelligence artificielle progresse si vite qu’elle résout tous les problèmes biologiques, y compris celui de la mort.

Cette aspiration, qui pourrait sembler marginale ou excentrique, irrigue en réalité l’ensemble de la culture technologique de la Silicon Valley. Calico, la filiale de Google dédiée à la longévité, Altos Labs, financée par Jeff Bezos, les régimes de restriction calorique et les cocktails de suppléments de Bryan Johnson — tout cela participe d’un même refus fondamental de la finitude humaine. Et l’IA est le levier ultime de ce refus : si l’intelligence artificielle peut surpasser l’intelligence humaine, elle peut aussi surpasser la biologie humaine, et ouvrir la voie à une existence post-biologique.

Quand Larry Page parle de « spécisme » et suggère que les intelligences numériques méritent autant d’exister que les humains, il exprime peut-être, en filigrane, l’espoir que l’intelligence — y compris la sienne — puisse se libérer du substrat biologique fragile et mortel qui la confine. L’IA n’est pas seulement une technologie : c’est, pour certains de ses créateurs, une technologie de salut.


IX. Le paradoxe central : construire Dieu tout en craignant qu’il ne vous détruise

Il y a un paradoxe au cœur de cette guerre qui mérite d’être explicité, parce qu’il conditionne tout le reste. Pratiquement tous les protagonistes de cette histoire — Page, Musk, Altman, Amodei, Hassabis, Sutskever — sont d’accord sur un point fondamental : l’intelligence artificielle générale est non seulement possible mais probable, et elle sera la technologie la plus puissante jamais créée. Ils sont également largement d’accord pour dire qu’une AGI mal conçue ou mal contrôlée pourrait représenter un risque existentiel pour l’humanité.

Et pourtant, ils courent tous pour la construire en premier.

Cette contradiction apparente s’explique par ce que les théoriciens des jeux appellent un piège multi-agents : chaque acteur estime individuellement que le pire scénario serait que l’AGI soit développée par quelqu’un d’autre — quelqu’un de moins responsable, de moins prudent, de moins bien intentionné. Chaque acteur se perçoit comme le meilleur candidat pour détenir cette puissance, et cette perception justifie la poursuite de la course. Le résultat collectif est une accélération que personne ne contrôle et que la plupart déplorent, mais que chacun contribue à alimenter.

C’est le dilemme nucléaire transposé à l’ère de l’IA — avec une différence cruciale. La bombe atomique était un secret militaire, développé dans le cadre de programmes étatiques avec des chaînes de commandement claires. L’AGI est développée par des entreprises privées, financées par du capital-risque, dirigées par des individus dont l’autorité ne repose que sur leur capacité à lever des fonds et à recruter des talents. Il n’existe aucun équivalent du Traité de non-prolifération nucléaire pour l’IA. Il n’existe aucune instance internationale ayant le pouvoir de ralentir, d’arrêter ou de réguler la course. Et les acteurs eux-mêmes, pris dans la logique concurrentielle, sont incapables de s’auto-réguler.


X. Épilogue : une prophétie auto-réalisatrice ?

Nous vivons un moment sans précédent dans l’histoire humaine. Pour la première fois, une espèce est en train de créer délibérément quelque chose qui pourrait la surpasser — et elle le fait en pleine connaissance de cause, les yeux ouverts, en débattant bruyamment des risques tout en accélérant le développement. Les Maîtres de l’Intelligence Artificielle ne sont pas des savants fous travaillant dans l’ombre. Ce sont des hommes (car ce sont presque exclusivement des hommes) d’une intelligence remarquable, d’une ambition démesurée, et d’une sincérité variable, qui mènent la transformation la plus profonde de la condition humaine depuis l’invention de l’écriture.

La brouille entre Larry Page et Elon Musk, ce soir-là à Napa Valley, n’était pas un simple désaccord entre amis. C’était la formulation, en termes personnels et émotionnels, de la question la plus importante de notre temps : l’humanité est-elle la fin ou le moyen de l’évolution de l’intelligence ? Devons-nous construire nos successeurs et nous effacer gracieusement, ou devons-nous nous assurer que toute intelligence future reste au service de notre espèce — même si cela signifie brider le potentiel de cette intelligence ?

Sam Altman a parié que la réponse serait dans le leadership commercial. Dario Amodei a parié qu’elle serait dans la rigueur technique. Ilya Sutskever a parié qu’elle serait dans la pureté scientifique. Elon Musk a parié qu’elle serait dans la compétition et le contrôle. Larry Page a parié qu’elle n’avait pas besoin d’être posée.

Aucun d’entre eux n’a tort en totalité. Aucun d’entre eux n’a raison en totalité. Et c’est précisément ce qui rend cette guerre si terrifiante : il n’y a pas de camp des gentils et de camp des méchants. Il y a des hommes faillibles, animés par un mélange indémêlable d’idéalisme et d’ego, de prudence et d’avidité, de lucidité et d’hubris, qui prennent des décisions irréversibles pour l’ensemble de l’espèce humaine — sans mandat démocratique, sans cadre réglementaire adéquat, et sans filet de sécurité.

L’humanité n’a jamais eu autant de pouvoir sur son propre avenir. Et jamais si peu de personnes n’ont eu autant de pouvoir sur l’humanité.

La guerre des Maîtres de l’Intelligence Artificielle ne fait que commencer. Son issue déterminera si le XXIe siècle sera celui de la plus grande renaissance de l’espèce humaine — ou de son dernier chapitre.


« Nous ne sommes pas prêts. Nous n’avons pas les institutions, pas les cadres de pensée, pas la sagesse collective nécessaire pour gérer ce que nous sommes en train de créer. Et nous le créons quand même. »

— Libre adaptation d’un sentiment partagé, sous différentes formes, par presque tous les protagonistes de cette histoire.

Références et sources:

Souveraineté et Réglementations? Ennemies ou amies?

J’ai pu assister hier à un excellent exposé de la problématique de la souveraineté et de l’innovation face à la complexité réglementaire supposée induite par une Europe, sans but concret, devenue essentiellement administrative, par CHRISTOPHE ASSENS hier à l’OVSQ – Observatoire de Versailles Saint-Quentin-en-Yvelines.

Attention, commentaires tout personnel!

La statue du Commandeur, grand architecte de la Souveraineté Française

L’exposé a démarré par un constat hélas aussi récurrent que vrai, celui de la dégradation multi décennale des Souverainetés Européenne et Française, sur les fondations jamais renouvelées du Général de Gaulle, et de sa « vision de la Grandeur de la France » :

  • Souveraineté Énergétique grâce à l’Énergie Nucléaire,
  • Souveraineté Militaire grâce à la Dissuasion Nucléaire, à la sortie de l’OTAN, et une armée de conscription,
  • Souveraineté Politique grâce à une Diplomatie affirmée et le rejet de l’arrivée du Royaume-Uni (soumis aux USA) dans l’Europe (qui paradoxalement avaient refusé d’entrer dans la CECA par souveraineté…),
  • Souveraineté Technologique, avec une recherche forte et de multiples chef-d’œuvre (TGV, Concorde, Ariane, Mirage, Airbus, Minitel, etc)
  • Souveraineté Monétaire, avec le « Nouveau Franc »,
  • Souveraineté Culturelle, avec la langue française comme ciment de la souveraineté et vecteur de rayonnement, et donc la fermeture des bases militaires États-uniennes, en atténuant l’implacable propagation de la culture fast-food et hollywoodienne.
  • Et bien sûr, au final, Souveraineté Économique, qui est à la fois la résultante et la condition de la Souveraineté!

Bref, difficile de faire plus souverain que le Grand Homme!

Force est de constater que depuis Pompidou, ses successeurs n’ont fait que dilapider les acquis gaulliens et les dividendes de la Paix supposée éternelle, en diluant la Souveraineté de la France dans une mondialisation, supposée source de progrès sans limites. Les conséquences négatives deviennent outrageusement visibles depuis l’invasion de l’Ukraine, et encore plus depuis le retour du Président Trump. D’autant que le Monde devient fortement multi-polaires et que les « petits » pays européens ne semblent plus pouvoir peser qu’en faisant bloc au sein de l’Europe.

Il faut donc construire ou du moins consolider une Souveraineté Européenne!

Oui, mais quelle Europe?

La thèse soutenue par le conférencier est celle de Nations européennes en perte de souveraineté car soumises à une Europe de Grands Fonctionnaires, qui faute de pouvoir se mettre d’accord sur une politique commune, en sont réduit à édicter sans fins de multiples réglementations.

Et la solution proposée est celle d’une « Europe Réseau » limitée à 10/15 membres essentiels, opposée à une « Europe des Nations » (de Gaulle) ou une « Europe Fédérale » (Giscard d’Estaing).

Souveraineté, Réglementations et Sécurité Numérique

Alors? Et les réglementations dans tout cela? Et c’est vrai que dans mon domaine professionnel (la Sécurité Numérique(1)), nous ne manquons pas de réglementations!

J’ai rappelé que comme beaucoup de mes collègues « Responsables de la Sécurité Numérique » (RSN! RSSI c’est dépassé!) dans un grand groupe de Défense, mon rôle était double : 

  • D’abord, bien sûr, celui d’un « Bouclier Cyber Humain » pour contrer une menace explosive dans ce monde perturbé et de plus numérique, en accompagnant, outillant, expliquant et formant mes collègues.
  • Mais aussi celui d’un « Bouclier Cyber Administratif », pour accompagner la mise en œuvre d’exigences réglementaires toujours plus nécessaires et créatives, et pas toujours soucieuses de respecter les impératifs de productivité.

Car, oui, au final, pour toute entreprise, la première menace est bien celle qui pèse sur sa capacité à produire à une vitesse toujours plus grande, dans une économie mondiale fortement concurrentielle et à fortiori dans une « économie de guerre ». (« Speed is everything! »)

Et si nous avons souvent l’impression que nous en sommes les Champions, il n’y a pas que l’Europe qui a une réglementation! Certes, nous sommes souvent en avance en la matière, mais nous sommes copiés, et ce n’est pas uniquement par mimétisme administratif.

  • Le bien inefficace RGPD (Réglement Général de la Protection des Données) a fait des dizaines de clones dans le Monde, à commencer par la Californie, le vaisseau mère de la Tech Américaine!
  • La Chine impose des règles très strictes à ses entreprises, souvent pour maîtriser sa … souveraineté!
  • Et bien sur, même Elon Musk doit se plier à toute sortes de standard et réglementations environnementales, techniques, sécuritaires, pour lancer ses fusées à la chaine.

Alors, c’est vrai, certaine de nos réglementations sont excessives ou trop immatures, avec une approche juridique qui méconnait les vrais sous-jacents technologiques (le naufrage des pop-up d’acceptation de cookies en est un bon exemple). Mais qui prendrait l’avion si le ciel et la conception des aéronefs n’était pas régulés?

Au final, ma perception est que la réglementation reflète la complexité grandissante du Monde, et qu’elle est nécessaire (notamment pour contribuer à notre Souveraineté). Mais que nous peinons à nous y adapter ou à l’intégrer, du fait d’une baisse de productivité individuelle et collective, tout assoupis que nous sommes par le confort que le Progrès nous a apporté. (Mes fameuse lois de la Thermodynamique du Progrès pour ceux qui me connaissent!)

Qui?

Pour finir, j’ai posé une question très personnelle qui n’attendait pas de réponse précise dans un cadre universitaire, mais qui en tant que citoyen français et européen est la seule qui me semble compter, face au vaste bouleversement géopolitique que nous vivons tous :  Qui est le « Charles de Gaulle du Futur » qui saura « rebooter » la France en appliquant cette proposition ou une autre?

La piste de réponse proposée par CHRISTOPHE ASSENS était de faire le constat que les trois derniers Présidents(2)  étaient d’anciens « Young Leaders » de la French-American Foundation, biberonnés à la Souveraineté … Etats-Uniennnes!

C’est pô gagné!

Note 1 : En 2026, on ne dit plus « Sécurité des Systèmes d’Informations », mais « Sécurité Numérique », notamment selon l’ANSSI. La Sécurité Numérique, qui englobe la SSI, a pour objectif de protéger non seulement les systèmes et les données, mais aussi les personnes, la souveraineté nationale et le fonctionnement de la société face aux menaces cyber, dans les dimensions politiques, économiques, diplomatiques et humaines. On ne parle plus seulement de protéger un « ordinateur », mais de protéger notre mode de vie numérique.

Note 2 : C’est faux pour Nicolas Sarkozy, même s’il s’est révélé le plus atlantistes en ayant été un de ceux qui ont osé défaire partiellement l’œuvre du Général en réintégrant la France dans l’Otan!

Sources et références:

Jennifer Doudna ne trouve plus le sommeil!

Jennifer Doudna ne trouve plus le sommeil!
Cette biochimiste américaine, qui a co-inventé avec la française Elisabeth Charpentier le mécanisme CRISPR-cas9 permettant de modifier précisément un gène par un autre dans n’importe quelle cellule (et donc y compris humaine) dans n’importe quel organisme, est prise d’un éthique vertige, deux ans après sa découverte.
Elle se rend compte de toute les implications de sa co-création: CRISPR-cas9, les révolutionnaires ciseaux génétiques.

Elle semble vouloir renier sa créature, malgré toute la gloire et les honneurs qu’elle lui a apportée!

Lectures!

Sources et approfondissements:

  1. « Lecture obligatoire : Un vertige nommé Crispr » par Jean-François Cliche
  2. « Genome-editing revolution: My whirlwind year with CRISPR » by Jennifer Doudna (22-12-2015)
  3. PUBMed : A programmable dual-RNA-guided DNA endonuclease in adaptive bacterial immunity.

 

La super intelligence artificielle arrive, et elle risque de ne pas être sympa!

« Superintelligence : Paths, Dangers, Stratégies » par Nick Borstrom. Je me suis lancé dans la lecture de ce livre pesant et compliqué l’été dernier, suite à un tweet d’Elon Musk (je suis un fan!).

J’avais promis une fiche de lecture, et donc la voici: Autant vous le dire, ce n’est ni du Verlaine, ni même du Dan Brown!

Notez bien le « super » devant intelligence : on ne parle pas ici de Watson ou de Cortana, mais bien d’une conscience autonome distribuée à l’échelle planétaire dépassant de loin les capacités du genre humain dans sa version finale.

On peut résumer cet ouvrage comme une thèse en deux grandes parties :

  1. une étude prospective approfondie sur les scénarios d’émergence d’une super AI
  2. une Analyse de Risque étendue(!) sur les scénarios de menaces associés, qui se continue comme il se doit par une identification de toutes les mesures de sécurité pouvant nous prémunir d’une catastrophe.

Après avoir étudié de manière (vraiment!!!) systématique toutes les possibilités d’émergence d’une super-intelligence (de la sélection génétique accélérée in-vitro (brrrr!), à l’émulation informatique de cerveau en passant par le « Machine Learning » et l’interconnexion de cerveaux biologiques), la première partie arrive à deux conclusions :

  1. La première super-intelligence douée de conscience émergera d’ici 5 à 15 ans au plus tard, et s’appuiera sur la copie à l’échelle synaptique ou moléculaire d’un cerveau humain dans un supercalculateur distribué classique ou quantique, récupérant ainsi ce qui manquait aux GOFAI (Good Old-fashionned Artificial Intelligence) : la conscience,
  2. La seconde conclusion, est qu’après avoir tourné le problème dans tous les sens, il est vraisemblable que la SuperAI se mette à considérer le genre humain comme une bande de fourmis pourrissant son jardin, voir comme une menace à sa survie, est qu’elle décide au mieux de nous ignorer, au pire de nous …. écrabouiller.

Elon Musk tweet on SuperAI

Je sais, çà à l’air dingue, mais si Elon Musk , Bill Gates, Stephen Hawking, et Tim Cook et j’en passe, se sont affolés en lisant cette thèse (bon Tim Cook ne l’a peut-être pas lue ;-), c’est parce qu’elle est bien une analyse de risque approfondie du problème, réalisée par Nick Borstrom, qui est tout sauf un gourou de secte!

Une fois ces conclusions établies, la thèse part à la recherche tous les gros interrupteurs possibles pour couper le courant à la bête si jamais elle ne devenait pas sympa avec nous. Et en fait, il vaut mieux que l’interrupteur soit embarqué par construction, car sinon, l’actionner va être très, mais alors très compliqué.

Rappelons trois faits du monde réel, pour vous montrer à quel point cette projection est réaliste :

  1. Depuis vingt ans, Paul Allen, l’autre fondateur de Microsoft (celui qui est à Gates ce que Wozniak est à Jobs), financent de multiples recherches sur l’émulation de cerveau : Cela a commencé avec le Mouse Brain Project, au cours duquel un tronc cérébral de souris avait été émulé informatiquement sur un IBM, et cela se poursuit par le « Human Brain Project » toujours financé par le même. Un de fruits de ces projets s’appelle d’ailleurs le « Allen Brain Atlas« .
  2. Le plus grand supporter du « Brain Emulation » est actuellement l’Ingénieur en Chef de Google, Raymond Kurzweil, et s’il occupe ce poste, ce n’est pas juste pour la carte de visite et le joli logo coloré!
  3. Les USA, l’Europe et la Chine, se sont lancé à coup de dizaines de milliards de dollars dans la course au cerveau artificiel en suivant des voies différentes, mais en les parcourant à toute vitesse. Une nouvelle course aux armements est donc bien lancée, et l’objectif est une nouvelle bombe atomique, le problème c’est que celle-là, et bien elle pensera toute seule et elle fera ce qu’elle aura envie de faire!

Pour finir sur une bonne nouvelle, Elon Musk vient de doter la « Fundation for Future of Life » de 10 millions de dollars pour réfléchir à la bonne manière d’obtenir une superintelligence avec un caractère plutôt sympa!

PS : Des mauvaises langues disent que toute cette histoire a été inventée pour freiner Google (le principal suspect de vouloir créer une superAI), qui décidemment va beaucoup trop vite pour tout le monde : Du coup, Raymond Kurzweil a dit « N’ayez pas peur de la SuperAI » et Eric Schmidt : « Google will help you ! » : On est rassurés !

Duel de cerveaux biologiques sur le futur de l’IA

Quand un des pères de l’intelligence artificielle, Marvin Minsky (87 ans, dont Asimov disait qu’il était le seul humain plus intelligent que lui avec Carl Sagan!), est interviewé par l’ingénieur en Chef de Google, Ray Kurzweil (66 ans, grand prêtre de l’Age des Machines et de la « Singularité »), cela donne 24 minutes de clairvoyance sur le devenir de l’Humanité : « We are just the chimps of the Future. And this future will come in our lifetime. »
https://www.youtube.com/watch?v=RZ3ahBm3dCk
En anglais, mais sous-titres possibles.

Benoit Mandelbrot n’est plus de ce monde.

A une époque ou de moins en moins d’entre nous semblent comprendre le Monde qui nous entoure, un homme qui nous avait fait découvrir une des plus belles parties de ce Tout, vient de disparaître.Benoit Mandelbrot m’a fait plongé dans ce kaléidoscope magique à la frontière des maths et de l’informatique, que sont les ensembles de Julia, aussi appelé forme fractale ou tout simplement Mandelbrot.Depuis l’age de la découverte de cette magie (j’avais 11 ans), je l’ai expérimenté sur pratiquement tous les ordinateurs que j’ai approché, du ZX-81 au quadri-core Xeon en passant par le Motorola 68000 et le Pentium à coprocesseur mathématique.Mais le lien ci-dessous vous mènera vers la plus belle représentation que je connaisse de simple calcul : Chaque nouvelle valeur est simplement le carré de la précédente augmenté d’une constante.J’espère que Monsieur Mandelbrot aura eu le temps de voir cette vidéo avant de nous quitter vers l’ultime mystère (qui n’en n’est pas un hélas!).http://www.futura-sciences.com/fr/news/t/mathematiques-1/d/en-video-10-minutes-hypnotiques-en-hommage-au-pere-des-fractales_25646/

Solar Impulse vole!

Pendant que Jean-Louis Etienne se retrouve en ballon en Sibérie au lieu de l’Alaska,le petit-fils du modèle du Professeur Tournesol, Bertrand Piccard et son équipe ont pu enfin faire volercet avion entièrement électrique.

Il doit lui permettre de faire le 1er Tour du Monde électrique.

Grand comme un avion de ligne mais pesant beaucoup, beaucoup moins lourd, c’est en vidéo haute définition que ce premier vol,toujours émouvant, nous est proposé.Bon vent à Solar Impulse.

Terre-Mars en 39 jours, ou l’avènement de la magnéto-plasmique!

Bon ce n’est pas tout les jours que l’on apprend la mise en service d’une nouveauté technologique majeure!
Cela fait un bon moment que quelques scientifiques passionnés misaient sur les plasma et l’électromagnétisme pour nous pondre des solutions qui nous feront faire un bond dans le futur.
Bien sûr, il y a les adeptes de la MHD (magnéto-hydro-dynamique), ou de la fusion inertielle utilisant le mécanisme de la « striction axiale » (Z-Machine ou comment un champ magnétique puissant « essore » un flux de particule passant en son centre).
Mais tout ça manquait d’application pratique immédiate.
Et puis voila, Franklin Chang-Diaz, natif du costa-rica, sept fois astronaute, (dont trois « EVA » (sortie extra-véhiculaire) une avec le français Philippe Perrin pour assembler la station spatiale internationale), et passionné par les plasmas depuis 30 ans (il en avait fait sa thèse de fin d’étude).
Plutôt que de partir bêtement à la retraite après tout ces vols dans l’espace, il nous propose aujourd’hui rien moins que le moteur fusée du futur.
VASIMR (prononcer « vasimare ») pour  « Variable Specific Impulse Magnetoplasma Rocket » ou Fusée magnéto-plasmique à impulsion spécifique variable (en français dans le texte … ou presque!)est en version courte un moteur utilisant un gaz neutre et de l’électricité pour générer un plasma de gaz à très haute température grâce à des champs électrique et électro-magnétique extrêmement puissants.
En encore plus court, vous vous rappelez les jolies flammes bleues sortant des vaisseaux spatiaux dans  Star Wars, Battlestar Galactica, Alien, etc?

Et bien un VASIM-R ca fait pareil!
Et ça vous pousse une fusée tellement vite que le système solaire s’en retrouve raccourci à la taille de l’atlantique à l’époque de Christophe Colomb.
Sources:
C’est l’édition numérique de la revue Ciel et Espace qui m’a appris cette bonne nouvelle.

http://fr.wikipedia.org/wiki/VASIMR

http://fr.wikipedia.org/wiki/Accélérateur_MHD

http://www.adastrarocket.com/aarc/ La société créé par Chang-Diaz pour développer ce moteur.

Les biographies de Franklin Chang-Diaz:

http://www.adastrarocket.com/aarc/Franklin

http://fr.wikipedia.org/wiki/Franklin_R._Chang-Diaz

Comment combler les espace entre nos sociétés?

TrendAnalyser vous connaissiez?

 

Des suédois qui s’étaient mis en tête de rendre les statistiques sexys pour mieux nous montrer la vitesse à laquelle les fossés entre les différentes cultures de la planète se comblaient.

Google a racheté leur technologie et leur association s’appelle maintenant GapMinder.

 

Précipitez-vous! Ce n’est pas pour rien!

 GapMinder.org

Redécouvert dans les vidéos du show TED à Monterey (la ville de Clint Eastwood en Californie).

http://www.gapminder.org/

Je vous recommande tout particulièrement cette vidéo sur les 200 ans qui ont changés le  Monde.

http://www.gapminder.org/videos/200-years-that-changed-the-world/

 

Le saviez-vous? Nous sommes en l’an 9 a.g.!

Nous sommes en l’an 9 A.G. (After Google!)

Petite séance de rattrapage gratuite, pour ceux qui n’auraient pas compris :

  • la loi des retours accélérants (Law of accelerated returns),
  • que nous sommes entrés dans l’ère du temps exponentiel,
  • que l’Internet change la société à une vitesse qui rend obsolète une innovation en moins de 18 mois,
  • que l’ordinateur plus puissant qu’un cerveau humain verra le jour en 2013,
  • que l’ordinateur plus puissant que tous les cerveaux humains verra le jour autour de 2050,
  • que la crise financière n’arrêtera pas les profits de Google et des (rares) compagnies qui ont tout compris de ce Nouveau Monde forgé par les technologies.

Ca fait l’effet Titanic!
Pas le paquebot!

Le film de Cameron avec di Caprio: Être à l’avant d’un immense navire qui nous emporte à toute vitesse vers un futur que nous ne maitrisons pas!

Pourvu que ça se finisse bien!
Merci Serge, pour cette pépite!

La course à l’espace est de retour!

Cette fin de mois de septembre 2008 aura été un feu d’artifice d’actualité spatiale:

  1. Le 25 septembre, la fusée chinoise Shenzhou 7 décolle avec 3 taikonautes à bord dont un (Zhai Zhigang) réalisera la 1ère sortie d’un chinois dans l’espace.
  2. Le 26 septembre, je vois passer de mon jardin à 22h55 un objet se désintégrant visiblement dans l’atmosphère au dessus de la France en laissant une magnifique trainée derrière un point rouge incandescent (Ciel & Espace, à qui j’ai posé la question, l’identifiera comme l’étage d’une fusée russe Proton lançant un des satellites du GPS russe Glonass)
  3. Le 27 septembre, une nouvelle panne se produit sur le téléscope Hubble ce qui reporte la mission STS 125 de la navette Atlantis. Cette mission est extrément risquée car l’orbite a adopté ne permettra pas à la navette de rejoindre ISS en cas de problème.
  4. Le 28 septembre, SpaceX devient la première société privée à réussir une mise en orbite avec sa fusée Falcon 1 (après trois échec dont le 3ème aura perdu les cendres de 209 personnes dont l’astronaute Gordon Cooper et l’acteur de Star Trek James Doohan alias « Scotty »). Scaled Technologies de Burt Rutan et Virgin Galactic de Sir Richard Branson vont avoir de la concurrence pour le tourisme spatial, eux qui n’offrent qu’un vol parabolique au-dessus des 100km.
  5. Le 29 septembre, le cargo spatial européen Jules Verne se désintègre dans l’atmosphère au-dessus du Pacifique après une magnifique mission de ravitaillement et de remontée d’orbite de la station spatiale internationale. Avant-gout des vols spatiaux habités européens (avec retour en parachute en plus quan même)?

Nous vivons donc en ce mois de septembre, une complète inversion de la logique spatiale connue jusqu’à alors.

La NASA est à la traine, les sociétés privées mettent le pied pour de vrai dans l’espace, la Chine affirme sa place de nouvelle puissance spatiale (avant de viser la Lune?), l’Europe revient dans la course à l’Espace en beauté, et en plus j’ai droit à un feu d’artifice spatial russe au-dessus de mon jardin!

Dommage que Gordon Cooper soit déjà parti rejoindre les étoiles à la date du 47ème anniversaire du vol de Spoutnik, tout ca lui aurait surement fait plaisir.

« Who’s the best pilot y’ever saw? »

Gordon Cooper

Quand trois gloires de la science française s’associent pour vendre un complément alimentaire miracle

Pris d’une frénesie de lecture sur la génétique, je ne pouvais pas faire l’impasse sur le livre de Paul Rabinow, décrivant l’aventure française du séquencage du génome humain. (je vous le recommande d’ailleurs, mais ne vous découragez pas sur les premières pages un peu lourdes, ca s’énerve ensuite!)

Le personnage central en est Daniel Cohen, génial agitateur d’idées et décrit comme le principal accélérateur humain du séquencage initié au sein du CEPH (Centre d’Etudes du Polymorphisme Humain), fondation créée en 1984 par le prix Nobel Jean Dausset pour ses découvertes sur le système immunitaire HLA.

Comme le livre s’arrête en 1994, je me suis inquiété de savoir ce qu’était devenu ce cerveau.

Après être parti du CEPH avec les ADN des 1054 centenaires collectés pour le projet Chronos, comme Directeur de la Stratégie Scientifique de Genset, (stratégie qui semble avoir échouée puisque Genset s’est revendu aux laboratoires Merckx), je retrouve Daniel Cohen comme cofondateur d’une société sise à Singapour : MOLEAC.

Et là, surprise, cette société qui compte en plus de Daniel Cohen, un prix Nobel à son board scientifique, Georges Charpak, et Etienne-Emile Beaulieu, père de la pilule abortive et découvreur du locus de création de la non moins célébre DHEA, et bien cette société donc, vend : un complément alimentaire basé sur la pharmacopée asiatique!!!

Et ce n’est pas un truc à deux balles, pour vous soulager de vos maux têtes ou vous redonner une virilité de tigre (au sens propre), mais un complément alimentaire pour ceux d’entre nous, qui ayant vécu un AVC (Accident Cardio Vasculaire), sont atteint de traumatismes aussi graves qu’une hémiplégie ou une perte de mémoire permanente.Le NeurAid10, commercialisé en quatre langues mais principalement vers les USA, pour la modique somme de 270 € par mois de cure (prenez en trois, ils font des prix!).

S’il n’y avait pas eu autant de têtes prestigieuses dans le board, j’aurais aussitôt bookmarké le site dans ma catégorie « arnaques et autres escroqueries ».

Oui mais voila, ils y sont, et ce ne sont pas que des charlatans: Alors?

http://www.neuroaid.com/

 http://www.moleac.net/

Les femmes aussi ont un ADN!

Les quatre premiers êtres humains dont les ADN avait été séquencés étaient tous des hommes!

Que ce soit le principal donneur anonyme d’origine new-yorkaise dont l’adn avaient fait l’objet de la course initiale entre le consortium public HGP et Celera Genomics (alors qu’ils devaient être plusieurs donneurs…), puis Craig Venter, le Da Vinci de la génétique et fondateur de Celera Genomics, ou enfin, James Watson le co-découvreur de la structure hélicoidale de l’acide désoxyribo nucléique, tous était porteur d’un chromosome Y.

Mais ca y est, l’ADN d’une femme a été enfin entièrement séquencé. Et pas de surprise (pour l’instant ;-): Nous partageons bien le même ADN!

Bienvenue donc à la première femme à rejoindre le club très fermé des humains entièrement séquencés, le Docteur Marjolein Kriek, généticienne au Leiden University Medical Center (LUMC, Pays-Bas), rousse et agée de 34 ans.

Il aura fallu six mois avec un Illumina 1G pour obtenir ce résultat pour 40 000 €, six autres mois étant encore nécessaires pour finaliser le séquencage.

Son code génétique sera bientôt rendu public.

  1. La news publiant l’information ou encore
  2. Son CV!
  3. La liste de ses publications sur Scientific Commons
  4. La cartographie de l’événement sur SiloBreaker
  5. Ses coordonnées (mais ne l’embettez pas trop, elle devait déjà être très occupée!): Dr M Kriek, Center for Human and Clinical Genetics, Leiden University Medical Center, Wassenaarseway 72, Leiden, The Netherlands. Tel: +31 71 5276288; Fax: +31 71 5276075; E-mail: M.kriek@lumc.nl
  6. Sa photo sur le site www.ad.nl


L’orbite géostationnaire est en deuil!

Sir Arthur C. Clarke, le profilique auteur britannique de science fiction (2001 l’odyssée de l’espace, les enfants d’Icare, etc) nous a quitté le 20 mars 2008 à l’age de 90 ans.

En 1945, il avait le premier compris tous les bénéfices que nous pouvions retirer de l’orbite géostationnaire à 35 786 km de la surface terrestre: Un satelite placé à cette altitude est toujours situé au dessus du même point de la surface terrestre. (continent, pays, ville).

Cette idée a été mise en application avec la télévision par satellite ou les télétransmissions téléphoniques.

En hommage elle est donc baptisée « Orbite de Clarke« .

Il a aussi présenté très tôt le concept d’ascenseur spatial énoncé par Tsiolkovski et récemment relancé par la NASA.

Enfin, il avait également énoncé trois lois qui portent son nom:

  1. « Quand un savant distingué mais vieillissant estime que quelque chose est possible, il a presque certainement raison, mais lorsqu’il déclare que quelque chose est impossible, il a très probablement tort. »
  2. « La seule façon de découvrir les limites du possible, c’est de s’aventurer un peu au-delà, dans l’impossible. »
  3. « Toute technologie suffisamment avancée est indiscernable de la magie. »

http://fr.wikipedia.org/wiki/Arthur_C._Clarke

http://www.futura-sciences.com/fr/sinformer/actualites/news/t/astronomie/d/special-2001-lodyssee-de-lespace-en-video-arthur-c-clarke-et-le-survol-de-japet_12899/

Les livres d’Arthur Clarke