Pour résumer
- Stuart Russell, seul expert IA convoqué par Musk, a alerté sur la dynamique « winner-take-all » de la course à l’AGI
- La juge Gonzalez Rogers a restreint son témoignage sur les risques existentiels après les objections d’OpenAI
- Musk a signé la même lettre appelant à une pause IA que Russell en 2023, tout en lançant xAI au même moment
Un seul expert pour défendre Musk
Le procès Musk contre OpenAI se tient devant la juge fédérale Yvonne Gonzalez Rogers. Les avocats d’Elon Musk n’ont fait appel qu’à un seul expert pour parler directement de la technologie IA : Stuart Russell, professeur de sciences informatiques à l’Université de Californie à Berkeley.
Devant les jurés, Russell a présenté une série de risques associés au développement de l’IA : des menaces en matière de cybersécurité, des problèmes d’alignement entre les objectifs des systèmes IA et les intérêts humains, et la dynamique dite « winner-take-all » propre à la course vers l’AGI.
Cette dernière dimension est au cœur de la préoccupation de Russell. La compétition mondiale entre labs frontier pour atteindre l’AGI en premier crée une pression permanente qui incite à sacrifier la prudence au profit de la vitesse. Celui qui arrive le premier remporte potentiellement tout, ce qui rend les compromis sur la sécurité économiquement rationnels pour les acteurs en compétition.
Russell appelle depuis longtemps les gouvernements à réguler plus sévèrement les labs IA frontier. Sa présence au procès Musk/OpenAI lui a offert une tribune inattendue pour porter ces préoccupations devant un tribunal fédéral américain, face à un public de jurés non spécialisés.
Un témoignage limité par la juge
Stuart Russell n’a pas pu tout dire. Ses préoccupations plus larges sur les menaces existentielles liées à l’IA n’ont pas été entendues en audience publique. Après objections des avocats d’OpenAI, la juge Gonzalez Rogers a restreint la portée de son témoignage.
Cette décision procédurale est significative. Elle indique que les arguments sur les risques existentiels de l’AGI ont été jugés trop éloignés des faits en litige pour être recevables. Le débat sur la dangerosité à long terme de l’IA reste donc en dehors du cadre juridique de ce procès.
Ce que Russell a néanmoins pu porter devant le tribunal reste substantiel : la démonstration que la structure compétitive entre labs IA crée des incitations contraires à la sécurité. C’est précisément ce qui correspond à la thèse de Musk sur la dérive d’OpenAI.
La thèse centrale de Musk est simple. OpenAI a été fondée comme une organisation caritative dédiée à développer l’AGI pour le bénéfice de l’humanité. Elle aurait abandonné cette mission en se transformant en structure à but lucratif sous pression des investisseurs. Le procès porte sur cette question fondamentale : est-ce légal de trahir la mission d’une organisation à but non lucratif pour maximiser les retours financiers ?
À voir également sur Horizon :
- Procès OpenAI : Stuart Russell alerte sur la course à l’AGI
- Jensen Huang d’Nvidia: l’IA crée des emplois en masse
- Claude Code : la machine à cash d’Anthropic décolle
La contradiction des fondateurs
Le procès met en lumière une contradiction frappante. En mars 2023, Stuart Russell a signé une lettre ouverte appelant à une pause de six mois dans la recherche IA avancée. Elon Musk a signé cette même lettre. Il lançait xAI au même moment.
Musk a par ailleurs admis au cours du procès que xAI « distille » les modèles d’OpenAI. Autrement dit, sa propre entreprise IA s’appuie sur les travaux de l’organisation contre laquelle il plaide en justice, en les utilisant pour entraîner ses propres modèles.
Cette configuration illustre la tension centrale du secteur. Les fondateurs qui ont construit les labs IA les plus puissants sont souvent les mêmes qui alertent sur leurs dangers, tout en continuant à les développer et à en tirer profit. Stuart Russell incarne l’autre camp : celui des experts qui appellent à freiner sans que personne ne freine.
À court terme, le procès rend visible une tension que le secteur IA préférait garder interne : la question de savoir si les engagements de sécurité et les structures de gouvernance des labs frontier sont compatibles avec leurs modèles économiques. Ce que le tribunal tranche n’impactera pas seulement OpenAI.
À moyen terme, un jugement en faveur de Musk créerait un précédent juridique sur la responsabilité des fondateurs d’organisations à but non lucratif converties en sociétés commerciales. Dans un secteur où plusieurs labs ont réalisé des transitions similaires, les implications iraient bien au-delà d’OpenAI.
Affaire à suivre sur Horizon.


