S’il fallait deviner le jeu préféré de Sam Altman, on miserait sur la “tour infernale”. Dans ce passe-temps prisé des enfants, il s’agit d’empiler toujours plus de blocs en bois sans faire tomber l’ensemble. Patron d’OpenAI, la société la plus regardée de la Silicon Valley, Altman en pratique désormais la version adulte. Son but : voir combien de milliards de dollars une structure à but non lucratif peut absorber sans s’effondrer.
Elon Musk, qui a participé à la création de l’entité, est le plus prompt à ironiser sur son évolution : “OpenAI devrait se rebaptiser “IA ultra-fermée pour un maximum de bénéfices”. Que la structure ait pris en 2019 un virage plus lucratif constitue, à ses yeux, une “perfidie et une tromperie aux proportions shakespeariennes.” Il a déposé une plainte à ce propos en février, avant de la retirer discrètement en juin. Puis d’en déposer une nouvelle en août, “bien plus solide”, selon ses dires.
Certaines des critiques d’Elon Musk sont excessives. “Qu’une structure à but non lucratif ouvre une filiale à but lucratif n’a rien d’anormal. Cela peut accoucher de belles réussites. Si tout est bien pensé, la réussite de la seconde bénéficie à la première et les intérêts de tous sont alignés”, pointe Sophie Chassat, administratrice de plusieurs grandes sociétés et vice-présidente en charge des enjeux de durabilité au sein du cabinet Accuracy, en citant le modèle européen de la fondation actionnaire.
Une valorisation faramineuse
OpenAI avait du reste de bonnes raisons d’ouvrir une filiale à but lucratif. La recherche en IA coûte cher. Excessivement cher. Réunir les montants nécessaires à l’achat de la puissance de calcul requise et au recrutement de pointures du domaine avec de simples donations relevait du vœu pieux.
Ce qui rend le cas d’OpenAI inédit et délicat, c’est que sa filiale a un peu trop bien fonctionné. Sa structure a attiré des investissements colossaux – 13 milliards de dollars de la part de Microsoft. Sa valorisation de plus de 80 milliards de dollars pourrait franchir le cap des 100 milliards à la faveur d’un nouveau tour de table – les noms d’Apple et de Nvidia circulent.
Bien sûr, OpenAI assure avoir pris toutes les mesures adéquates pour protéger sa mission de départ : développer une intelligence artificielle générale de manière sûre et bénéfique à l’ensemble de l’humanité. Le conseil d’administration de la maison mère à but non lucratif contrôle l’ensemble des activités d’OpenAI. Et la majorité de ses membres doit être indépendante. Le rendement maximal que les investisseurs et les employés peuvent toucher est plafonné, de manière que les intérêts commerciaux soient “équilibrés avec les exigences de sécurité et de durabilité plutôt que d’inciter à une recherche pure du profit maximum”, précise le site d’OpenAI.
La situation demeure cependant trouble. La crise de novembre dernier, ayant conduit au licenciement sec d’Altman, a été promptement cataloguée comme une énorme gaffe du conseil d’administration. Face à la colère des employés qui menaçaient de démissionner en masse et à la réaction effarée de Microsoft, les membres du conseil ont vite fait machine arrière. Plusieurs d’entre eux, dont Ilya Sutskever et Helen Toner, n’en font désormais plus partie. Et Sam Altman a été remis sur le trône.
“La séquence a révélé des dysfonctionnements de gouvernance, pointe cependant Sophie Chassat. Le conseil d’administration n’avait pas connaissance d’informations stratégiques : le lancement commercial de ChatGPT ou encore le fait que Sam Altman était propriétaire d’OpenAI Startup Fund, un fonds de capital-risque.” S’il a vite récupéré ses fonctions de DG, la propriété de ce fonds lui a d’ailleurs été retirée quelques mois plus tard. Quant au fait que les employés d’OpenAI ont défendu bec et ongles sa stratégie, leur avis n’est pas totalement neutre : un dispositif interne leur accorde une participation aux bénéfices de la filiale lucrative.
Tensions après le “coup” contre Sam Altman
Plusieurs départs et prises de position ont montré, en outre, que la manière dont OpenAI sécurisait ses produits ne faisait pas l’unanimité en interne. Il y a un an, Dario et Daniela Amodei ont quitté l’entreprise pour monter leur propre start-up, Anthropic, présentée comme plus exigeante en matière de sécurité de l’IA. L’un des cofondateurs d’OpenAI, John Schulman, les a depuis rejoints. Ilya Sutskever, directeur scientifique et personnage clef de l’édifice, a lui aussi quitté le navire en mai dernier, quelques semaines après avoir soutenu le “coup” contre Altman.
Au même moment, le chercheur Jan Leike qui codirigeait l’équipe Alignement d’OpenAI a rejoint Anthropic en critiquant sans ménagement son ancien employeur. “Construire des machines plus intelligentes que l’homme est une entreprise par essence risquée. OpenAI assume une immense responsabilité au nom de l’humanité tout entière. Mais développer des produits tape-à-l’œil a pris le pas sur notre culture de la sécurité ces dernières années”, a-t-il affirmé dans un post sur X. En juin, une dizaine de salariés et d’anciens d’OpenAI accompagnés de deux employés de Google DeepMind ont enfin dénoncé, dans une lettre ouverte, les pressions subies pour signer des accords de confidentialité excessivement stricts :
“Les entreprises d’IA n’ont que de faibles obligations en matière de partage d’informations avec les gouvernements, et aucune avec la société civile. Rien ne permet de penser qu’elles le feront volontairement […] Tant qu’il n’y a pas de contrôle gouvernemental efficace sur elles, les salariés – anciens et actuels — sont les rares personnes à pouvoir rendre ces entreprises publiquement comptables de leurs actions. Des accords de confidentialité extensifs nous empêchent pourtant d’exprimer nos inquiétudes. Les protections accordées aux lanceurs d’alerte classiques ne suffisent pas, car elles ne fonctionnent que pour des activités illégales. Or, nombre des risques qui nous alarment ne sont pas encore régulés.”
La question brûlante dans le cas d’OpenAI est de savoir si sa structure hybride protégera efficacement sa mission d’origine pour le bien commun. “La limite qu’OpenAI a fixée sur les retours sur investissements doit, en théorie, permettre à l’entité à but non lucratif de bénéficier de sa filiale lucrative. Mais la barre est si élevée (x 100) qu’on peut se demander si c’est encore un plafond”, pointe Rose Chan Loui, fondatrice et directrice du Centre Lowell Miken sur les structures philanthropiques de la faculté de droit de Los Angeles (UCLA).
Le fait qu’OpenAI s’impose une majorité de membres “indépendants” dans son conseil d’administration est également formidable sur le papier. Mais, contactée à ce propos par L’Express, la société n’entre pas dans le détail de ce qui pourrait constituer à ses yeux un conflit d’intérêts.
Une nouvelle structure pour OpenAI ?
“Ne pas posséder de parts dans OpenAI est, pour eux, une garantie d’indépendance suffisante. Mais il peut exister des intérêts économiques indirects, par exemple, chez des partenaires de l’entité lucrative”, met en garde Rose Chan Loui, qui a publié avec des consœurs une note détaillée sur le sujet. La plainte d’Elon Musk suggère d’ailleurs que Sam Altman – qui est membre du conseil – a des intérêts dans plusieurs entreprises faisant affaire avec OpenAI. “Si cela se révèle vrai, il n’est pas nécessaire pour Altman d’avoir des parts de la filière lucrative, pour avoir intérêt à ce qu’elle dégage des bénéfices”, décrypte la directrice du Centre Lowell Miken. L’association américaine de défense des consommateurs Public Citizen s’est d’ailleurs émue de ces zones d’ombre, et a invité le procureur général de Californie à se pencher sur le dossier.
“Aucun conseil d’administration n’est totalement à l’abri des pressions exercées par ses donateurs, ou dans le cas d’OpenAI, de ses investisseurs” rappelle enfin Rose Chan Loui. C’est doublement vrai dans un dossier où les investissements sont aussi élevés. “La vérité est que la filiale à but lucratif a une réussite commerciale et financière trop importante pour rester véritablement subordonnée au conseil”, confie Bruce Kogut, professeur de stratégie et fondateur du projet “Business, IA et Démocratie” à l’école de commerce de Columbia.
L’expert prédit qu’OpenAI “évoluera vers une structure de gouvernance plus simple et veillera à attirer des dirigeants avec des réputations établies”. Une hypothèse crédible. Sam Altman semble, en effet, prendre ses distances avec le “caritatif”. Même si un porte-parole de l’entreprise nous assure que l’entité non lucrative est “centrale et continuera d’exister”, plusieurs médias américains, dont The Information et leFinancial Times, ont révélé qu’OpenAI tentait de basculer vers un modèle d’entreprise plus souple, de type B-Corp. Un modèle déjà utilisé par des concurrents tels qu’Anthropic ou xAI, l’entreprise d’Elon Musk. Et qui mettrait OpenAI sur les bons rails d’une cotation en Bourse.
Source