“Nous pensons que l’IA devrait être une extension de la volonté humaine individuelle et, dans un esprit de liberté, être distribuée aussi largement et uniformément que possible”. À lire aujourd’hui l’acte de naissance d’OpenAI rédigé en 2015, cela sonne toujours aussi révolutionnaire qu’à l’époque.
Créer une “IA amicale”
Dans un billet de blog tout ce qu’il y avait de plus modeste, OpenAI détaillait sa mission à la fois simple et terriblement complexe : construire une intelligence artificielle “générale”, c’est-à-dire capable de comprendre et apprendre de la même manière qu’un humain, ou presque. “Il est difficile d’imaginer à quel point une IA de niveau humain pourrait être bénéfique pour la société. Et il est tout aussi difficile d’imaginer à quel point elle pourrait nuire à celle-ci si elle est construite ou utilisée incorrectement”, prévenait la jeune pousse. La structure était alors pensée en organisme à but non lucratif afin de “se libérer de contraintes financières et produire un impact bénéfique à long terme à travers ses recherches”.
Derrière ces déclarations mi-rassurantes, mi-terrifiantes, on trouve à l’époque Greg Brockman, ancien ingénieur de la firme financière Stripe ; Ilya Sutskever, un spécialiste en apprentissage machine ayant fait ses armes chez Google ; et Sam Altman, PDG de l’entreprise de capital-risque Y Combinator. Les trois hommes répètent à l’envi vouloir créer une “IA amicale”, c’est-à-dire une intelligence artificielle qui aurait un effet bénéfique plutôt que négatif sur l’humanité. Cette peur de voir la race humaine dépassée par les machines, les auteurs la partagent à l’époque avec un autre ingénieur et homme d’affaires : Elon Musk.
Défilé de stars de la Silicon Valley
Bien avant de prendre le contrôle de Twitter et de licencier la moitié de ses salariés, le multimilliardaire dissertait longuement sur les dangers de l’intelligence artificielle. En 2014 au MIT, il déclarait notamment que les IA pourraient représenter “le plus gros risque existentiel” jamais rencontré par l’humanité et qu’il fallait être “extrêmement prudent dans le développement des intelligences artificielles”. C’est donc assez naturellement que l’entrepreneur s’est retrouvé à financer les débuts d’OpenAI, adhérant au besoin de construire une IA amicale.
Mais le patron de Tesla n’était pas seul dans l’aventure. Amazon Web Services et le sulfureux fondateur de PayPal, Peter Thiel, avaient aussi accepté d’alimenter les caisses d’OpenAI. Il faut dire que derrière le volant on trouvait des cerveaux respectés de la Silicon Valley issus, entre autres, de la jadis très populaire entreprise Leap Motion. Quelques années plus tard, en juillet 2019, c’est Microsoft qui mettra la main au portefeuille pour injecter 1 milliard de dollars dans OpenAI et s’assurer un accès privilégié aux technologies de la firme.
OpenAI s’impose comme l’entreprise à suivre
À l’époque, OpenAI avait déjà présenté deux versions relativement bluffantes de son modèle de langage GPT, qui deviendra le “cerveau” de nombreux autres projets, tels que Dall-E-2 et ChatGPT, tous deux bien connus aujourd’hui. En 2019, OpenAI Five (des bots entraînés par l’entreprise via des techniques d’apprentissage par renforcement) se payait également le luxe de battre le champion du monde de Dota 2, un MOBA très populaire.
Vint en 2020 l’outil qui fera exploser la popularité d’OpenAI auprès du grand public : GPT-3, le modèle de traitement du langage naturel (TLN) le plus complexe produit avec 175 milliards de points de données pris en compte. La quantité de documents digérée par GPT-3 pour améliorer la compréhension et la production de texte est également étourdissante. Pour se faire un ordre d’idée, l’intégralité du Wikipedia anglophone représente 0,6 % du volume de données analysées par l’IA.
Dans le futur, l’IA sera capable de mieux comprendre le langage, car elle pourra voir ce que les mots et les phrases signifient.
Un an plus tard, Dall-E, un cousin de GPT-3, surprenait de nouveau le petit monde de la technologie grâce à sa compréhension relativement fine du langage et sa capacité à créer des images mêlant plusieurs concepts comme “un bébé radis en tutu promenant un chien”. Ce fut ensuite le tour de Dall-E-2, la première version accessible au grand public, qui rencontre un succès phénoménal sur les réseaux sociaux. “Nous vivons dans un monde visuel, explique Ilya Sutskever. Dans le futur, vous aurez des modèles qui comprendront à la fois le texte et les images. L’IA sera ainsi capable de mieux comprendre le langage, car elle pourra voir ce que les mots et les phrases signifient.”
Une croissance et quelques contradictions
En sept petites années, OpenAI est donc devenu l’entreprise derrière les plus gros succès industriels dans le secteur de l’intelligence artificielle, non sans quelques polémiques. En 2019, l’organisme à but non lucratif s’est mué en une entreprise à “but lucratif plafonné” pour faire face à des besoins financiers importants. Sous ce nouveau statut, l’entreprise s’engage à limiter ses gains à un plafond fixé à 100 fois le montant d’un investissement. Un montant généreux qui, selon certains, éloignerait OpenAI de sa mission historique, à savoir n’avoir “des responsabilités fiduciaires qu’envers l’humanité elle-même”.
La société n’accueille également que 25 % de femmes ou personnes non binaires parmi ses employés et 30 % parmi son équipe dirigeante. Pas de quoi rassurer au moment où les biais racistes et sexistes font débat. Un entre-soi assez marqué qui favorise une culture très uniforme, où les recherches sur l’IA sont plus considérées comme un mode de vie que comme un simple travail. D’après le MIT Technology Review, une partie de la paye des salariés est d’ailleurs indexée sur “l’assimilation” de la culture d’entreprise. OpenAI est aussi accusé d’avoir une définition très personnelle de la transparence, cultivant un intense secret sur ses recherches avant d’en publier (parfois tardivement) les résultats.
Malgré tout, les préoccupations d’OpenAI n’ont pas changé, selon son patron. Dans une interview de 2021, Sam Altman répète que le but de l’entreprise est de créer une intelligence artificielle générale “qui évolue dans la bonne direction, pas la mauvaise”. En guise d’exemple, le jeune PDG tente d’expliquer l’utilité sociale d’un modèle comme GPT-3 : “On peut imaginer des profs particuliers sous forme d’IA qui pourraient vous apprendre tout ce que vous voulez savoir […] Des IA coachs de vie, thérapeutes ou conseiller médicaux”, liste le Californien, qui précise tout de même que des usages comme ceux-ci “demanderont encore beaucoup de temps et beaucoup de travail”.
Avec de telles ambitions et les risques qu’elles représentent, il n’est guère étonnant qu’OpenAI cherche à tout prix à dompter les IA.