OPENAI FONDATEUR SAM ALTMAN DÉMENT LES RUMEURS AUTOUR D’UN CHATGPT-5 ET RÉPOND AUX CRITIQUES SUR LA SÉCURITÉ DE L’IA
Il y a un mois, OpenAI a publié GPT-4, mais il n’y a pas de GPT-5 en cours d’entraînement, a déclaré Sam Altman lors d’un événement virtuel à l’Institut de technologie du Massachusetts. Interrogé lors de cet événement sur une lettre ouverte demandant une pause de l’IA, le fondateur d’OpenAI a partagé certaines de ses critiques. Selon lui, une version antérieure de la lettre affirmait que OpenAI entraînait actuellement GPT-5, mais ce n’est pas le cas. Altman a ajouté qu’il était important de prendre du recul sur ce sujet et d’étudier la sécurité des modèles.
OPENAI TRAVAILLE SUR DES AMÉLIORATIONS POUR GPT-4 MAIS DES PROBLÈMES D’OPTIMISATION POUR L’UTILISATEUR ET L’HUMANITÉ RESTENT À ADRESSER
Le fondateur d’OpenAI a également admis que l’entreprise travaillait sur la mise en place de fonctionnalités non optimisées pour l’utilisateur et la sécurité de l’humanité. Par exemple, la société a publié un plug-in pour GPT-4 en mars dernier permettant à son modèle de navigation linguistique de parcourir Internet. Cette fonctionnalité soulève des problématiques de sécurité et de protection des données. Altman a néanmoins souligné que la sécurité est une priorité pour OpenAI, même si l’entreprise a cessé d’être une organisation sans but lucratif. En effet, depuis quelques années, OpenAI, de plus en plus fermée, est devenue une entreprise lucrative. Le modèle GPT-4 est en particulier une boîte noire dont l’architecture et l’ensemble des données d’entraînement sont inconnues.
OPENAI CRITIQUÉ POUR SON MANQUE DE TRANSPARENCE
Si Altman a prétendu que l’entreprise continuerait d’être transparente à l’avenir, ses propos ont attiré la suspicion. OpenAI a fortement restreint l’accès à ses données de formation et à ses processus d’apprentissage depuis qu’elle a adopté une démarche plus lucrative. La politique de transparence de la société est devenue plus opaque et Altman a admis que l’entreprise gardait certaines informations pour elle. Le modèle GPT-4 est un exemple typique de la politique de transparence limitée qu’OpenAI suit.
LE FUTUR DE L’IA EST SUSCEPTIBLE D’IMPACTER L’ENSEMBLE DE LA SOCIÉTÉ
Que vous soyez un partisan convaincu des chatbots IA ou que vous les voyiez comme une menace pour l’humanité, la réponse d’Altman à la lettre ouverte sur l’IA est quelque peu ambiguë. En substance, le fondateur d’OpenAI admet qu’il y a encore des problèmes non résolus et non optimisés pour l’utilisateur et pour la sécurité de l’humanité qui restent à régler dans GPT-4 et d’autres projets en cours. Si Altman soutient que OpenAI travaille à résoudre ces problèmes, la société conserve un contrôle restreint sur l’accès à ses processus d’apprentissage et à ses données. Les évolutions futures de l’IA pourraient impacter l’ensemble de la société, et il est donc crucial de travailler avec rigueur pour garantir la sécurité humaine.