Le débat autour de l’intelligence artificielle (IA) fait rage entre les pessimistes, qui voient en elle une menace pour la survie de l’humanité, et les optimistes, qui y voient un progrès immense. Mais cette polarisation est simpliste, voire dangereuse, car il y a un enjeu politique derrière ce débat.
Geoffrey Hinton, un des pères de l’IA moderne, vient de démissionner de Google, rejoignant ainsi le camp des « pessimistes ». Il a récemment déclaré au New York Times qu’il avait changé d’avis sur la question de savoir si l’IA serait plus intelligente que nous et qu’il était désormais inquiet de voir des « superintelligences », aider des dictateurs à manipuler des élections ou des « robots hyperintelligents », créés par Poutine, tuer des Ukrainiens.
Ce propos rejoint celui de la lettre ouverte signée par plus de 1 000 personnalités, dont Elon Musk et Yoshua Bengio, qui demandent une « pause » des recherches sur l’IA, le temps d’élaborer de meilleurs garde-fous pour ces logiciels qui présentent de graves risques pour la société et l’humanité.
Mais les optimistes, représentés par Yann Le Cun, le « Chief AI Scientist » de Meta, la maison mère de Facebook, estiment que l’IA peut être fiabilisée, comme l’avion ou la voiture. Pour eux, ralentir la recherche s’apparenterait même à de « l’obscurantisme » car l’IA « peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières ». Le PDG de Google, Sundar Pichai, se dit également plutôt optimiste.
Certains appellent à une troisième voie, affirmant que la lettre demandant une pause nourrit l’alarmisme autour de l’IA, qui oriente le discours vers les risques liés à de fictifs « esprits numériques puissants » doués d’une « intelligence dépassant celle des humains ». Il y a donc un besoin de nuancer le débat et d’adopter une approche pragmatique pour l’élaboration de garde-fous adaptés aux risques réels de l’IA, sans pour autant entraver sa capacité à apporter un réel progrès.