Le patron d'OpenAI a récemment accordé une interview à The Advocate, dans laquelle il a révélé sa position sur ce qu'il pense de l'intelligence artificielle. Selon lui, l’intelligence artificielle doit être traitée simplement comme un autre outil informatique, et non comme une « essence » comme le font certains.
Quoi qu’il en soit, Altman affirme que l’intelligence artificielle comporte un risque sérieux d’échapper au contrôle humain. Liter OpenAI a déclaré il y a quelques années (en 2015, c'est-à-dire à l'époque où il n'y avait pas autant d'entreprises d'intelligence artificielle opérant dans le monde qu'aujourd'hui) qu'il était très probable que l'IA conduise à un moment donné à la fin du monde.
Il semble qu'après de nombreuses années, il n'ait pas changé sa position sur cette question, car à la fin de l'année dernière, lui et plusieurs centaines de scientifiques travaillant dans le domaine de l'intelligence artificielle ont signé une lettre signée par le Center for AI Safety, dans laquelle ils mettent en garde contre des risques tels que comme défini les « extinctions » de notre civilisation provoquées par l’intelligence artificielle.
Des efforts devraient donc être déployés pour réduire le risque qu’un tel scénario se produise. Cela devrait être une priorité mondiale pour l’humanité, car l’IA est aussi dangereuse que d’autres choses qui nous menacent, comme les pandémies ou le risque de guerre nucléaire. Cependant, malgré ce ton alarmiste, les récentes déclarations d’Altman sont plus optimistes quant aux menaces posées par l’IA.
C'est ce que suggère, par exemple, l'une de ses déclarations, dans laquelle il déclare : « Je trouve formidable que de nombreuses solutions d'IA récemment présentées par des entreprises travaillant avec cette technologie ressemblent à des outils normaux. D’où la conclusion qu’il ne faut pas paniquer. Si nous donnons aux gens de meilleurs outils, ils réaliseront des choses incroyables et créeront des solutions encore plus étonnantes et un avenir meilleur pour nous tous.