L’intelligence artificielle est souvent appelée IA étroite (ou IA faible), en ce sens qu’elle est conçue pour effectuer une tâche étroite (par exemple, uniquement la reconnaissance faciale, les recherches sur Internet ou uniquement la conduite d’une voiture). Cependant, l’objectif à long terme de nombreux chercheurs est de créer une IA générale (AIG ou IA forte). Alors qu’une IA étroite peut surpasser les humains quelle que soit sa tâche spécifique, comme jouer aux échecs ou résoudre des équations, AGI surpasserait les humains dans presque toutes les tâches cognitives.
Il y a certains chercheurs qui se demandent si une IA forte pourrait être vraiment réalisée, et d’autres qui insistent sur le fait que la création d’une IA superintelligente est garantie d’être bénéfique. Je supporte ces deux possibilités, mais je crois également au potentiel d’un système d’intelligence artificielle de causer intentionnellement ou non intentionnellement de grands dommages. Je suis positif au fait que la recherche d’aujourd’hui devrait nous aider à mieux nous préparer et à prévenir de telles conséquences potentiellement négatives à l’avenir, profitant ainsi des avantages de l’IA tout en évitant les pièges.
La plupart des chercheurs conviennent qu’il est peu probable qu’une IA superintelligente manifeste des émotions humaines comme l’amour ou la haine, et qu’il n’y a aucune raison de s’attendre à ce que l’IA devienne intentionnellement bienveillante ou malveillante. Au lieu de cela, lorsqu’ils envisagent comment l’IA pourrait devenir un risque, les experts pensent que deux scénarios sont les plus probables:
1- L’IA est programmée pour faire quelque chose de dévastateur: les armes autonomes sont des systèmes d’intelligence artificielle qui sont programmés pour tuer. Entre les mains d’une mauvaise personne, ces armes pourraient facilement causer des pertes massives. De plus, une course aux armements contre l’IA pourrait entraîner par inadvertance une guerre contre l’IA qui entraînerait également des pertes massives. Pour éviter d’être contrecarré par l’ennemi, ces armes seraient conçues pour être extrêmement difficiles à «éteindre» simplement, de sorte que les humains pourraient vraisemblablement perdre le contrôle d’une telle situation. Ce risque est présent même avec une IA étroite, mais augmente à mesure que les niveaux d’intelligence et d’autonomie de l’IA augmentent.
2. L’IA est programmée pour faire quelque chose de bénéfique, mais elle développe une méthode destructrice pour atteindre son objectif: cela peut arriver chaque fois que nous ne parvenons pas à aligner pleinement les objectifs de l’IA avec les nôtres. Si vous demandez à une voiture intelligente et obéissante de vous emmener à l’aéroport le plus rapidement possible, cela pourrait vous y faire pourchassé par des policiers et vous faire vomir de peur, ne faisant pas ce que vous vouliez instinctivement, mais littéralement ce que vous avez demandé. Si un système superintelligent est chargé d’un ambitieux projet de géo-ingénierie, il pourrait faire des ravages avec notre écosystème comme un effet secondaire et considérer les tentatives humaines pour l’arrêter comme une menace à affronter.
En somme, comme l’illustrent ces exemples, le souci de l’IA avancée n’est pas la malveillance mais la compétence. Une IA super intelligente sera extrêmement bonne pour atteindre ses objectifs, et si ces objectifs ne sont pas alignés avec les nôtres, nous avons un problème. Humainement parlant, nous voulons éviter de marcher sur les fourmis par malveillance (i.e. respecter l’écologie et la nature), mais si vous êtes en charge d’un projet d’énergie verte hydroélectrique et qu’il y a une fourmilière dans la région à inonder, tant pis pour les fourmis.
L’obectif clé de la recherche, sera sur la sécurité de l’IA, soit de ne jamais mettre l’humanité à la place de ces fourmis.