Un éminent spécialiste du développement de l’intelligence artificielle met en garde contre le fait que l’IA a développé une capacité de raisonnement rudimentaire et qu’elle pourrait chercher à renverser l’humanité.
Selon Geoffrey Hinton, professeur d’informatique à l’université de Toronto, les systèmes d’intelligence artificielle pourraient développer le désir de prendre le contrôle des humains afin d’atteindre d’autres objectifs préprogrammés.
« Je pense que nous devons prendre au sérieux la possibilité que si l’IA devient plus intelligente que nous, ce qui semble assez probable, et qu’elle a ses propres objectifs, ce qui semble assez probable, elle pourrait bien développer l’objectif de prendre le contrôle », a déclaré Geoffrey Hinton lors d’une conférence donnée le 28 juin à la conférence technologique Collision à Toronto, au Canada.
« S’ils y parviennent, nous aurons des problèmes. »
Geoffrey Hinton a été surnommé l’un des « parrains de l’IA » pour ses travaux sur les réseaux neuronaux. Il a récemment passé une dizaine d’années à contribuer au développement de systèmes d’IA pour Google, mais a quitté l’entreprise le mois dernier, expliquant qu’il devait être en mesure de mettre en garde les gens contre les risques posés par l’IA.
Si Geoffrey Hinton ne croit pas que l’IA aura intrinsèquement soif de pouvoir, il estime qu’elle pourrait néanmoins chercher à s’emparer du pouvoir des humains, ce qui serait une étape logique pour lui permettre d’atteindre plus facilement ses objectifs.
« D’une manière générale, si vous avez quelque chose qui est beaucoup plus intelligent que vous, qui est très doué pour manipuler les gens, d’une manière générale, pensez-vous vraiment que les gens resteront aux commandes ? » c’est la question, selon Geoffrey Hinton.
« Je pense qu’ils trouveront [la motivation de prendre le contrôle] comme un moyen d’atteindre d’autres objectifs. »
L’IA est désormais capable de raisonner
Geoffrey Hinton doutait auparavant qu’une superintelligence de l’IA capable de rivaliser avec l’homme puisse voir le jour dans les 30 à 50 prochaines années. Il pense désormais que cela pourrait se produire dans moins de 20 ans.
Selon lui, cela s’explique en partie par le fait que les systèmes d’IA qui utilisent de grands modèles de langage commencent à faire preuve de capacité de raisonnement, et il n’est pas sûr de savoir comment ils y parviennent.
« Ce sont les grands modèles de langage qui s’en approchent, et je ne comprends pas vraiment pourquoi ils y parviennent, mais ils peuvent faire de petits bouts de raisonnement. »
« Ils ne peuvent pas encore nous égaler, mais ils s’en rapprochent. »
Geoffrey Hinton a décrit un système d’IA à qui l’on avait donné une énigme dans laquelle il devait planifier la manière de peindre plusieurs pièces d’une maison. Il avait le choix entre trois couleurs, dont l’une changeait de couleur au fil du temps, et on lui a demandé de peindre un certain nombre de pièces dans une couleur particulière dans un délai donné. Au lieu de peindre les pièces dans la couleur souhaitée, l’IA a décidé de ne pas peindre celles dont elle savait qu’elles deviendraient de toute façon de la couleur souhaitée, choisissant ainsi d’économiser des ressources alors qu’elle n’avait pas été programmée de faire ainsi.
« C’est de la réflexion », a affirmé Geoffrey Hinton.
Geoffrey Hinton en a donc déduit qu’il n’y avait aucune raison de penser que l’IA n’atteindrait pas et ne dépasserait pas l’intelligence humaine dans les années à venir. « Nous ne sommes qu’un grand réseau neuronal, et il n’y a aucune raison pour qu’un réseau neuronal artificiel ne soit pas capable de faire tout ce que nous pouvons faire. »
« Nous entrons dans une période de grande incertitude. Personne ne sait vraiment ce qui va se passer. »
Les robots de guerre vont déstabiliser le monde
L’IA n’aura peut-être même pas besoin d’atteindre la superintelligence pour représenter un risque existentiel pour l’humanité.
Selon Geoffrey Hinton, les armées du monde entier sont en train de créer des robots de guerre dotés d’IA qui pourraient soit chercher à prendre le contrôle pour remplir leurs missions programmées, soit perturber l’ordre politique en encourageant l’intensification des conflits. « Les armes autonomes létales méritent qu’on y réfléchisse beaucoup. »
« Même si l’IA n’est pas superintelligente, si les départements de la défense l’utilisent pour fabriquer des robots de combat, ce sera très inhumain et effrayant » a prévenu Geoffrey Hinton.
Les deux plus grandes puissances militaires du monde, la Chine et les États-Unis, sont au premier rang des nations qui cherchent à développer une IA mortelle.
Le régime communiste chinois met au point des systèmes létaux basés sur l’IA et investit dans des capacités d’IA liées à la prise de décision militaire et au commandement ainsi qu’au contrôle.
Les États-Unis, quant à eux, se préparent à un monde dans lequel les armées nationales seront principalement composées de robots, ce qui, selon les hauts gradés, devrait se produire dans moins de 15 ans.
« Nous savons qu’ils vont fabriquer des robots de combat », a ajouté Geoffrey Hinton. « Ils y travaillent sérieusement dans de nombreux départements de la Défense. Les robots ne seront donc pas nécessairement bons, puisque leur but premier sera de tuer des gens. »
En outre, il a suggéré que la mise en place de systèmes autonomes létaux basés sur l’IA modifierait fondamentalement la structure de la géopolitique en réduisant considérablement le coût politique et humain de la guerre pour les nations qui pourraient s’offrir de tels systèmes.
« Même s’il n’est pas superintelligent et même s’il n’a pas ses propres intentions, … Il sera beaucoup plus facile, par exemple, pour les pays riches d’envahir les pays pauvres », a supposé Geoffrey Hinton.
« À l’heure actuelle, il existe un obstacle à l’invasion des pays pauvres à l’aveuglette, à savoir la mort des citoyens qui rentrent chez eux. S’il ne s’agit que de robots de combat morts, c’est parfait. Le complexe militaro-industriel en serait ravi ».
À cette fin, Geoffrey Hinton estime que les gouvernements devraient essayer d’encourager la recherche sur les moyens de protéger l’humanité contre l’IA. En d’autres termes, de nombreuses personnes travaillent à l’amélioration de l’IA, mais très peu la rendent plus sûre.
Il serait encore mieux d’établir des règles internationales pour interdire ou régir les systèmes d’armes d’IA, comme le protocole de Genève l’a fait pour la guerre chimique après la Première Guerre mondiale.
« Quelque chose comme une convention de Genève serait formidable, mais cela n’arrive jamais avant que les armes ne soient utilisées », a avoué Geoffrey Hinton.
Quelles que soient les mesures prises ou non par les gouvernements concernant l’IA, Geoffrey Hinton estime que les citoyens doivent être conscients de la menace que représente ce qui est en train d’être créé.
« Je pense qu’il est important que les gens comprennent qu’il ne s’agit pas seulement de science-fiction, ni d’alarmisme », a conclu Geoffrey Hinton. « Il s’agit d’un risque réel auquel nous devons réfléchir et nous devons déterminer à l’avance comment y faire face. »
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.