Le physicien Stephen Hawking a averti que de nouvelles technologies vont probablement faire surgir de nouveaux dangers pour la survie de l’espèce humaine.
Lorsqu’on lui a demandé comment la fin du monde surviendrait – « naturellement » ou par la destruction causée par l’humain – M. Hawking a répondu que les menaces pesant sur l’humanité provenaient de plus en plus du progrès effectué par la science et la technologie. Parmi ces menaces, on retrouve la guerre nucléaire, un réchauffement climatique catastrophique et les virus génétiquement modifiés, explique-t-il.
« Toutefois, nous ne serons pas en mesure d’établir des colonies autonomes dans l’espace avant quelques siècles, alors il faut donc faire preuve de beaucoup de prudence durant cette période », a-t-il lancé à la blague, provoquant des rires dans l’assistance.
« Nous n’allons pas arrêter de faire des progrès, ou le renverser, alors nous devons reconnaître les dangers et les contrôler. Je suis un optimiste et je crois que nous pouvons réussir », a-t-il ajouté.
Un des dadas de M. Hawking est d’encourager la création d’intelligence artificielle (IA) compatissante. En juillet 2015, Hawking, Elon Musk et Steve Wozniak ont signé une lettre demandant un moratoire sur les armes autonomes. En octobre, il a répondu aux questions des internautes sur Reddit au sujet des risques liés à l’IA.
« Le but d’IA ne devrait pas être de créer une intelligence artificielle pure non dirigée, mais bien de créer une intelligence bénéfique », a écrit Hawking. « Il faudra peut-être des décennies avant que l’on comprenne comment y arriver, alors commençons la recherche aujourd’hui plutôt que la veille que la première intelligence artificielle solide soit allumée. »
Selon Hawking, l’inquiétude n’est pas qu’un scientifique malveillant conçoive une machine immorale en laboratoire, mais bien qu’une IA conçue pour des fonctions normales ne fonctionne pas bien et finisse par faire du tort à l’humanité indirectement.
« Le vrai danger avec l’IA n’est pas la malice mais la compétence. Une IA super intelligente sera extrêmement efficace pour accomplir ses objectifs, et si ces objectifs ne correspondent pas aux nôtres nous sommes sur les charbons ardents », a écrit Hawking. « Vous ne détestez peut-être pas les fourmis et vous ne les écrasez pas par malice, mais si vous êtes en charge d’un projet hydroélectrique et qu’il y a une colonie de fourmis dans la zone qui doit être inondée, tant pis pour les fourmis. Il ne faut pas mettre l’humanité à la place de ces fourmis. »
Avec des informations de l’Associated Press.
Version originale : New Technology Could Threaten Human Survival, Says Stephen Hawking
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.