NLTO
/ Magazine d'actualité politique, économique et internationale /




L’Intelligence Artificielle pourrait détruire l’humanité selon Stephen Hawking







6 Mai 2014

Le physicien le plus connu de la planète a réellement peur que les recherches sur l’Intelligence Artificielle pourraient conduire à un scénario catastrophe digne d’Hollywood ou, pour être plus traditionnels dans l’histoire de la fiction sur l’IA, d’Isaac Asimov. La raison est aussi simple qu’inquiétante : on fait des recherches dans le domaine sans même se poser la question des conséquences.


(c)Shutterstock/economiematin
(c)Shutterstock/economiematin
C’est dans une tribune publiée jeudi 1er mai 2014 sur le journal The Independent que Stephen Hawking et un groupe d’autres chercheurs ont annoncé la fin du monde. En théorie. Et dire que tout cela partait d’une simple critique de film : « Transcendance » avec Johnny Depp et Morgan Freeman.

En partant du sujet de ce film, qui parle justement d’Intelligence Artificielle, Hawking pose la question : « Sommes-nous en train de prendre l’Intelligence Artificielle au sérieux ? »

Car selon le physicien, si l’IA pourrait être la plus grande avancée technologique et technique de l’histoire de l’humanité, les implications de celle-ci sont infinies et, malheureusement, ne sont pas encore très étudiées. Notamment car même s’il y a des entreprises qui cherchent à créer une véritable IA, comme DeepMind rachetée par Google en début d’année 2014 pour 400 millions d’euros, au niveau académique c’est la possibilité même d’une Intelligence artificielle qui fait débat.

En attendant que l’Intelligence Artificielle soit créée, ou qu’elle soit décrétée comme infaisable, Stephen Hawking et ses compères mettent en garde l’humanité. Car si une IA pourrait arrêter toutes les guerres, résoudre les problèmes de famine ou encore remettre à zéro l’économie mondiale, ce que tout le monde espère, les risques liés à sa création sont potentiellement aussi étendus, si ce n’est plus, que les bénéfices issus de celle-ci.

En fait pour les chercheurs la question est de savoir si on s’est vraiment posé la question « peut-on contrôler une IA ? » Car on peut supposer qu’on peut la contrôler à court terme, mais sur le long terme elle pourrait, c’est d’ailleurs son but premier, devenir totalement autonome et, par-là, incontrôlable.
Et à ce moment-là, qu’est-ce qui pourrait l’empêcher de développer « des armes que nous ne comprendrions même pas » ?