© Fotolia | Mopic
Les progrès de l’intelligence artificielle (IA) ont permis de
nombreuses avancées et celles à venir ne manquent pas d’intérêt,
promettant notamment la mise au point d’une voiture automatisée, telle
que celle testée par Google dans plusieurs villes des États-Unis. Dans
une tribune publiée dans The Independent, le physicien Stephen Hawking alerte pourtant sur ses dangers.
« Réussir à créer une intelligence artificielle pourrait être le plus grand événement de l’histoire de l’humanité », écrit-il, mais « cela pourrait être le dernier, si nous n’apprenons pas à éviter les risques ».
Comme dans les pires scénarios de fiction, le physicien imagine que la machine se mette à « déjouer les marchés financiers, à créer de meilleures inventions que les chercheurs eux-mêmes » pour parvenir à « manipuler les dirigeants » et pourquoi pas « développer des armes que l’on ne pourrait pas comprendre ».
Quand la fiction rejoint la réalité
Stephen Hawking souligne en outre que « l’incidence à court terme
de l’intelligence artificielle dépend de qui la contrôle, mais que
l’impact à long terme dépend de la possibilité réelle de la contrôler ».
Pour lui, il n’y a pas réellement de recherche sérieuse menée
actuellement sur ces questions, alors que les conséquences peuvent être
lourdes. Pour illustrer ses propos, le scientifique cite le film Transcendence, mettant aux prises Johnny Depp et Morgan Freeman, dans lequel une IA devient incontrôlable.
Plus récemment, on peut citer le film Her évoquant les potentielles dérives de l’IA dans la société. De là ce que la fiction devienne réalité…