Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
13 janvier 2018 6 13 /01 /janvier /2018 10:46

C’est l’un des cauchemars des ingénieurs de la NASA. L’un de leur rovers à six roues explore la surface de Mars en mode autonome. Soudain, le véhicule se dirige vers la droite, longe une falaise, marque un temps d’arrêt puis se jette dans le vide et s’écrase 400 mètres plus bas. A 70 millions de kilomètres de là, à Houston, les spécialistes de la NASA sont effondrés. Plus rien ne peut sauver une mission qui aura coûté plus d’un milliard de dollars. Le rover, équipé d’un système d’intelligence artificielle, a pris des décisions qu’ils ne peuvent pas expliquer.

La NASA, qui utilise l’intelligence artificielle (IA) tant pour piloter ses robots que pour analyser des millions de photos de l’espace, tente de garder le contrôle de cette technologie. Mais le défi est immense. Et de plus en plus de scientifiques et d’ingénieurs s’alarment: aujourd’hui déjà, il y a un risque que l’IA échappe à leur contrôle. Et que personne ne soit capable d’expliquer comment un système est parvenu à une décision.

 

«On ne parle pas forcément de robots tueurs qui se retourneraient contre les humains et les extermineraient. On parle de technologies qui sont installées dans des voitures, des smartphones ou des ordinateurs. C’est extrêmement concret et il faut s’en préoccuper immédiatement», avertit Rachid Guerraoui, directeur du Laboratoire de programmation distribuée de l’EPFL.

Il y a un mois, le chercheur, avec trois membres de son laboratoire, présentait leur dernière trouvaille à la conférence «Neural Information Processing Systems» de Long Beach, en Californie – la réunion la plus pointue sur l’IA. Devant notamment des ingénieurs de la NASA, ils ont dévoilé une solution pour tenter de garder le contrôle sur cette technologie.

 

Avec un exemple concret : «Prenez une voiture autonome, lance Rachid Guerraoui. Vous lui assignez l’objectif d’atteindre le plus vite possible sa destination tout en respectant les limitations de vitesse. Elle effectuera la tâche demandée en élaborant parfois des stratégies consistant par exemple à se tenir très proche de la voiture derrière elle, empêchant le conducteur de reprendre le contrôle et de ralentir même en cas de neige, sous peine de collision. Nous avons trouvé un moyen pour que la voiture laisse toujours le contrôle à l’humain, sans s’en rendre compte.»

 

Sans s’en rendre compte? Mais pourquoi? «Aujourd’hui déjà, des systèmes d’IA détectent lorsqu’un humain tente de modifier leur comportement et font parfois tout pour rejeter cette intervention et la contourner si elle entre en conflit avec l’objectif initial de l’IA. Il faut agir de manière subtile et rapide pour que l’IA croie qu’elle prend elle-même toutes les décisions. Et ensuite effacer les traces d’intervention humaine», poursuit le professeur.

 

Lire l'article

Partager cet article
Repost0

commentaires