L’IA ne peut porter atteinte à l’humain si l’on suit les lois éthiques de la robotique. En revanche, elle pourrait être amenée à prévaloir une vie sur une autre dans certains cas, comme celui de l’autonomisation des voitures. Ainsi, un métaprincipe éthique de base devrait être établi par l’humain pour répondre à la place de l’IA.
Si vous aviez le choix, risqueriez-vous votre propre vie au volant d’une voiture pour sauver un groupe de piétons ? Et s’il s’agit d’une classe de maternelle, d’handicapés, de plusieurs chiens ou de sans-abri, votre réponse serait-elle différente ? C’est ce genre de questions que pose « Moral Machine », un jeu développé par des chercheurs du MIT au sujet du comportement des voitures autonomes.
Bien que les tests aient conduit à établir un consensus évident (sauver le plus grand nombre, privilégier les jeunes avant les personnes âgées, les humains devant les animaux, etc.), les réponses ne varient non pas en fonction de l’âge ou du sexe, mais de l’origine géographique. Le statut social peut lui jouer un rôle dans certaines régions du monde. Si l’on devait appliquer une loi en conséquence, on se retrouverait donc avec des législations totalement différentes dans le domaine public (d’un pays à l’autre) et privé (d’un constructeur à l’autre). Il faut alors se poser la question de la responsabilité juridique : tuer même pour sauver le plus grand nombre n’est pas sans conséquence. Ainsi, si l’État ou le constructeur a un droit de regard sur les principes éthiques de base, doit-il être tenu pour responsable en cas d’accidents ? Il y a encore quelques mois, une voiture semi-autonome avait renversé une femme parce que l’algorithme l’avait confondu avec le vélo qu’elle poussait devant elle. L’erreur est en effet toujours possible, même avec l’IA…
Cependant rassurez-vous, vous ne vous poserez probablement jamais une question telle que : « Dois-je plutôt écraser le couple de sportifs ou la femme enceinte ? » dans une situation réelle. En effet, lors d’un accident, un être humain a rarement plus d’une fraction de seconde pour prendre une décision, alors qu’une machine, elle, a la capacité de faire un choix moral grâce à ses puissants et rapides processeurs. Un choix qui ne peut pas être pris par une machine sans que nous l’ayons décidé au préalable.
Stéphane SON A.