Le robot moral reste à créer



Mercredi 19 Novembre 2014

Lors d’une expérience, des scientifiques ont demandé à un robot de choisir entre deux humains, lequel il devait sauver. Las, le « bot » est resté, au mieux, prostré, incapable de prendre une décision. Le robot moral, ou capable de faire des choix éthiques reste à créer.


Le robot moral reste à créer
D’un côté, nous avons un objectif, le point B. De l’autre, un robot placé face à un trou. C’est simple à comprendre, et c’est sa première option : s’il fait un pas, il tombe dedans. En second lieu, il peut se tourner vers la gauche afin d'atteindre son but. Se faisant, il contourne le trou, et sera sain et sauf. Parce que l’homme est tordu, il a imaginé, en la personne d’Alan Winfield, un chercheur du laboratoire de robotique de Bristol en Grande-Bretagne, avec des collègues berlinois, de placer son robot dans une situation compliquée : s’il se tourne et part à droite, il n’a d’autre option que de se heurter à H1, un robot représentant un humain. Le robot, un e-puck reprogrammable, se positionne devant le trou et évite à H1 de tomber dedans. Normal, l’e-puck a été programmé pour sauver un humain, même si pour se faire, une collision doit se produire...
 
Dans ce cas, l’homme est sauvé et le sauveur n’est autre que le robot. Pourtant, il n’est pas nécessaire de crier victoire trop vite. En effet, dans un autre cas de figure, cornélien, et comme les chercheurs sont vraiment « tordus », ils ont imaginé une situation qui s’est avérée ingérable pour le robot : sur son chemin, les scientifiques ont placé deux robots sensés représenter des humains, H1 et H2. Sur 33 tentatives, l'e-puck, a réussi plusieurs fois à sauver un des robots humains (16 fois), et plus rarement les deux (3 fois).

En revanche, dans 14 cas sur 33, le robot a hésité. H1 et H2 sont aussi versatiles que des humains. Durant les tests, ils n'ont pas arrêté de changer leurs coordonnées en se déplaçant. Résultat, l'e-puck en perdait son latin : « il ne parvenait plus à décider lequel était le plus en danger », rapporte le Figaro.fr. Un vrai dilemme pour l'e-puck qui n’a cessé d’avancer, de reculer, de s’approcher de H1, puis de le délaisser pour revenir vers H2 et vice-versa. Le temps de la décision et voilà H1 e H2 au bord du précipice…

Et là, que se passe t-il ? L’e-puck les laisse tomber tous les deux. Il rejoint sans plus s’en soucier, son point B de l’autre côté du trou. Est-ce qu'il se demande : « Foutus pour foutus, je lâche l'affaire ? » L’histoire ne le dit pas. Mais ce qu'elle dit est ceci : au jour d'aujourd'hui, prendre des décisions éthiques est infaisable pour les robots. Pour cela, il faudrait pouvoir qualifier et hiérarchiser la valeur « éthique » de chaque action, de chaque situation, de chaque personne. Il y a encore du pain sur la planche.

Le robot moral reste à créer

Notez




News les plus populaires