Maison / Technologie / Moral Machine apprend comment nous voulons tuer les voitures autonomes

Moral Machine apprend comment nous voulons tuer les voitures autonomes

Bien que les voitures autonomes soient encore confrontées à d’énormes défis techniques avant de devenir banales, les décisions éthiques qu’elles posent représentent un obstacle encore plus important. Les ingénieurs semblent faire des progrès systématiques sur le plan technique, mais la conception d'un cadre permettant de résoudre les problèmes sociaux reste problématique.

Cinq ans après la création de la Machine morale, un quiz en ligne conçu pour jauger les réponses aux décisions auxquelles les voitures autonomes sont confrontées, il existe davantage de discussions sur l'éthique, mais toujours pas de cadre clair pour parvenir à un consensus social autour des problèmes éthiques, selon l'un des co-créateurs du projet, Jean-François Bonnefon, chercheur français à la Toulouse School of Economics et au Intelligence artificielle et naturelle Institut de Toulouse.

«Ce sont des décisions communes que nous devons prendre ensemble en tant que communauté», a-t-il déclaré lors d'une présentation à la conférence Minds & Tech du 9 octobre à Toulouse, en France. «Ces décisions ne peuvent pas être laissées aux constructeurs automobiles. Nous devons concevoir des moyens pour que les gens puissent s'exprimer. ”

Le projet Moral Machine, en collaboration avec le Massachusetts Institute of Technology, a fait sensation l’année dernière quand publié certains de ses premiers résultats dans la revue scientifique La nature. Le site propose une série de compromis, chacun avec quelques options horribles, et demande au spectateur de choisir le choix qu’il choisirait dans la situation donnée.

Moral Machine apprend comment nous voulons tuer les voitures autonomes moralmachinegrab

L'année dernière, le site comptait 40 millions de décisions en dix langues émanant de personnes de 233 pays et territoires. Les résultats fondamentaux semblaient quelque peu surprenants: les gens choisiraient de sauver plus de vies lorsque cela était possible, les enfants plutôt que les adultes et les personnes plutôt que les animaux. Depuis la publication de l'étude, le nombre de réponses a atteint 100 millions.

Moral Machine apprend comment nous voulons tuer les voitures autonomes MM3

Mais concevoir le jeu-questionnaire a nécessité une immense simplification qui ne fait que très peu toucher au nombre apparemment infini de décisions décisives qui vont prendre la vie à laquelle les véhicules autonomes seront confrontés, a déclaré Bonnefon.

«Lorsque vous incluez de plus en plus d’acteurs, vous atteignez un niveau de complexité assez impressionnant», a déclaré Bonnefon. «Il y a 1 million d'options. Comment rédigez-vous un sondage comprenant 1 million d'options? C'est impossible."

La machine morale est donc un substitut instructif, mais imparfait et limité. Oui, les gens veulent enregistrer le plus grand nombre. Mais que se passe-t-il si le plus petit nombre inclut une femme enceinte ou une personne poussant une poussette? À un moment donné, les régulateurs et les ingénieurs chargés de la conception des systèmes décisionnels du véhicule devront s’accorder sur un type de réponse pour programmer les réponses en conséquence.

«C’est une décision terrible», a déclaré Bonnefon. «Je suis sûr que certains d’entre vous ne se sentent pas à l’aise avec l’idée de sauver le plus grand nombre. Lorsque nous compliquons les situations, nous pouvons nous retrouver dans des situations où il n’est pas clair que l’option privilégiée consiste à économiser le plus grand nombre. »

Néanmoins, l'expérience a été un succès dans la mesure où il y a une plus grande conversation mondiale autour de ces questions. Cet été, par exemple, une coalition de 11 constructeurs automobiles a publié un livre blanc intitulé «La sécurité d'abord pour la conduite automatisée» qui propose un cadre pour les normes qui déterminerait si des véhicules autonomes peuvent être considérés comme sûrs.

Moral Machine apprend comment nous voulons tuer les voitures autonomes MM1

Mais Bonnefon souligne que la machine morale n'est pas censée se substituer à la création d'une méthode permettant aux communautés et aux gouvernements de déterminer ce qui est considéré comme socialement acceptable. Il est important que les organismes de réglementation non seulement prennent conscience de la nécessité de prendre en compte les points de vue de la société, mais créent un moyen de véritablement capter ces sentiments de manière significative. Cela implique notamment de répondre aux questions suivantes: qui peut avoir son mot à dire, comment les résultats sont communiqués au public et que faire lorsque ni les experts ni le public ne peuvent proposer un accord clair sur la «bonne» décision.

«Nous avons ces données», a-t-il déclaré. «Maintenant que nous savons, que faisons-nous? Notre intention n’a jamais été de faire de cet exercice un exercice démocratique mondial. Ce serait une idée terrible. Mais les gouvernements doivent savoir ce que les gens n'accepteront pas. "

Source

A propos newstrotteur-fr

Découvrez également

Google modifie les règles pour les publicités politiques en faisant pression sur Facebook 1 google 310x165

Google modifie les règles pour les publicités politiques en faisant pression sur Facebook

Crédit: CC0 Public Domain Le resserrement de la politique publicitaire de Google pourrait aider à …

Laisser un commentaire