Je pense avoir évité ce sujet assez longtemps. Les types de questions auxquelles l'industrie est souvent confrontée sont :Comment le véhicule décidera-t-il qui tuer :le conducteur ou d'autres personnes ? Et le véhicule aura-t-il les connaissances nécessaires pour décider quelles vies de personnes ont le plus de valeur ? Le véhicule doit-il viser le cycliste avec casque (qui est protégé) au lieu du cycliste sans casque ? À ce jour, l'Allemagne est la seule agence gouvernementale à avoir pris position sur ce sujet. Comme indiqué dans cet article, le ministre des Transports du pays a défini trois règles comme point de départ pour les futures lois :
Fait intéressant, les constructeurs automobiles et les développeurs de technologies sont plutôt silencieux sur cette question. Je ne suis pas surpris. Je crois que les médias et les universitaires en font un problème beaucoup plus vaste qu'il ne l'est en réalité (voir quelques exemples de battage médiatique ici, ici et ici). À quand remonte la dernière fois où vous étiez au volant où vous avez été confronté à la décision de vous tuer plutôt que quelqu'un d'autre ? Et, si vous faites partie du tout petit groupe confronté à cette situation, comment avez-vous pris la décision ? Était-il même temps de prendre une décision ?
Le MIT a développé une machine morale pour recueillir une "perspective humaine sur les décisions morales prises par l'intelligence artificielle, telles que les voitures autonomes". La réalité est que les développeurs travaillant sur les véhicules sans conducteur affinent la technologie pour faire face aux piétons, aux cyclistes, aux intempéries, aux mauvais marquages de chaussée et aux chantiers de construction…. Bien que ces défis soient quotidiens, notre société a beaucoup mis l'accent sur les décisions morales... est-ce nécessaire ?