C'est un dilemme désormais célèbre : dans un tramway lancé à pleine vitesse en direction d'un groupe de passants, est-il acceptable moralement de détourner ce tramway pour qu'il tue moins d'individus ? Cette expérience de pensée prend aujourd'hui de nouvelles proportions avec l'arrivée (très) progressive d'entités autonomes. Dès lors, comment faire pour “inculquer” à nos voitures, avions ou robots-flics du futur des impératifs éthiques a priori, avant même de les mettre sur le marché ? Et ces impératifs peuvent-ils avoir une quelconque valeur universelle ?