Vous avez forcément entendu parler du débat qui agite la communauté de l’IA autour de la sécurité de l’IA. Pour certains experts, il existe un réel risque existentiel pour l’humanité : même si on ne sait pas forcément écrire le scénario de l’apocalypse, la simple existence d’une super-intelligence dont le contrôle pourrait échapper à ses créateurs serait un risque inacceptable. Certains de ces experts ont appelé, pendant un temps, à un moratoire sur l’IA ; le plus célèbre d’eux, Eliezer Yudkowsky, expliquait même en 2023 qu’on devrait être prêt à déclencher une guerre nucléaire pour faire appliquer ce moratoire ! [...]