Des chercheurs dans le domaine de l’intelligence artificielle ont publié le lundi 21 août une lettre ouverte pour alerter l’ONU sur les risques liés aux « systèmes d’armes létales autonomes » (SALA), bref, des robots tueurs.
Depuis quelques années, les progrès dans la recherche sur l’intelligence artificielle ont conduit au développement de robots à usage militaire, capables de tirer sans intervention humaine. Les 116 signataires de cette lettre, pour la plupart des dirigeants d’entreprise dans le domaine de l’I.A., s’inquiètent des dérives que pourrait engendrer l’utilisation des futurs « robots tueurs ».
Et si ces armes létales ont fait leur entrée dans l’espace militaire de nos jours, pourrait-on garantir qu’en dehors des champs de bataille, d’autres victimes de conflits, à savoir, les réfugiés qui fuient la guerre, resteront à l’abri des tirs de robots tueurs ?
« Une fois la boîte de Pandore ouverte, il sera difficile de la refermer. »
Avec les médias