IA et éthique : découvrez le projet de directives du Pentagone
IA et éthique sont-ils compatibles ? Cette question est on ne peut plus d’actualité. Si les entreprises ont du mal à poser les bases d’une utilisation éthique de l’IA, le département de la Défense Américain souhaite aller de l’avant.
Éliminer les zones d’ombre entre IA et éthique
Le Défense Innovation Board ne souhaite pas laisser de zone d’ombre concernant le thème IA et éthique. Il vient de publier un projet de lignes directrices sur l’éthique de l’IA au sein du département de la Défense.
Certaines d’entre elles sont plus pratiques (telles que l’exigence de fiabilité) ou s’inscrivent dans des politiques vieilles de plusieurs années (exigeant la responsabilité humaine à chaque étape). Cependant, d’autres sont relativement nouvelles pour les sphères publique et privée.
Le projet IA et éthique exige une intelligence artificielle équitable qui évite les « biais involontaires » dans des algorithmes tels que le racisme ou le sexisme. Selon Amnesty International, les personnes pourraient être traitées «injustement» ; même si elles ne sont pas nécessairement en situation de vie ou de mort.
Les données aussi doivent être neutres
La commission a demandé à l’armée de s’assurer que ses sources de données étaient neutres, pas seulement le code lui-même. Les biais pourraient être utiles pour cibler des combattants clés ou réduire le nombre de victimes civiles ; mais pas dans certaines situations.
Aussi, les documents font également appel à une IA « gouvernable » qui peut s’arrêter si elle détecte qu’elle est sur le point de causer des dommages inutiles et s’arrête elle-même à temps ; ou passe à un opérateur humain. Cela ne donnerait pas le feu vert à des armes entièrement automatisées, mais cela réduirait les risques d’infiltration de l’IA. En conséquence, le projet inclut un appel à une sortie AI « traçable » qui permet aux gens de voir comment un système parvient à sa conclusion.
Enfin, bien que le projet soit prometteur, sa mise en œuvre reste un défi. Il est facile de promettre une IA plus responsable et digne de confiance. C’est une autre chose de faire en sorte que chaque branche militaire suive ces idéaux pour chaque projet. Cependant, comme l’a observé Défense One, le Département peut avoir un avantage sur les entreprises de technologie en ce sens qu’il commence par une page relativement vierge. Il n’est pas obligé de faire des exceptions pour les projets d’IA actuels ou de repenser sa stratégie existante – les directives devraient être là dès le premier jour.
Commentaires
Laisser un commentaire