https://doi.org/10.55163/CJFT9557
Traduction Google
Afin d’aider les États impliqués dans le débat politique sur l’intelligence artificielle (IA) militaire, ce document de référence propose un examen plus approfondi de la question des biais dans l’IA militaire. Trois idées se dégagent.
Premièrement, les décideurs politiques pourraient utilement élaborer une approche des biais dans l’IA militaire qui reflète les préoccupations communes concernant l’injustice. Si tel est le cas, l’expression « biais dans l’IA militaire » pourrait être interprétée comme désignant les performances systématiquement biaisées d’un système d’IA militaire qui conduisent à des comportements injustifiablement différents – susceptibles de perpétuer ou d’exacerber des résultats préjudiciables ou discriminatoires – en fonction de caractéristiques sociales telles que la race, le sexe et la classe.
Deuxièmement, parmi les nombreuses sources de biais dans l’IA militaire, trois grandes catégories ressortent : les biais dans la société, les biais dans le traitement des données et le développement des algorithmes, et les biais dans l’utilisation.
Troisièmement, les biais de l’IA militaire peuvent avoir diverses conséquences humanitaires selon le contexte et l’utilisation. Celles-ci vont de l’identification erronée de personnes et d’objets lors des décisions de ciblage à la génération d’évaluations erronées des besoins humanitaires.Table des matières
I. À quoi fait référence l’expression « biais dans l’IA militaire » ?
II. Les sources de biais dans l’IA militaire
III. Les conséquences humanitaires des biais dans l’IA militaire
IV. Conclusions
À PROPOS DES AUTEURS/ÉDITEURS
Le Dr Alexander Blanchard est chercheur principal au sein du programme de gouvernance de l’intelligence artificielle au SIPRI.
Laura Bruun est chercheuse au sein du programme SIPRI Gouvernance de l’intelligence artificielle.