L’objectif du projet ETHICAA est de définir ce que devrait être un système composé d’un ou plusieurs agents, impliquant des humains, et capable de gérer des conflits éthiques, aussi bien au niveau individuel qu’au niveau collectif.

Les conflits éthiques que nous considérons peuvent survenir :

1) au sein d’un agent,
2) entre un agent et les principes éthiques du système auquel il appartient,
3) entre un agent et un utilisateur ou un opérateur humain,
4) entre plusieurs agents incluant ou non des êtres humains.

 

Les conflits éthiques sont caractérisés par le fait qu’il n’existe pas de « bonne » manière de les résoudre.

Quoi qu’il en soit, les décision doivent être fondées sur l’évaluation des arguments qui les soutiennent et des conséquences qu’elles produisent. Le projet ETHICAA, en produisant des modèles, des méthodes et des outils informatiques, proposera un cadre méthodologique permettant la définition et la gestion d’agents autonomes dotés de comportements éthiques.

Deux domaines : la robotique et la gestion de la vie privée.

Ces deux domaines ont été choisis pour les questions de société qu’ils soulèvent en termes de confiance, d’acceptation et éthique. Dans le domaine de la robotique, le cadre ETHICAA sera utilisé pour gérer les conflits éthiques qui peuvent survenir lors de la coopération entre un agent artificiel et un opérateur humain dans le contexte du contrôle conjoint d’un UAV (Unmanned Air Vehicle).

Dans le domaine de gestion de la vie privée, les conflits éthiques peuvent survenir entre plusieurs agents artificiels et plusieurs utilisateurs humains au sein d’un réseau social où des agents éthiques artificiels contrôlent et gèrent les politiques de vie privées de leurs utilisateurs humains.

Le projet ETHICAA fournira ainsi :

I    — Représentation formelle des principes et des conflits éthiques

II  —  Modèles de raisonnement automatique pour pouvoir les gérer

III — Modèles validés sur ces scénarios issus du monde réel

En conséquence, le résultat de projet ETHICAA est un cadre général pour concevoir des systèmes d’agents artificiels dotés de comportements éthiques, capables de mettre en place des modes de régulation éthiques en fonction du contexte et des conflits éthiques pouvant impliquer d’autres agents artificiels et des êtres humains, quel que soit leur comportement.

Pour plus d’information