Jugement éthique dans le processus de décision d'un agent BDI
Abstract
L’usage croissant des systèmes multi-agents dans divers domaines soulève la nécessité de concevoir des agents capables de prendre des décisions s’appuyant sur des principes éthiques. De plus en plus de travaux proposent de telles approches. Toutefois, ces systèmes considèrent principalement une perspective centrée sur l’agent et mettent de côté le fait que ces agents sont en interaction avec d’autres agents, artificiels ou humains, qui utilisent d’autres concepts éthiques. Dans cet article, nous nous intéressons à ce problème en proposant un modèle de jugement éthique qu’un agent peut utiliser pour juger à la fois des décisions sur son propre comportement et du comportement de celui des autres agents au sein de systèmes multiagents. Ce modèle est basé sur une approche rationaliste et explicite qui distingue théorie du bien et théorie du juste. Une preuve de concept implémentée au sein de la plateforme de programmation orientée multi-agent JaCaMo illustre ces fonctionnalités.