Introduction. Revue d'Intelligence Artificielle (RIA) 24(3):263-266 (2010)
Résumé
L'une des particularités des systèmes multiagents est de placer l'autonomie au coeur du comportement des agents et du système lui-même. Les agents ayant différentes tâches à réaliser, selon des contraintes diverses ' par exemple suivre un protocole de négociation, suivre un schéma de coopération pour un partage de tâches avec d'autres agents, avec l'utilisateur ou un opérateur ' il est important de mettre en place des mécanismes de régulation et de contrôle assurant la coopération et la cohérence du fonctionnement global des agents. Les évolutions actuelles dans de multiples domaines (commerce électronique, jeux interactifs, robotique sociale ou collective, intelligence ambiante, etc.) renforcent cette exigence de contrôle et de régulation tout en assurant flexibilité et efficacité pour répondre à l'augmentation de l'hétérogénéité des agents, de l'ouverture et de la dynamicité des applications. À terme, tout un chacun sera en interaction avec des applications, des services informatisés de plus en plus enfouis dans notre quotidien et de plus en plus autonomes. Que faire en effet, lorsqu'un agent génère seul l'intention d'acheter ou de vendre un bien, lorsqu'il transmet ou traite des données personnelles de son utilisateur, lorsqu'il agit dans des systèmes tiers en y consommant des ressources et éventuellement y causant/subissant des dommages ? Les travaux dans le domaine proposent différents modèles, langages et architectures pour définir des droits et des devoirs d'agents autonomes. Ceux-ci se déclinent en organisations, en politiques de conversation, en normes, etc. Il est à noter qu'au-delà de ces productions scientifiques et technologiques, de nouveaux champs de réflexion tant au niveau des usages que du droit ont été également ouverts.