RÉPUBLIQUE ALGÉRIENNE DÉMOCRATIQUE ET POPULAIRE

MINISTÈRE DE L’ENSEIGNEMENT SUPÉRIEUR ET DE LA

RECHERCHE SCIENTIFIQUE

 

 

U.S.T.H.B

RAPPORT DU MINI PROJET

Thème

LA PLANIFICATION DE PROCESSUS D’USINAGE

DANS UN ATELIER

INTELLIGENCE ARTIFICIELLE

LES SYSTÈMES MULTI-AGENTS : ÉTAT DE L’ART

 

 

 

 

 

 

Encadré par : S. HAMDAN

Réalisée par l’étudiant : A. MOUSSAOUI

Promotion ingénieur : 1999-2000

 

 

 

 

 

 

RESUME

A l’origine, l’objectif de l’intelligence artificielle est la modélisation de l’ètre humain dans l’accomplissement de taches complexes .Après le succès des premiers systèmes expert, les application industrielles de grande envergure , requérant à la fois une grande quantité de connaissances et des expertises multiples , ont très vite en évidence les limites de l’intelligence artificielle classique . Les chercheurs ont alors pensé , pour pallier ces difficultés , à passer de la métaphore du penseur unique , à celle d’une société d’experts humains. Ceci a donné naissance à un nouveau paradigme , celui de l’intelligence artificielle distribuée. Après une introduction à ce paradigme, nous présentons une de ces branches , en l’occurrence les systèmes multi-agents .Les systèmes multi-agents sont l’une des branches les plus prometteuses de l’I.A.D . Ils présentent un grand intérêt pour les applications où les connaissances et le contrôle sont naturellement distribués. L’objet de ce travail est de présenter les concept de base des systèmes multi-agents . Nous décrivons trois modèles de systèmes multi-agents : les tableaux noirs, les acteurs et les systèmes physiquement distribués. L’étude des systèmes multi-agents permet de distinguer deux grandes écoles de pensée : l’école cognitive (agents cognitifs) et l’école réactive (les agents réactifs). Les caractéristiques fondamentales de ces deux écoles sont décrites .

 

 

 

TABLE DES MATIERES

INTRODUCTION GENERALE :

  1. L’INTELLIGENCE ARTIFICIELLE DISTIBUEE .
  2. 1-1 : Définition .

    1-2 : Les branches de L’I.A .

  3. LES SYSTEMES MULTI-AGENTS .

2-1 : Définition .

2-2 : Domaines d’applications .

CHAPITRE 1 : LES CONCEPTS DE BASE DES SYSTEMES

MULTI-AGENTS

INTRODUCTION .

  1. MODELE DE L’AGENT .

    1. : Agents cognitifs (école cognitive) .
    2.  : Agents réactifs (école réactive) .
    3.  : Etude comparative .

2- MODELES DE SYSTEMES MULTI-AGENTS .

2-1 : Les systèmes à tableau noir .

- Avantages.

- Inconvénients .

2-2 : Les systèmes d’acteurs .

2-3 : Les systèmes physiquement distribués .

2-4 : Tableau comparatif .

 

CHAPITRE 2 : LE CONTROLE DANS LES SYSTEMES A

TABLEAU NOIR & D’ACTEURS .

1- INTRODUCTION .

2- PROBLEME DU CONTROLE .

3- CONTROLE DANS LES SYSTEMES A TABLEAU NOIR .

3-1 : Le contrôle procédural .

3-2 : Le contrôle hiérarchique .

3-3 : Le contrôle à base de tableau noir .

4- CONTROLE DANS LES SYSTEMES D’ACTEURS .

4-1 : Le cycle de base du mécanisme de contrôle .

CHAPITRE 3 : LA COMMUNICATION ET LA COOPERATION

DANS LES SYSTEMES MULTI-AGENTS

A- LA COMMUNICATION :

A-1 : Définition .

A-2 : Modèle de communication .

A-2-1 : Communication par partage d’informations.

A-2-2 : Communication par envoi de messages .

B- LA COOPERATION :

B-1 : Définition .

B-2 : Modèles de coopération .

- Cas où il existe une hiérarchie entre les agents :

B-2-1 : Le mode " COMMANDE ".

B-2-2 : Le mode " APPEL D’OFFRES ".

B-2-3 : Le mode " COMPETITION ".

B-3 : Les approches de coopération

B-3-1 : La planification .

B-3-2 : La négociation.

CHAPITRE 4 : EXEMPLE D’APPLICATION .

 

 

 

 

INTRODUCTION GENERALE

L’intelligence artificielle , discipline scientifique en pleine effervescence , a vue le jour il y’ a plus d’une trentaine d’années Elle s’est fixée comme objectif la résolution des problèmes et des taches complexes en simulant et en reproduisant le raisonnement d’un être humain (FAR 1987) . Après le succès des premiers systèmes experts qui s’appuient sur une centralisation de l’expertise au sein d’un système unique , les applications industrielles de grande envergure , requérant à la fois une grande quantité de connaissances et des expertises multiples, ont très vite mis en évidence les limites de l’intelligence artificielle classique. Les chercheurs ont alors pensé, pour pallier ces difficultés, à passer de la métaphore du penseur unique à celle multi- experts (GLE & GLI 1990).

Cette nouvelle façon de penser constitue le fondement d’un nouveau paradigme : celui d’une société d’experts humains permettant de faire cohabiter des expertises multiples . On parle alors de systèmes de l’intelligence artificielle distribuée (I.A.D ) . L’I.A.D permet donc de surmonter les difficultés d’un système intelligent unique en distribuant l’expertise au sein d’une société de systèmes intelligents , au même titre que les êtres humains accomplissant collectivement des taches complexes qu’ils ne peuvent accomplir individuellement. L’intelligence, dans ce cas, est vue comme la capacité d’un groupe d’experts à collaborer et coordonner leurs actions pour arriver à accomplir leurs objectifs aussi bien individuels que collectifs .

1- L’INTELLIGENCE ARTIFICIELLE DISTIBUEE :

L’évolution des domaines d’application de l’I.A. pour recouvrir des domaines complexes hétérogènes, tels que l’aide à la décision , la reconnaissances et la compréhension des formes, la conduite de processus industriels, le contrôle de trafic ferroviaire ou routier, a montré les limites de l’I.A. classique à résoudre un certain nombre de problèmes (ERC & FER 91)

    1. Définition : L’I.A.D est une branche de l’I.A. qui s’intéresse à la modélisation de comportement intelligent par la coopération d’un ensemble d’entités autonomes ( ou semi- autonomes), qui interagissent entre elles et avec leur environnement (GAS 92)
    2. Les branches de l’I.A. : L’I.A.D recouvre en réalité trois axes fondamentaux de recherche (figure 1 ) (LAB & LEJ 93)

 

 

 

 

Figure 1 

2- LES SYSTEMES MULTI-AGENTS :

2-1 : Définition : Les systèmes multi-agents sont l’une des branches les plus prometteuses de l’I.A. . Selon FERBER & GHALLAB (1988) : Un système multi-agents est un communauté d’agents autonomes travaillant en commun , selon des modes parfois complexes de coopération, conflit, concurrence, pour aboutir à un objectif global : la résolution d’un problème, l’établissement d’un diagnostic .

2-2 : Domaines d’applications : Les systèmes multi-agents connaissant une grande expansion . Ils ont touché une grande variété de domaines d’applications tels que :

CHAPITRE 1 : LES CONCEPTS DE BASE DES SYSTEMES MULTI-

AGENTS

INTRODUCTION : Le principe des systèmes multi-agents est de partager et distribuer entre plusieurs entités appelées " agents " l’ensemble des connaissances et la capacité du raisonnement que possède un système intelligent . Chacun de ces agents est spécialisé dans un sous-domaine du domaine de départ.(LAB & LEJ 93)(DEM & MUL 90).

1- MODELE DE L’AGENT : Selon (FEBER & GHALLAB 89) :

On appelle agent une entité réelle ou abstraite qui est capable d’agir sur elle même et son environnement. Elle dispose d’une représentation partielle de cet environnement ; qui, dans un univers multi-agents, peut communiquer avec d’autres agents, et dont le comportement est la conséquence de ses observation, de sa connaissance et des interactions avec les autres agents .

Dans un univers multi-agents, nous distinguons deux types d’agents : agents cognitifs (école cognitive ou sociale), et agents réactifs (école réactive ou biologique ).

 

1-1 AGENTS COGNITIFS (école cognitive) :

Les systèmes cognitifs comprennent un petit nombre de connaissances, d’une aptitude à traiter des informations diverses liées au domaine d’application, et d’informations relatives à la gestion des interactions avec les autres agents et l’environnement .

Chaque agent est assimilable, suivant le niveau de ses capacités , à un système expert plus ou moins sophistiqué .

1-1-1 Caractéristiques de l’agent cognitif : L’agent cognitif présente les caractéristiques suivantes (DEM & MUL 90) (LAB & LEJ 93) (KHO 94)

- Intentionnalité :l’intention d’un agent est construite en de ses croyances sur le monde.

D’après Searl : une intention est la déclaration explicite des buts et des moyens d’y parvenir. Elle exprime la volonté d’un agent d’atteindre un but ou d’effectuer une action.

- Rationalité  : un agent rationnel dispose de moyens de contrôle lui donnant les possibilités de planification et de suivi des taches internes (demande d’une information, mise à jour de sa base de connaissances), et des taches externes (demande d’information à un autre agent, etc. )

- Engagement : la notion d’engagement est l’une des qualités essentielles des agents coopératifs. Un agent coopératif planifie ses actions par coordination et négociation avec les autres agents.

1-1-2 Structure de l’agent :L’architecture d’un agent cognitif distingue essentiellement (figure 2 ) : les connaissances de soi et des autres, l’expertise du domaine, les connaissances de communication et de coordination (CAR 84) (BAU 92)

 

 

Evénement

 

 

 

1-1-3 : Fonctionnement de l’agent :

Un agent a la possibilité d’acquérir des connaissances sur l’environnement externe(perception) . Il a aussi des capacités d’interaction avec les autres agents (communication). En fonction des connaissances et des croyances dont il dispose , et des buts qu’il se fixe suite à une perception ou à une interaction avec le monde extérieur , l’agent doit élaborer un plan d’action. Pour cela, il doit décider du but à retenir et à satisfaire en premier, planifier en fonction de ce but et passer à l’exécution. Ces deux derniers processus doivent être alternés du fait du caractère dynamique des environnements multi-agents.

1-2 AGENTS REACTIFS (école réactive) :

L’école réactive en revanche (DEM & MUL 91) (KHO 94) (FER 95), présuppose qu’il n’est pas nécessaire à chaque agent d’être individuellement "intelligent " pour parvenir à un comportement global intelligent. Des mécanismes de réaction aux événements, ne prenant en compte ni une explication des buts, ni des mécanismes de planification, peuvent par effet secondaire, faire émerger des comportements correspondant à l’objectif poursuivi. Un agent réactif est donc un agent très simple de faible granularité ne possédant pas de représentation explicite de son environnement, et dont le comportement est primitif et ne consiste en général qu’à répondre à la loi stimulus/action. Ils ne disposent que d’un langage et d’un protocole de communication réduits.

1-2-1 Structure de l’agent :

Un agent réactif peut être modélisé par un simple objet doté d’un comportement et d’un moyen de communication avec les autres agents. Il n’a pas de connaissance sur les autres, de capacité de raisonner sur les messages qu’il reçoit, ou de développer des stratégies de contrôle.(CAR 84) (DEM & MUL 91).

Un agent réactif est plutôt centré comportement que connaissance. Contrairement aux approches cognitives, les connaissances sur les accointances s’expriment plus par des relations de dépendance entre agents, que par une représentation explicite des compétences et des rôles des autres agents.

    1. ETUDE COMPARATIVE :

Le tableau ci-dessus résume les différences entre les agents cognitifs et réactifs (LAB & LEJ 93). C’est l’école cognitive qui, jusqu’à maintenant, a donné lieu aux applications les plus avancées.

AGENTS COGNITIFS

AGENTS REACTIFS

Représentation explicite de l’environnement

Pas représentation explicite

Peut tenir compte de son passé

Pas de mémoire de son historique

Agents complexes

Fonctionnement stimulus/réponse

Petit nombre d’agents de forte granularité

Grand nombre d’agents de faible granularité

2- MODELES DE SYSTEMES MULTI-AGENTS :

Nous distinguons trois classes de systèmes multi-agents (FER 89)(HAT 91)(KHO 94)

Systèmes à tableau noir, systèmes d’acteurs et les systèmes physiquement distribués.

2-1 :LES SYSTEMES A TABLEAUX NOIRS :

Le modèle de tableau noir :

Dans un système à tableau noir, appelés aussi sources de connaissances, sont des modules interdépendants renfermant chacune une partie de la connaissance du domaine d’application traité. Un agent, dans de tels systèmes, n’a connaissance ni du problème complet, ni de l’état global de la solution. Il réagit uniquement auxquelles il a accès et ne peut pas raisonner sur sa coopération avec les autres. La communication entre ces différents agents se fait à travers une zone de données commune, appelée tableau noir.

Ainsi le système de contrôle est centralisé. Le modèle du tableau noir résout les problèmes d’une façon incrémentale et opportuniste.

 

 

Tout système basé sur le modèle de tableau noir est composé de trois éléments (HAY 85)(ENG 88)(FER 89)(HAT 91) (figure ) : les sources de connaissances (agents), le tableau noir et le mécanisme de contrôle.

Tableau noir Sources de connaissance (Sci)

Données

Contrôle

 

 

 

 

AVANTAGES :les architectures à base de tableau noir présentent plusieurs avantages :

INCONVENIENTS : Les architectures à base de tableau présentent l’inconvénient du contrôle qui une lourdeur dans la procédure de traitement (manque de souplesse et d’efficacité).

2-2 LES SYSTEMES D’ACTEURS :

A l’inverse des systèmes à tableau noir, les systèmes d’acteurs relèvent d’une distribution totale des connaissances et du contrôle (FER 89). Ces systèmes se caractérisent par :

2-2-1 : Le modèle acteur :

Le modèle acteur est une extension du modèle objet par ajout de la notion d’activité : chaque objet, appelé acteur, est un agent actif, autonome, communiquant librement avec ses semblables. Les acteurs évoluent dans un univers dynamique, où des activités se créent, se déroulent et s’achèvent. Ils participent à ces activités, et communiquent entre eux pour se confier ou se déléguer des taches et se transmettre des résultats (GER 90).

    1. SYSTEMES PHYSIQUEMENT DISTRIBUES :
    2. Les systèmes physiquement distribués sont composés d’agents plus complexes que précédemment, dotés de capacités de raisonnement élaborés (GER 90).

      Généralement , ces agents sont localisés sur des sites physiques différents . Cela implique la mise en œuvre de stratégies de coordination très élaborées entre les agents. Ces derniers doivent en effet être capables de planifier intelligemment leurs activités locales en fonction de celles des autres.

      Diverses approches ont été envisagées pour implanter de tels mécanismes .

    3. TABLEAU COMPARATIF :

Les principaux critères de comparaison (figure 3) dans les systèmes multi-agents se résument dans les deux point suivants :

Agents Critères

Source de connaissances

Acteur, Objets

Agents physiquement distribués

Granularité

Moyenne

Moyenne

Grande

Nombre

Moyenne

Grand

Petit

Communication

Partage d’information

Envoi de messages

Envoi d’information

Contrôle

Centralisé

Distribué

Distribué

Degré de contribution à la résolution

Moyen

Moyen

Elevée

Connaissance du problème global et d’autrui

Absente

Moyenne

Elevée

"  Figure 3 "

 

 

 

 

 

CHAPITRE 2 : LE CONTROLE DANS LES SYSTEMES A TABLEAU NOIR ET D’ACTEURS

  1. INTRODUCTION : Afin de résoudre un problème particulier, tout système d’I.A. exécute une série d’actions (VOY 87). Chaque action est rendue possible grâce à la configuration des données initiales où celles des éléments de la solution engendrée auparavant. En appliquant certaines connaissances liées au domaine, il engendre de nouveaux éléments de la solution ou en modifie des anciens. A chaque étape du raisonnement, plusieurs actions peuvent être possibles et ainsi entrer en conflit.

2- PROBLEME DU CONTROLE :

Le besoin de maintenir la cohérence de la solution globale sachant que chaque agent n’a qu’une vue partielle, et de coordonner les activités des différents agents nécessite de mettre en œuvre un mécanisme de contrôle très élaboré, qu’il soit centralisé ou distribué.

Le contrôle concerne la planification et le suivi des taches internes de l’agent telles que l’analyse d’un message, ou la mise à jour de sa base de connaissances. Il définit la façon dont l’agent va explorer ses connaissances lors de la réception d’un message et regroupe les compétences, les stratégies, les mécanismes d’inférences, et de décisions d’un agent (CAR 84)(HAT 91)(KHO 94).

3- CONTROLE DANS LES SYSTEMES A TABLEAU NOIR :

Le rôle du mécanisme de contrôle dans un système à tableau noir est la gestion du fonctionnement global du système. Dans le modèle de tableau noir, les sources de connaissances (SC) répondent d’une façon opportuniste aux changements qui se produisent dans ce dernier.

Il existe quatre types de contrôle (HAT 91)(CAR & LES 92)(KHO 94)(ENG 88)(HAY 85) : contrôle procédural, contrôle hiérarchique, contrôle à base de tableau noir et le contrôle hybride à multi-phases.

3-1 Le contrôle procédural : Une architecture de tableau noir dont le contrôle est procédural résout le problème de contrôle par l’intermédiaire d’un programme complexe qui rassemble toutes les connaissances de contrôle. Ce programme est composé d’un ordonnanceur et d’un moniteur du tableau noir (figure 4)

Tableau noir

 

 

" Figure 4"

3-2: Contrôle hiérarchique

3-3 : Contrôle à base de tableau noir :

4-CONTRÔLE DANS LES SYSTEMES D’ACTEURS :

Dans les systèmes d’acteurs, la transmission par envoi de messages est le seul mécanisme de base de la stucture de contrôle .

Ce mécanisme de contrôle permet à l’agent de gérer ses activités internes (FER 89). Il dispose d’une boite aux lettres pour la réception des messages qui lui proviennent, soit du mécanisme de communication (message de l’équipement physique ou des accointances), soit des taches internes qu’il a lancées. Le mécanisme de contrôle est représenté par une tache qui peut se déclencher de façon asynchrone ou périodique. Le déclenchement asynchrone permet de mémoriser les nouveaux messages dans la boite aux lettres. Le déclenchement periodique permet à l’agent d’évaluer son état, de prendre en charge les messages, et d’évaluer les taches déjà lancées.

4-1: Le cycle de base du mécanisme de contrôle :

Le mécanisme de contrôle exécute un cycle (figure 5) (KHO 94)(FER 89). Il consulte sa boite aux lettres. Les messages sont d’abord triés dans le sens où il reconnaît les messages internes, émanant des taches intenes qu’il a lancées auparavant ( par exemple fin d’une tache, attente d’un événement, etc ),et les messages externes venant soit des capteurs soit des accointances.

Ces messages sont ensuite évalués, c’est-à-dire que le mécanisme de contrôle distingue les messages de requêtes des messages d’informations. Ensuite, ces messages sont transformés en buts.

Pour réaliser ses buts, l’agent fait appel à ses compétences. Les buts sont considérés comme des taches rangés dans un agenda de taches. Une priorité est établie entre les buts. Ainsi, le but qui consiste à traiter le message d’événement venant des capteurs est plus prioritaire qu’un message d’information d’une accointance.

A chaque cycle, le mécanisme de contrôle choisit le but (tache) le plus prioritaire et l’exécute.

Il peut même exécuter plusieurs buts en parallèle (par exemple traiter la requête d’une accointance et informer une autre accointance).

" Figure 5 "

 

 

CHAPITRE 3: LA COMMUNICATION ET LA COOPERATION DANS

LES SYSTEMES MULTI-AGENTS

  1. LA COMMUNICATION :

A-1 :DEFINITION : La communication est le moyen que possède les agents pour se mettre en relation. Elle est la base de la résolution coopérative de problèmes.

La communication est l’ensemble des processus physiques et psychologiques par lesquels s’effectue l’opération de mise en relation d’un ou plusieurs agents (émetteur) avec un ou plusieurs agents (récepteur), en vue d’atteindre certains objectifs (BOU 93)(BAU 92).

A-2 : MODELES DE COMMUNICATION :

Les modes et protocoles de communication établissent les moyens et les styles de communication entre les agents. Il existe principalement deux modèles de communication : communication par envoi de messages et la communication par partage d’information.

Ces deux modèles ont été combinés pour donner naissance à un hybride (LAB & LEJ 93)

(KHO 94)(BAU 92)

A-2-1: Communication par partage d’informations:

Ce type de communication est utilisé quand il y’a recouvrement des domaines d’expertises de chaque agent. Il suppose également que les agents ne possèdent qu’une connaissance limitée sur les domaines d’activité des autres agents. Ce mode de communication est adopté dans les systèmes à tableau noir. Dans ce mode de communication, les agents ne sont pas en liaison directe mais communique via le tableau noir (figure 6)

 

"Figure 6"

A-2-2: communication par envoi de messages:

Ce mode de communication est utilisé dans les systèmes d’acteurs. Dans ce cas, les agents sont en relation directe (figure 7).Chaque agent, appelé aussi acteur, échange des messages directement et explicitement avec les autres agents qu’il connaît (ses accointances)

Deux modes de transmission sont possibles:

"Figure 7"

 

 

 

A-2-2-1: L’envoi de message: L’univers des acteurs est complètement homogène.L’acteur est l’unique entité. Un seul type d’événement peut se produire : l’envoi d’un message par un acteur à un autre. Plus précisément, un acteur émetteur transmet à un acteur récepteur un acteur message dont une des accointances (donné locale) est le message à transmettre (KHO 90).

Ceci se fait d’une manieère asynchrone. Ce message peut être une requête, une information, une suggestion, etc.

Le message est de la forme:

(expéditeur, destinataire, type de message, message)

Les propriétés qui caractérisent un message sont les suivantes:

 

Message:

Numéro: numéro du message.

Expéditeur: l’agent qui envoi le mesage.

Destinataire: l’agent à qui adressé le message.

Renvoyer: l’agent à qui le message doit être retourné.

Type: l’importance du message(urgent,normal) .

Nature: une requête, une réponse, une information.

Si-echec: l’action à effectuer en cas d’echec.

Condition: la condition de traitement du message.

Etat: traité ou non traité.

Diffusion: point à point, diffusé.

Contenu: le corps du message.

Résultat attendu: résultat renvoyé.

 

  1. LA COOPERATION :

B-1: DEFINITION: La coopération est une caractéristique très importante dans les systèmes multi-agents. En effet, une résolution distribuée d’un problème est le résultat de l’interaction coopérative entre un ensemble d’agents. Plusieurs études en I.A.D se sont rattachées à définir ce concept de coopération.

La coopération consiste à faire en sorte que des agents travaillent à la satisfaction d’un but commun, ou tout du moins à la satisfaction de tous les buts individuels (FER 95).

B-2: MODELES DE COOPERATION:

La coopération entre agents peut se faire de deux manières (KHO 94).La première suppose qu’il existe une hiérarchie entre les agents. La seconde au contraire, suppose qu’il n’y a pas de hiérarchie entre les agents.

-cas où il existe une hiérarchie entre les agents:

Dans ce cas, il existe trois modes de coopération:

B-2-1: Le mode " COMMANDE "

Un agent superviseur décompose un problème en sous problèmes qu’il répartit entre les agents.

Ceux-ci les résolvent et renvoient les solutions à l’agent superviseur.

B-2-2: Le mode "APPEL D’OFFRES"

L’agent superviseur décompose un sous problèmes, dont il diffuse la liste aux agents. Chaque agent qui le souhaite envoi une offre. L’agent superviseur choisit parmi celles-ci et distribue les sous-problèmes. Le système fonctionne ensuite en mode commande.

B-2-3: Le mode "COMPETITION"

L’agent superviseur décompose un problème en sous-problèmes, dont il diffuse la liste des sous-problèmes aux agents, comme dans le mode appel d’offre. Chaque agent résout un ou plusieurs sous-problèmes et envoie les résultats correspondants à l’agent superviseur qui à son tour fait le tri.

 

 

"Figure 8"

 

 

- Il n’existe pas de hiérarchie entre les agents (figure 9):

B-2-4: Coopération par partage de taches:

Le problème est distribué entre les différents agents. Les agents travaillent indépendamment les uns des autres. Chaque agent dispose de ressources et de compétences nécessires pour accomplir la tache qui mui a été assignée. Le contrôle est dirigé par les buts, et les agents sont représentés par les taches qu’ils se sont engagés à exécuter.

B-2-5: Coopération par partage de résultats:

Les agents ne peuvent accomplir leurs taches de manière indépendante. Ils sont appelés à se transmettre des résultats partiels. Le contrôle est dirigé par les données, les agents sont représentés par des sources de connaissances; la problématique réside dans la communication des résultats.

 

 

Résultat ou tâche.

 

B-3: LES APPROCHES DE COOPERATION:

La coopération entre agents peut se faire suivant plusieurs approches: la négociation, la planification, et la coopération fonctionnellement exacte.

B-3-1: La planification: nous distinguons deux approches de planification: la planification centralisée et la planification distribuée (CAM & ART & STE 93)(KHO 94)(BAU 92).

B-3-1-1: La planification centralisée: Elle suppose une vue globale du problème. Un agent central gère les conflits entre les agents et établit un plan pour l’ensemble des agents. Le plan spécifie les actions que doivent effectuer les différents agents. La planification centralisée utilise trois types de plans pour coordonner la coopération entre agents:

B-3-2: La négociation: Généralement, les agents coopèrent pour arriver à résoudre un problème donné. Dans certaines situations, cette coopération n’est plus possible. En effet, les agents peuvent avoir des buts communs ou poursuivre des buts individuels et sont amenés à se partager des données communes et des ressources en nombre limité. Ceci peut entrainer des conflits de ressources, la génération de solutions concurrentes pour un même problème, etc.

Ils peuvent prendre également des décisions de contrôle conflictuelles (décision sur tâche à exécuter). Les agents sont amenés donc à détecter ces situations de conflits, à les éviter et les résoudre.Le processus qui permet aux agents de résoudre leurs conflits s’apelle négociation.

Il existe plusieurs méthodes de négociation (CAR 84)(CHE 92)(KHO 94): négociation cetralisée, négociation distribué et la négociation pour l’allocation de tâches, appelé aussi réseau contractuel

B-3-2-1: Négociation centralisée: le processus de négociation centralisée suppose que l’agent superviseur dispose d’une vue globale du problème. Il détecte les conflits entre les agents grâce à sa vue globale du problème, et il prend en charge la résolution de ces conflits entre les agents.

La négociation suppose l’existence d’un agent arbitre qui reçoit les buts en conflits des différent agents.

B-3-2-2: Négociation distribuée: dans la négociation distrbuée, le processus de détection et de résolution de conflits est totalement distribué entre les agents . Chaque agent peut détecter les situations de conflits à partir des informations qu’il reçoit des autres agents. Les stratégies de résolution de conflits peuvent être communes locales aux agents .

Dans ce type de négociation le protocole de négociation à étapes multiples est destiné à la détection et la résolution, dans un environnement distribué, des conflits entre les agents .

B-3-2-3: Le réseau contractuel: le réseau contractuel est une technique d’allocation de tâches dédiée à la résolution distribuée de problèmes (FER 89)(KHO 94). Il s’agit d’un ensemble d’agents qui peuvent passer des contrats publics.

 

 

 

CHAPITRE 4: EXEMPLE D’APPLICATION .

La planification centralisée en robotique :

Nous allons examiner quelques réalisations de systèmes de conduite d’unités de production dans deux configurations : la cellule flexible autonome de fabrication, et l’atelier automatisé flexible .

Cellule flexible autonome de fabrication :

Nous retiendrons la configuration suivante : une ou deux machines outils à commande numérique (M.O.C.N). desservies par deux robots, le système de transport de pièces étant un chariot filoguidé , qui est mené par un automate programmable piloté par l’A.P.I. centrale .

Les différents programmes d’usinage et de changement de pièces sont stockés dans la mémoire des directeurs de commande des centres d’usinage (nombre de programmes limité) .

On considére maintenant que les deux robots soit devant un tour . Le robot 1 fabrique des boulons et robot 2 fabrique des écrous.

A un moment donné, seul un robot peut disposer du tour. Les plans générés par les deux robots sont le suivants (figure 10 ).

 

:

 

"message de fin l’opération"

 

Avantages et inconvénients :

La planification centralisée est bien adaptée à certains domaines d’application, tels que : la robotique , le contrôle du trafic aérien . Cependant , le principal défaut est son besoin d'’une vue globale du problème qui requiert beaucoup de temps et de communications entre les agents pour ariver à générer un plan global. D’autre part , la centralisation de la résolution de conflits au niveau d’un agent superviseur s’avère coûteuse si cet agent est défaillant .

 

 

CONCLUSION GENERALE

Le concept multi-agents est un théme de recherche en cours d’exploration qui fait intervenir plusieurs domaines de recherche, tels que : les systèmes répartis, la biologie, l’intelligence artificielle, la psychologie cognitive, la sociologie, et ainsi que la planification de processus d’usinage dans un atelier .

Dans les systèmes multi-agents la connaissance et le contrôle sont distribués entre les agents qui coopèrent à la réalisation d’un même but.

Les systèmes multi-agents offrent beaucoup d’avantages : la distibution des traitements et des connaissances, l’adaptabilité, la réduction du coût et de la complexité du problème, la facilité de développement de maitenance, les traitements parallèle, le gain en efficacité et en temps de traitement.

Les systèmes d’acteurs constituent un pas vers une architecture multi-agents, mais les traveaux sur les acteurs tiennent plus de la conception de langages que de systèmes de résolution de problèmes.

Il est vrais que l’évolution des recherches sur les systèmes multi-agents dépend de l’avancement des recherches sur la modélisation de phénoménes tels que l’intentionnalité, la rationalité, les engagements et la représentation des croyances qui n’ont pas encore atteint le stade de la concrétisation .

 

 

 

BIBLIOGRAPHIE

(BAU 92): OLIVIER BAUJARD "Conception d’un environnement de développement pour la résolution de problèmes: Apport de l’Intelligence Artificielle et Application à la Vision"

Thèse de l’Université de Joseph Fourier. Grenoble I. 1992.

(BOU 93): THIERRY BOURRON. "Stuctures de communication et d’organisation pour la coopération dans un univers multi-agents". LAFORIA 93 . 04. Février 1993.

(CAR 84): DEMETRIO ARTUO OVZALLE CARRANZA. "Contribution à l’étude du raisonnement en univers multi-agents : KIDS, une application pour l’interprétation d’images biomédicales". Thèse de l’Université de Joseph Fourrier. Grenoble. 15 Novembre 1991.

(CAR & LES 92): NORMAN CARVER & VICTOR LESSER. "The evolution of Blackboard control Architectures". CMPSCI Technical Report 92 –71.Octobre 1992.

(CAM & ART & STE 93): S.CAMMARATA & D.MC ARTHUR & R.STEEB "Strategies of cooperation in Distributed Problem Solving". In Karlsruhe, editor, Proceedings of 18th International Joint Conference on Artificial Intelligence. Volume 2. Page 767-770 Germany . August 1993.

(CHE 92): V. CHEVRIER. "Coordination et structuration des échanges par négociation dans les systèmes multi-agents". Journée Systèmes multi-agents. PRC-GDR. Intelligence Artificielle. Nancy. Decembre 1992.

(DEM & MUL 90): Yves DEMAZEAU & Jean-Pierre MULLER. "Decentralized Artificial Intelligence". Elsevier Science Publishers B.V. (North Holland) 1990.

DEM & MUL 91): Yves DEMAZEAU & Jean-Pierre MULLER."From reactive to Intentional Agents. In: Decentralized Artificial Intelligence". Editors. Vol 2.North Holland. 1991.

(ENG 88): ENGELMORE.R..S & A.J.MORGAN. "Blckboard systems: introduction in Blackboard systems". Page 213-253. Also in : Blackboard Systems. R.Engelmore & T.Morgan Editors. Addison Wesley 1988.

(ERC & FER 91): JEAN HERCEAU & JACQUES FERBER."L’intelligence artificielle distribuée". Recherche 233 Juin 1991. Volume 22.

(FAR & GHA 87): H.FARRENY & M.GHALLAB."Eléments d’intelligence artificielle". Edition Hermès. Paris 1987.

( FER 89): JACQUES FERBER "Objets et agents : une étude des structures de représentation et de communication en Intelligence Artificielle". Thèse de l’Université de Paris VI.8juin 1989.

(FER & GHA 88): J.FERBER & M.GHALLAB. "Problèmatique des univers multi-agents". Actes des journées nationales du PRC-IA. Mars 1988.

(FER 95): J.FERBER. "Les systèmes multi-agents: vers une Intelligence collective". Inter-Edition. Paris 1995.

(GER 90): GERALD MASINI. "Les langages à objets: langages de classe, langages de frame, langages d’acteurs". Inter-edition 1990.

(GLE & GLI 90): M.P. GLEIZES & P.GLIZE. "Les systèmes multi-expert". Edition Hermès. Paris 1990.

(HAT 91): JEAN PAUL HATON. "Le raisonnement en intelligence artificielle". Inter-editions 1991. Paris.

(HAY 85): B.HAYES-ROTH. "A blackboard architecture for control". Artificial Intelligence. 1985.

(KHO 94): K.KHOUALDI. "Filtrage d’alarmes pour un système automatisé par une approche multi-agents". Thèse de l’Université Paris VI. LAFORIA TH94/07.18 Novembre 1994.

(LAB & LEJ 93): SOFIANE LABIDI & WIDED LEJOUAD. "From distributed intelligence to multi-agent systems". INRIA Sophia Antipolis. 1993.

(VOY 87): R.VOYER. "Moteurs de systèmes experts". Editions EYROLLES. 1987.