L'utilisation d'un langage de communication symbolique de haut niveau
implique la compréhension de la nature de son interlocuteur. Dans un
environnement où la bande passante des canaux de communication et la
capacité de traitement de l'information par le destinataire sont
infinies, la synchronisation des états du monde par communication
totale serait possible. Mais c'est rarement le cas dans les
problématiques du monde
réel tout comme dans la simulation (par exemple, les agents de la
RoboCup ne peuvent recevoir des signaux que tous les deux cycles en
moyenne). Il est donc nécessaire de savoir
quelles sont les informations pertinentes à envoyer à un partenaire.
Par exemple de savoir en quoi il pourrait être utile (à quels ordres
il peut obéir efficacement) tout comme savoir en quoi les informations
envoyées peuvent lui servir. Cela implique donc de modéliser son état
actuel pour connaître ses capacités, ses besoins et sa connaissance de
l'environnement.
La modélisation du partenaire permet de plus de tenter d'obtenir une image de ses buts et de ses croyances. Une telle information est utile pour coopérer de manière plus efficace sur une base temporelle: ainsi, un agent sera à même de reconnaître les plans d'un autre agent, d'anticiper ses réactions et d'ajuster ses propres actions en conséquence. La maintenance de cette information nécessite de prévoir explicitement un modèle de ses partenaires et de les simuler. Dans un système multi-agents, la modélisation respective impacte directement sur le comportement individuel des agents le composant puisque chacun agira en tenant compte des croyances partagées sur l'état de ses partenaires. On trouve dans [#!tambe-1995!#] une architecture résolvant par le partage partiel de modèles le problème de la complexité combinatoire de la modélisation récursive de l'ensemble des composants d'un système multi-agents.