DOMAINE DE L'INVENTION
[0001] L'invention concerne un procédé d'évaluation numérique d'un réseau de transmission
de données.
[0002] L'invention s'applique en particulier à l'évaluation numérique de réseaux de transmission
de données à commutation de paquets, tels que par exemple les réseaux communément
appelés réseaux IP (Internet Protocol), réseaux MPLS (MultiProtocol Label Switching)
ou réseaux ATM (Asynchronous Tranfer Mode).
ETAT DE LA TECHNIQUE
[0003] L'évaluation numérique des réseaux peut être utilisée en particulier pour optimiser
le dimensionnement et/ou le fonctionnement d'un réseau réel, pour simuler le comportement
d'un réseau suite à un changement intervenant sur au moins un de ses éléments, ou
pour optimiser le routage des données dans un réseau.
[0004] On connaît déjà plusieurs types de procédés d'évaluation numérique de tels réseaux
de transmission.
[0005] Dans un premier type de procédé connu, il est réalisé une évaluation dite événementielle
ou stochastique consistant essentiellement à générer, en général aléatoirement, des
données descriptives d'événements chronologiques au niveau de noeuds du réseau, concernant
des paquets de flux de données transitant dans le réseau. Ce procédé permet notamment
de représenter des événements se produisant au niveau de files d'attente (mémoires
tampon) des dispositifs matériels, tel que des événements de réception et des événements
de restitution de paquets.
[0006] Les références suivantes illustrent ce premier exemple de procédé connu :
- Simulation Modeling and Analysis (Third Edition), Averill M. Law & W. David Kelton,
Editeur : McGraw-Hill, 2000 (760 pages),
- Simulation, by Sheldon M. Ross, Academic Press, 3ième édition (27 Décembre, 2001),
ISBN: 0125980531,
- Simulation Techniques for Discrete Event Systems (Cambridge Computer Science Texts),
I. Mitrani, 194 pages, Cambridge University Press (9 Décembre, 1982), ISBN: 0521238854,
- Discrete-Event System Simulation (3rd Edition), Jerry Banks, John S. Carson , Barry
L. Nelson, David M. Nicol, Prentice Hall, 3ième édition (15 août, 2000), ISBN: 0130887021.
[0007] Un premier exemple de procédé d'évaluation événementielle selon la technique dite
de Monte-Carlo, consiste à déterminer un comportement transitoire du réseau à partir
d'événements tirés aléatoirement pour générer un ensemble de comportements possibles.
Le comportement transitoire du réseau peut être déduit de statistiques sur les comportements
générés. Un autre exemple de procédé d'évaluation événementielle selon la technique
de Monte-Carlo, consiste à déterminer un comportement en régime permanent du réseau
à partir d'événements tirés aléatoirement. La technique de Monte-Carlo produit des
résultats précis. Elle permet notamment de fournir une représentation des flux entièrement
événementielle à l'intérieur du réseau, ce qui est nécessaire pour simuler la circulation
des paquets et évaluer de façon précise certains paramètres de fonctionnement des
réseaux actuels, par exemple les phénomènes de perte de paquets de données et les
causes de telles pertes, ainsi que les délais et la gigue. Cela est tout particulièrement
vrai pour les réseaux réalisant la transmission de paquets appartenant à des classes
de services prédéterminés (champ TOS d'IP ou champ DSCP de MPLS), par exemple des
services (audio, vidéo, multimédia, données, interactifs ou non ...) pour les réseaux
IP (Internet Protocol), MPLS (MultiProtocol Label Switching), GPRS (General Packet
Radio Service) ou UMTS (Universal Mobile Telecommunication System).
[0008] Ce type de procédé d'évaluation événementielle présente néanmoins l'inconvénient
d'entraîner des temps de calcul très importants, qui deviennent rédhibitoires pour
évaluer les réseaux réels actuels, compte tenu de l'augmentation permanente de leur
taille et de leur bande passante, et donc de la complexité des routages, et des grandes
quantités de données à transmettre pour chaque transaction.
[0009] Pour réduire les temps de calcul, différentes solutions ont été proposées.
[0010] Par exemple, on a proposé une technique de réduction de variance. On a également
envisagé l'utilisation de machines en parallèle. Néanmoins, en pratique, toutes ces
techniques ne permettent pas d'obtenir des gains de temps suffisants.
[0011] Un deuxième type d'évaluation connue consiste à réaliser une évaluation dite analytique
différentielle.
[0012] On pourra à cet égard se référer à la publication suivante :
[0013] Dans l'évaluation analytique, chaque file d'attente (mémoire tampon) de chaque dispositif
matériel du réseau de transmission de données correspond à un noeud d'un réseau de
files d'attentes de paquets, ce réseau étant décrit par :
- un ensemble de sources produisant, avec un débit λk(t), des paquets allant d'un noeud origine o(k) à un noeud de destination d(k),
- des équations analytiques issues de la théorie du trafic différentiel permettent de
modéliser des noeuds.
[0014] La forme générale de ces équations est la suivante :

où:
t est le temps,
s(1)...s(Ki) représente les Ki flux arrivant au noeud i, Ki étant un nombre entier non nul,

avec k = si (Ki) sont respectivement les débits et les charges induites par chaque source dans le
noeud i,
µ est le taux de service,
et

et

sont les débits d'entrée et de sortie dont les expressions sont données par le modèle
analytique différentiel considéré. Ce modèle, généralement non-linéaire, dépend de
la loi (distribution) de service, de la loi (distribution) d'arrivée et du fait qu'il
existe un ordonnancement des paquets plus ou moins complexe, pouvant prendre en considération,
par exemple, des classes de service.
[0015] Pour représenter le transit des paquets d'un noeud vers un autre noeud, il est nécessaire
de coupler ces équations. Ce couplage est réalisé avec des coefficients

chaque coefficient déterminant une fraction du trafic issu de la source k dans le
noeud i à propager vers le noeud j. En particulier, des coefficients

de valeurs unitaires ou nulles peuvent être employés pour représenter un routage
dans lequel la totalité du trafic k de chaque noeud i est propagé vers un seul noeud
j.
[0016] Deux types d'évaluation analytiques sont connus :
1/ L'évaluation analytique transitoire.
[0017] Dans ce cas, l'évaluation est discrétisé par pas de durée Δt. A chaque pas, et pour
chaque noeud i et chaque source k du réseau, chaque paramètre

est la somme des

(pour tous les

non nuls), et les équations sont intégrées pour mettre à jour

et les taux de sortie

2/ L'évaluation analytique stationnaire.
[0018] Dans ce cas, à l'état stationnaire du réseau, toutes les dérivées par rapport au
temps sont nulles. La recherche de l'état stationnaire consiste à exécuter un algorithme
de point fixe sur l'ensemble des équations

[0019] Ce type d'évaluation, basée sur une simulation fluide des flux au sein du réseau,
est relativement rapide, mais ne permet pas néanmoins de simuler avec précision tous
les types de flux de données pouvant circuler dans un réseau réel. Ce type d'évaluation
ne permet pas non plus d'observer le cheminement d'un paquet de données dans le réseau,
ni d'obtenir des données descriptives des événements survenant sur chaque paquet.
Autrement dit, cette évaluation analytique différentielle ne permet pas de représenter
les flux de façon événementielle à travers le réseau.
[0020] Un troisième type d'évaluation connue, appelée évaluation « hybride » consiste à
tirer partie de l'évaluation événementielle et de l'évaluation analytique.
[0021] Dans un modèle d'évaluation hybride, certains éléments du réseau sont simulés avec
des équations différentielles analytiques tandis que les autres éléments, en général
plus complexes, sont simulés à l'aide d'une modélisation stochastique à évènements
discrets.
[0022] Un premier principe de modélisation hybride, appelé « principe de modélisation hybride
par partitionnement » consiste à diviser le réseau en sous-parties, certaines sous-parties
étant traitées grâce à des modèles analytiques et d'autres sous-parties étant traitées
grâce à des modèles événementiels.
[0023] Par exemple, l'ensemble des sources de trafic et des noeuds frontières du réseau
(Customer Equipment) sont simulés événementiellement tandis que le coeur du réseau
est simulé analytiquement (entre les routeurs « Edge »).
[0024] Cette, « hybridation » de l'évaluation résulte du fait que la superposition des trafics
multiples (individuellement non Poissonniens) au niveau des « Routeurs Edge », se
compose en un trafic agrégé tendant vers une loi de Poisson. Cette propriété a été
vérifiée par de multiples simulations menées sur différents types de sources. D'autre
part, le coeur de réseau est souvent la partie la moins chargée et les hypothèses
considérées donnent de bons résultats dans ce cas.
[0025] Cependant, le principe de modélisation hybride par partitionnement ne permet généralement
pas de représenter un flux de bout en bout circulant dans le réseau de façon entièrement
événementielle, sauf à utiliser une évaluation événementielle pour chacun des noeuds
traversés par le flux. Cependant, cela imposerait que chaque flux traversant un noeud
simulé, soit également lui-même représenté de façon événementielle. Il en résulte
une charge de calcul et des temps de traitement rédhibitoires.
[0026] Un deuxième principe de modélisation hybride, appelé « principe de modélisation hybride
par superposition » consiste à simuler de manière évènementielle uniquement les flux
dont on souhaite évaluer précisément la qualité de service, et d'utiliser des modèles
analytiques, plus rapides, pour évaluer le reste de la charge du réseau.
[0027] Ce principe de simulation permet de réduire autant qu'on le souhaite la complexité
calculatoire de la simulation événementielle tout en maintenant des simulations très
précises, de bout en bout, pour tous les paquets émis par un flux.
[0028] Une approche spécifique de ce principe a été proposée dans le document suivant :
[0029] Le principe de modélisation hybride par superposition est illustré dans le cas simplifié
d'un noeud comprenant une interface d'entrée incluant une file d'attente unique. L'interface
reçoit d'une part un flux analytique émis par une source analytique et d'autre part
un flux évènementiel (sous la forme de paquets de données) émis par une source événementielle.
[0030] Bien que ce document prévoit qu'une évaluation du réseau, utilisant le principe de
modélisation hybride par superposition, conduise à des résultats satisfaisants, ce
document ne présente pas de solution permettant d'appliquer cette évaluation hybride
aux cas complexes de noeuds comprenant une interface d'entrée incluant une pluralité
de files d'attente, dans lequel les files d'attente sont gérées suivant une loi de
service quelconque.
RESUME DE L'INVENTION
[0031] Un but de l'invention est de proposer un procédé d'évaluation numérique d'un réseau
de transmission de données basé sur une superposition hybride et adapté pour prendre
en compte des noeuds présentant des interfaces d'entrée ou de sortie complexes.
[0032] Ce problème est résolu dans le cadre de la présente invention grâce à un procédé
conforme à la revendication 1.
[0033] Un tel procédé permet d'évaluer les performances et de simuler la propagation des
flux de paquets de données, analytiques et évenementiels d'un bout à l'autre des chemins
parcourus par ces flux, en tenant compte des classes de service associées à ces flux,
des lois de services et des lois d'ordonnancement complexes régissant les files d'attente
des interfaces traversées par ces flux au sein du réseau.
[0034] Les revendications dépendantes 2 à 12 définissent des caractéristiques de mise en
oeuvre avantageuses du procédé de l'invention.
[0035] L'invention concerne également un dispositif selon la revendication 13.
PRESENTATION DES FIGURES
[0036] D'autres caractéristiques et avantages ressortiront encore de la description qui
suit, laquelle est purement illustrative et non limitative et doit être lue en regard
des figures annexées, parmi lesquelles :
- la figure 1 représente de manière schématique un réseau de transmission de données,
- la figure 2 représente de manière schématique un noeud du réseau de transmission de
données,
- la figure 3 représente de manière schématique une interface d'entrée d'un noeud,
- la figure 4 représente de manière schématique une application du principe de superposition
hybride à un réseau de transmission de données,
- la figure 5 représente de manière schématique les étapes d'un procédé d'évaluation
numérique d'un réseau de transmission, conforme à un mode de mise en oeuvre de l'invention,
- la figure 6 représente de manière schématique un exemple de mise en oeuvre du procédé
correspondant au cas d'une interface présentant une pluralité de files d'attente gérées
par une loi de service complexe,
- la figure 7 est un schéma illustrant une interface comprenant une seule file d'attente
réceptrice de paquets entrants, selon un premier exemple de mise en oeuvre du procédé
de l'invention,
- la figure 8 est un graphique représentant l'évolution dans le temps de la charge d'une
file d'attente en fonction d'événements chronologiques de réceptions et d'événements
chronologiques de restitutions,
- la figure 9 illustre le principe de l'évaluation hybride par superposition tel qu'appliqué,
selon le premier exemple de mise en oeuvre du procédé d'évaluation de l'invention,
à l'interface de la figure 7,
- la figure 10 est un schéma illustrant une interface réalisant un procédé de gestion
des files d'attentes par priorité, selon un deuxième exemple de mise en oeuvre du
procédé de l'invention,
- la figure 11 illustre le principe de l'évaluation hybride par superposition tel qu'appliqué,
selon le deuxième exemple de mise en oeuvre du procédé d'évaluation de l'invention,
au port de la figure 10.
DEFINITIONS
[0037] On désigne par « noeud », tout dispositif matériel réalisant une fonction de routage
de flux de données dans un réseau de transmission de données.
[0038] A titre d'exemple un routeur IP, un ordinateur réalisant un routage IP logiciel,
un commutateur MPLS (Multiprotocol Label Switching), un routeur ATM (Asynchronous
Transfer Mode), un commutateur Ethernet, ou tout autre dispositif permettant une commutation
de paquets de données peut constituer un noeud. En outre, un répéteur, tel qu'un dispositif
communément appelé « hub », un satellite, ou tout autre dispositif permettant de transmettre
des paquets de données peut constituer un noeud.
[0039] On désigne par « liaison de transmission », tout moyen permettant un transport de
flux de données d'un noeud à un autre dans un réseau de transmission de données.
[0040] Une liaison de transmission peut être réalisée par tous moyens de transmission filaire,
radiofréquence, ou tout autre type de moyen de transmission de données entre des noeuds.
[0041] On désigne par « interface », un port d'entrée ou de sortie de données dans un noeud.
[0042] On entend par « mode de fonctionnement analytique », un mode de fonctionnement d'une
interface d'un noeud modélisé par une ou plusieurs équations différentielles obtenues
via des relations analytiques non-linéaires régissant des flux analytiques de données
traversant le noeud.
[0043] On entend par « mode de fonctionnement événementiel», un mode de fonctionnement d'une
interface modélisé par des événements discrets représentant un ou plusieurs flux événementiels
traversant le noeud et dont le comportement moyen peut être connu en utilisant des
méthodes statistiques.
[0044] On entend par « mode de fonctionnement hybride », un mode de fonctionnement d'une
interface d'un noeud régissant à la fois des flux analytiques et des flux événementiels
de données.
[0045] On entend par « taux de service » ou « taux de restitution », un débit auquel des
données entrant dans une interface d'un noeud sont transmises (ou restituées) par
l'interface.
DESCRIPTION DETAILLEE D'UN MODE DE REALISATION
[0046] La figure 1 représente de manière schématique un réseau de transmission de données,
tel que par exemple un réseau de transmission de données par commutation de paquets.
Le réseau comprend une pluralité de noeuds 1 et une pluralité de liaisons 2 de transmission
de données s'étendant entre les noeuds 1.
[0047] Ce réseau réalise la transmission de paquets de données fournis par des sources 3
de paquets associées à des dispositifs matériels, dits dispositifs matériels sources,
et transmis dans le réseau par ces dispositifs matériels sources. A titre d'exemple
non limitatif, une application logicielle, productrice de paquets, chargée dans une
mémoire vive d'un dispositif matériel peut constituer une telle source de paquets.
Par ailleurs chaque source 3 de paquets peut provenir d'un organe matériel du dispositif
matériel source correspondant. Par exemple, un port (non représenté dans les figures)
de transmission de données entre le dispositif matériel source et des dispositifs
matériels (non représentés dans les figures) à l'extérieur du réseau peut constituer
une telle source de paquets.
[0048] Chaque source 3 de paquets produit des paquets acheminés par le réseau vers un dispositif
matériel de destination 4 selon un trajet 5 d'acheminement simple ou multiple.
[0049] La figure 2 représente de manière schématique un noeud 1 du réseau de transmission
de données.
[0050] Le noeud 1 comprend au moins une interface d'entrée 11 (ou port d'entrée), une interface
de sortie 12 (ou port de sortie) et un module de routage 13 (appelé également coeur
de commutation ou matrice de commutation).
[0051] Chaque interface d'entrée 11 est adaptée pour recevoir des, données en provenance
d'une source ou d'un autre noeud via une liaison du réseau.
[0052] De même, chaque interface de sortie 12 est adaptée pour émettre des données vers
un autre noeud ou dispositifs matériels de destination via une liaison du réseau.
[0053] Le module de routage 13 est adapté pour router des données reçues d'une interface
d'entrée 11 vers une interface de sortie 12.
[0054] Chaque interface peut en outre être adaptée pour mettre en oeuvre des processus connus
permettant de rejeter des paquets de données avant la saturation des mémoires tampon,
tels que des mécanismes dits RED, (Rejet Aléatoire Anticipé), ou WRED (Rejet Aléatoire
Anticipé Pondéré).
[0055] Chaque interface peut en outre réaliser des procédés connus, dits de police, et des
procédés connus, dits CAR, permettant de limiter le débit de certains flux de paquets.
[0056] En outre, chaque port peut réaliser des processus connus de mise en forme de trafic,
dits de
shapping.
[0057] La figure 3 représente de manière schématique une interface d'entrée 11 d'un noeud
1.
[0058] L'interface 11 comprend une pluralité de files d'attente k (
k =1...
K) comprenant par exemple des mémoires FIFO ou PAPS mettant en oeuvre une discipline
d'attente du type premier arrivé premier servi.
[0059] Les files d'attente k reçoivent et stockent des paquets de données entrants. Chaque
paquet de données entrant est réparti dans l'une des files en fonction de la classe
de service associée au paquet. Par exemple, un paquet de classe k est introduit dans
la file k correspondante. Chaque file d'attente est associée à une ou plusieurs classes
de service.
[0060] Les paquets de données sont pris en charge par l'interface d'entrée 11 en fonction
d'une loi de service Γ qui régit les files d'attente.
[0061] La figure 4 représente de manière schématique une application du principe de superposition
hybride à un réseau de transmission de données, tel que celui de la figure 1.
[0062] On simule de manière événementielle un flux de données (□□□) auquel est associée
une classe de service donnée et dont on souhaite évaluer précisément la qualité de
service. Les autres flux (≈) sont simulés de manière analytique de manière à prendre
en compte le reste de la charge du réseau.
[0063] Parmi les noeuds du réseau, certains présentent une interface qui reçoit uniquement
des données sous la forme de flux analytiques (≈). Une telle interface est alors identifiée
comme une interface ayant un mode de fonctionnement analytique.
[0064] D'autres noeuds présentent une interface qui reçoit uniquement des données sous la
forme d'un flux événementiel (□□□). Une telle interface est alors identifiée comme
une interface ayant un mode de fonctionnement événementiel.
[0065] D'autres noeuds encore présentent une interface qui reçoit à la fois des données
sous la forme de flux analytiques et des données sous la forme d'un flux événementiel.
Une telle interface est alors identifiée comme une interface ayant un mode de fonctionnement
hybride.
[0066] La figure 5 représente de manière schématique les étapes principales d'un procédé
d'évaluation numérique du réseau de transmission.
[0067] Il s'agit de choisir un ou plusieurs flux de données qui seront simulés événementiellement
d'un bout à l'autre de leurs chemins à travers le réseau, alors que le reste des flux
est simulé par des équations différentielles. Ce mode de simulation permet de réduire
autant qu'on le souhaite la complexité calculatoire de la simulation événementielle
tout en maintenant des simulations très précises, de bout en bout, pour tous les paquets
émis par un flux.
[0068] Selon une première étape 100, on propage une pluralité de flux multi-classes via
l'ensemble des noeuds et des interfaces des noeuds, par lesquelles passent ces flux.
Une loi de routage (table de routage IP ou table de routage MPLS donnant un LSP) permet
de déterminer par quelles interfaces passent tous les flux multi-classes de bout en
bout. Ces chemins dépendent de la destination des flux mais peuvent aussi dépendre
du type d'application ou de service et des classes des flux. Dans une interface, c'est
la classe d'un flux qui détermine une file d'attente à laquelle les paquets du flux
seront affectés.
[0069] En particulier, on détermine, pour un flux de données auquel est associée une classe
de service, un chemin de routage passant par une pluralité de noeuds du réseau.
[0070] Selon une deuxième étape 200, on détermine, parmi les noeuds du chemin de routage
et pour chaque flux de donnée événementiel, les noeuds qui possèdent une interface
d'entrée ou une interface de sortie qui reçoit à la fois au moins un flux de données
événementiel et au moins un flux de données analytique. Autrement dit, on identifie
les interfaces ayant un mode de fonctionnement hybride.
[0071] Selon une troisième étape 300, on initialise des modes de simulation des interfaces
des noeuds. Autrement dit, on détermine un mode de simulation pour chaque interface.
Le mode de simulation (dans l'hypothèse où l'on conserve les mêmes flux événementiels
et analytiques au cours de la simulation). Pour chaque interface et chaque file d'attente
de cette interface (multi-classe), on résout les cas suivants afin de déterminer son
mode :
- Si tous les flux traversant une interface sont analytiques, le mode de l'interface
est analytique et le mode de propagation des flux est complètement et uniquement analytique.
Les modèles mathématiques des files d'attente de cette interface sont alors « activés
», sans calcul de taux de service équivalent, sans file d'attente virtuelle et sans
simulation événementielle.
- Si tous les flux traversant une interface sont événementiels, le mode de l'interface
est événementiel et le mode de propagation des flux est complètement et uniquement
événementiel. Les modèles mathématiques des files d'attente de cette interface sont
alors « désactivés ».
- Si une interface est traversée par au moins un flux analytique et au moins un flux
événementiel, cette interface est en mode hybride.
[0072] Les files d'attente de cette interface en mode hybride, contenant uniquement des
flux analytiques, seront analytiques.
[0073] En fait, les files d'attente de cette interface, contenant au moins un flux événementiel,
seront soit hybrides soit événementielles.
- Soit une file d'attente ne contient que des flux événementiels auquel cas elle sera
simulée en tant que file d'attente réelle mais avec un taux de service équivalent
qui sera calculé à partir d'un modèle analytique agrégé.
- Soit une file d'attente contient des flux analytiques et des flux événementiels auquel
cas elle sera simulée en tant que file d'attente réelle pour les flux analytiques
et par une file d'attente virtuelle pour les flux événementiels, mais avec un taux
de service équivalent qui sera calculé à partir d'un modèle analytique agrégé. Les
pertes de cette file d'attente virtuelle sont réalisées suivant un tirage uniforme
correspondant à la valeur de la probabilité de perte calculée par le modèle analytique
agrégé.
[0074] Selon une quatrième étape 400, on fait se propager les différents flux à travers
le réseau.
[0075] Les files d'attentes de toutes les interfaces sont traitées pour tous les flux :
- Les débits des flux analytiques sont propagés aux interfaces suivantes.
- Chaque événement de paquet est traité et propagé via la simulation événementielle
(création d'un nouveau paquet d'une source, disparition d'un paquet arrivé à la destination,
disparition d'un paquet perdu dans une file d'attente saturée, arrivée d'un paquet
dans une file d'attente d'une interface, départ d'un paquet d'une interface vers un
lien, etc).
- Les simulations évènementielles sont faites pour les files d'attente réelles ou pour
des files d'attente virtuelles.
[0076] Selon une cinquième étape 500, à intervalle de temps régulier, on mesure le débit
des flux analytiques et on effectue des statistiques sur les flux événementiels arrivant
dans chaque file d'attente de chaque interface et on en déduit les taux moyens d'arrivée
analytiques et événementiels.
[0077] Selon une sixième étape 600, on estime un paramètre de convergence de la simulation.
Si la convergence n'est pas suffisante, on renouvelle les étapes 300 à 600 jusqu'à
temps que cette convergence soit considérée comme suffisante.
[0078] On va maintenant décrire plus en détail la quatrième étape 400 en s'appuyant sur
deux exemples d'interfaces fonctionnant en mode hybride.
[0079] Au cours de cette étape 400, pour chaque interface ayant un mode de fonctionnement
hybride, un taux de service équivalent (TRFE) est calculé pour chaque file d'attente
de l'interface recevant au moins un flux de données événementiel.
PRINCIPE GENERAL : Cas d'une pluralité de files d'attente gérées par une loi de service
complexe.
[0080] On s'intéresse au cas général d'une interface, telle que représentée sur la figure
6, l'interface comprenant un nombre quelconque de files d'attente, recevant une pluralité
de flux analytiques et événementiels. L'interface met en oeuvre des combinaisons de
disciplines d'ordonnancement de type priorité fixe et de type gestion équitable de
bande passante avec pondération (WFQ ou « Wake Fair Queuing » en est un exemple).
[0081] On suppose que la discipline d'attente dans chaque file d'attente est de type premier
arrivé premier servi.
[0082] Par ailleurs, on suppose que les paquets entrants des flux (analytiques et événementiels)
arrivant dans chaque file d'attente suivent un processus de Poisson et une loi de
service dépendant directement de la distribution des tailles des paquets ; cette distribution
des tailles des paquets est de type Générale indépendante. On considère aussi une
capacité infinie pour les files d'attentes.
[0083] D'autre part, les files d'attente sont structurées en deux bancs. Un premier banc
contient K files d'attente gérées suivant un ordonnancement par priorités. Un deuxième
banc contient N files d'attente gérées suivant un ordonnancement par gestion équitable
de bande passante avec pondération.
[0084] On notera les files d'attente comme suit : 1,2 ... K, K+1, ..., K+N. Dans le premier
banc, les paquets de la file d'attente 1 sont toujours traités avant ceux des files
d'attente 2, 3, ... K. De même, les paquets de la file d'attente 2, si la file d'attente
1 est vide (aucun paquet présent), sont toujours traités avant ceux des files d'attente
3, 4, ... K. Il en est ainsi de toutes les files d'attente du premier banc, où l'indice
indique non seulement le numéro de la file d'attente mais aussi son ordre de priorité.
Les paquets des files d'attente K+1, K+2, ... K+N du deuxième banc sont traités lorsqu'il
n'y a plus aucun paquet en attente dans les K premières files d'attente. Dans ce cas,
les files d'attente K+1, K+2, ... K+N se partagent la bande passante suivant le type
d'algorithme de gestion équitable de bande passante suivant la pondération α
i associée à chaque file d'attente k (pour k ∈ {K+1,...K + N}). Ces pondérations sont
telles que :

[0085] Ce modèle couvre les cas particuliers suivants :
- K=1 et N=0 : l'interface comprend une seule file d'attente et les paquets sont traités
dans l'ordre premier arrivé premier servi.
- K>1 et N=0 : l'interface comprend K files d'attente gérées suivant une discipline
d'ordonnancement par priorités fixes.
- K=0 et N>1 : l'interface comprend N files d'attente gérées suivant une discipline
d'ordonnancement par partage équitable avec pondération.
[0086] On notera C
k la capacité de la file d'attente k (pour k ∈ {1,....K+N}).
[0087] Le principe général qui va être développé détaille les calculs des paramètres de
données d'évaluation analytique de restitution DEAR(k), de données d'évaluation analytique
de la charge DEAC (k) et taux de service équivalent TRFE(k) associés à une file d'attente
k quelconque de l'interface. Ces principes sont basés sur des modèles de files d'attente
M/G/1 pour chaque file d'attente k d'une interface.
[0088] Considérons les notations suivantes :
Dk est la moyenne des tailles des paquets (par exemple donné en bits) entrants des flux
événementiels et/ou analytiques de la file d'attente k,
σDk est le moment d'ordre 2 des tailles des paquets (par exemple donné en bits) des flux
de paquets entrants dans la file d'attente k,
σDek est le moment d'ordre 2 des tailles des paquets des flux. événementiels de paquets
entrant dans la file d'attente k.
[0089] Une valeur de débit λ
ek est calculée pour chaque file d'attente k recevant au moins un flux événementiel.
Cette valeur est calculée à partir de données événementielles de réception (DER) descriptives
d'événements chronologiques de réception de paquets des flux événementiels. L'équation
suivante illustre le principe de son calcul :

où λ
eik est le débit, en nombre de paquets par unité de temps, du flux événementiel i entrant
dans la file d'attente k.
[0090] De préférence, les valeurs λ
ek correspondent chacune à une valeur de débit moyen sur un intervalle de temps Δt
p correspondant, à une itération courante du procédé d'évaluation. En pratique, chaque
λ
ek peut être obtenu par dénombrement des événements chronologiques de réception survenant
sur cet intervalle Δt
p et par division du nombre obtenu par la durée de l'intervalle de temps Δt
p. Les valeurs λ
ek ainsi obtenues constituent les données d'évaluation statistique de réception (DESR)
de chaque file d'attente k =1...K+N.
[0091] Puis, un calcul des données d'évaluation analytique de la charge (DEAC) est effectué
pour l'intervalle de temps Δt
p correspondant, tel que décrit ci-après, à une itération courante du procédé d'évaluation
selon un mode de mise en oeuvre de l'invention.
[0092] Soit λ
ak le débit de paquets entrants des flux analytiques dans la file d'attente k (de préférence
en paquets par seconde) :

où λ
aik est le débit, en nombre de paquets par unité de temps, de paquets entrants de chaque
flux analytique i de la file d'attente k.
[0093] Les valeurs λ
aik constituent les données analytiques de réception (DAR) pour chaque file d'attente
k=1...K+N.
[0094] En outre :

où µ
k est le taux moyen de service des paquets des flux entrant dans la file d'attente
k,
τ
k est le moment d'ordre 2 du temps de service des paquets des flux entrant dans file
d'attente k,
et τ
ek est le moment d'ordre 2 du temps de service des paquets des flux événementiels dans
file d'attente k.
Ces paramètres µ
k, τ
k et τ
ek définissent la distribution générale de service des paquets dans la file d'attente
k.
[0095] Soit P
k la probabilité de perte de la file d'attente k. Celle-ci est calculée selon des formules
classiques de type M
k / G
k / 1 / C
k connues dans la littérature, où le flux total entrant dans la file d'attente k est
supposé Poissoniens (M), la loi de service est supposée générale indépendante (G)
et où la capacité de la file est C
k (on pourra à cet égard se référer à l'ouvrage
Introduction to Queueing Theory, second Edition, Robert B. Cooper, North Holland,
1981. ISBN: 0-444-00379-7, ou à
The Single Server Queue, Jacob W. Cohen, North Holland, 1969. ISBN: 0-444-85452-5).
[0096] Cette probabilité P
k est utilisée pour tous les flux analytiques des files analytiques de l'interface
et aussi pour les flux analytiques et événementiels des files hybrides. Dans les files
virtuelles, elle est utilisée pour le tirage uniforme de pertes de paquets de la simulation
événementielle.
[0098] Soit X
k la charge totale, en nombre de paquets, dans la file d'attente k, k ∈ {1,...K}. Cette
charge peut être décomposée en une charge X
ak induite par les flux analytiques et une charge X
ek induite par les flux événementiels, tel qu'illustré par la formule suivante :

[0099] Les calculs qui suivent sont décomposés en deux étapes principales.
[0100] La première étape traite du premier banc de files d'attente gérées par priorités
fixes. La deuxième étape traite du deuxième banc de files d'attente gérées par gestion
équitable de bande passante avec pondération.
[0101] Pour le premier banc de files d'attente, le taux maximal d'émission TME est partagé
selon le procédé de gestion des files d'attentes par priorités, ordonnancées dans
l'ordre 1, 2, 3, ..., K.
[0102] Pour les files d'attente k appartenant au premier banc, la charge totale est donnée
par :

[0103] Si on considères une file d'attente k contenant des flux événementiels, la charge
X
ek est donnée par:

[0104] Pour la file d'attente k, contenant des flux analytiques, la charge X
ak, est donnée par :

[0105] En outre, la charge X
ak induite par chaque flux analytique i dans la file d'attente k peut être déterminée
pour chaque flux analytique i selon l'équation suivante :

[0106] Les valeurs de charge X
ek et X
aik constituent des données d'évaluation analytique de la charge (DEAC).
[0108] Un calcul des données d'évaluation analytique de restitution (DEAR) est ensuite réalisé
suite au calcul des données d'évaluation analytique de la charge (DEAC). Ce calcul
est réalisé pour chaque file d'attente k recevant au moins un flux analytique i selon
les formules suivantes :

[0109] Ces valeurs d
aik constituent des données d'évaluation analytique de restitution (DEAR).
[0110] Un paramètre de taux de service équivalent TRFE(k) est calculé pour chaque file d'attente
k, appartenant au premier banc et recevant au moins un flux événementiel. Ce paramètre
TRFE(k) est une solution du système du second ordre suivant :

[0111] Pour le deuxième banc de files d'attente (K+1, K+2, ..., K+N) le taux maximal d'émission
(TME) est partagé selon le procédé de gestion équitable de bande passante avec pondération
des files d'attentes.
[0113] Soit X
k la charge totale, en nombre de paquets, dans les file d'attente k, k ∈ {K+1,...K+N},
du deuxième banc. Comme pour le premier banc, cette charge peut être décomposée en
une charge X
ak induite par les flux analytiques et une charge X
ek induite par les flux événementiels, tel qu'illustré par la formule suivante :

[0114] Pour les files d'attente k appartenant au deuxième banc, la charge totale est donnée
par :

k ∈ {K+1,...K+N}
[0115] Pour les files d'attente k appartenant au deuxième banc, la charge analytique est
donnée par :

[0116] Pour les files d'attente k appartenant au deuxième banc, la charge événementielle
est donnée par :

[0117] Il faut considérer deux cas particuliers où N=2 et N=1, c'est à dire les cas où les
files à gestion équitable de bande passante avec pondération du deuxième banc sont
au nombre de deux ou de un.
[0119] Le cas N=1, donne une équation différente pour la charge totale des files k, pour
k ∈ {K+1}, l'équation de la charge analytique et événementielle restant identique.
En fait dans ce cas, il n'y a plus de gestion équitable de bande passante avec pondération
entre les files d'attente du deuxième banc puisque ce deuxième banc se réduit à une
seule file d'attente. Dans ce cas la file d'attente K+1, est vue comme une file prioritaire
d'indice K+1 :

[0120] Si on considère la file d'attente K+1 composée des flux événementiels, la charge
X
ek est donnée par:

[0121] Pour la file d'attente K+1, composée de flux analytiques, la charge X
ak est donnée par:

[0122] En outre, la charge X
aik+1 induite par chaque flux analytique i dans la file d'attente K+1 peut être déterminée
pour chaque flux analytique i selon l'équation suivante :

[0123] Pour tous les cas précédemment décrits pour le deuxième banc de files d'attente k,
k ∈ {K+1,...K+N}, ordonnancées par gestion équitable de bande passante avec pondération,
et pour les files d'attente k, traversées par au moins par un flux événementiel de
taux λ
ek, un paramètre de taux de service équivalent TRFE(k) est calculé par la résolution
du système du second ordre suivant :

[0124] Lors de la mise en oeuvre du procédé, le calcul des données d'évaluation statistique
de réception DESR, le calcul des donnée d'évaluation analytique de la charge DEAC,
le calcul des données d'évaluation analytique de la restitution DEAR et le calcul
des paramètres TRFE(k) est répété pour chaque itération de l'étape 400 d'évaluation
du procédé.
EXEMPLE 1 :
[0125] Dans le premier exemple et le deuxième exemple de mise en oeuvre du procédé d'évaluation
de l'invention le troisième flux 43 et le quatrième flux 44 du port 4 constituent
chacun un flux événementiel tandis que le premier flux 41 et le deuxième flux 42 constituent
chacun un flux analytique.
[0126] La figure 7 représente le port 4 du dispositif 16 matériel selon le premier exemple
de mise en oeuvre du procédé d'évaluation de l'invention. La figure 6 représente le
principe d'évaluation hybride par superposition tel que réalisé dans le premier exemple
de mise en oeuvre du procédé d'évaluation de l'invention.
[0127] Ce premier exemple est une application particulière du modèle générique dans le cas
où K=1 et N=0.
[0128] Dans cet exemple la discipline d'attente dans la file d'attente est de type premier
arrivé premier servi. On suppose par ailleurs que les paquets 5 entrants des flux
événementiels et analytiques arrivent suivant un processus de Poisson et que la taille
des paquets de ces flux (analytiques et événementiels) suit une distribution Générale
Indépendante de moyenne D et de moment d'ordre 2 σD. On notera σDe le moment d'ordre
2 du flux agrégé de paquets correspondant aux flux événementiels 43 et 44.
[0129] Dans ce premier exemple, une seule valeur λe de débit entrant est calculée pour l'ensemble
des flux 43, 44 événementiels. Cette valeur est calculée et mémorisée à partir de
données événementielles de réception DER descriptives d'événements chronologiques
de réception de paquets 23, 24 des flux 43, 44 événementiels. L'équation suivante
précise ce calcul :

où λ
e43 et λ
e44 sont les débits, en nombre de paquets par unité de temps, de parquets entrants des
flux événementiels 43 et 44, respectivement.
[0130] De préférence, la valeur λ
e correspond à une valeur de débit moyen sur un intervalle de temps Δt
p correspondant, tel que décrit ci-après, à une itération courante du procédé d'évaluation
de l'invention. En pratique, λe peut être obtenu par dénombrement des événements chronologiques
de réception survenant sur cet intervalle Δt
p et par division du nombre obtenu par la durée de l'intervalle de temps Δt
p. Dans cet exemple la valeur λe ainsi calculée constitue les données d'évaluation
statistique de réception DESR.
[0131] A titre illustratif, la figure 8 est un graphique représentant, en ordonnées, l'évolution
dans le temps, représenté en abscisses, de la charge, en nombre de paquets, d'une
file d'attente virtuelle, telle que décrite ci-après, de type premier arrivé premier
servi de paquets en fonction d'événements chronologiques de réceptions et d'événements
chronologiques de restitutions de paquets. Chaque événement chronologique de réception
d'un paquet est représenté par une flèche dont la position en abscisses indique la
date de réception du paquet.
[0132] Suite au calcul des données d'évaluation statistique de réception DESR, un calcul
des données d'évaluation analytique de la charge DEAC est effectué pour l'intervalle
de temps Δt
p correspondant, tel que décrit ci-après, à une itération courante du procédé d'évaluation
de l'invention. Dans cet exemple, ce calcul est réalisé selon un modèle analytique
de type M/G/1 de la file d'attente.
[0133] Soit λ le débit total de paquets entrants des flux événementiels et des flux analytiques
dans la mémoire tampon, λa le débit de paquets entrants total des flux analytiques
de la file d'attente :

où λa
i est le débit, en nombre de paquets par unité de temps, de paquets entrants de chaque
flux analytique i=41,42 de la file d'attente.
[0134] Dans cet exemple, ces valeurs λa
j constituent les données analytiques de réception DAR.
[0135] Soit µ le taux moyen de restitution de paquets des flux de paquets entrants dans
la mémoire tampon (la moyenne du temps de traitement d'un paquet étant 1/µ) :

[0137] En outre :

τ est le moment d'ordre 2 du temps de service des paquets des flux (analytiques et
événementiels) entrant dans file d'attente. τ
e est le moment d'ordre 2 du temps de service des paquets des flux événementiels 43
et 44 entrant dans file d'attente.
[0139] Dans cet exemple, la charge totale de la mémoire tampon est donnée par:

[0140] Cette charge peut être décomposée en une charge Xa induite par les flux analytiques
et une charge Xe induite par les flux événementiels, tel qu'illustré par la formule
suivante :

[0141] La charge Xe induite par les flux événementiels dans la file d'attente peut être
déterminée par la formule suivante :

[0142] En outre, la charge Xa
i induite dans la file d'attente est déterminée pour chaque flux analytique i selon
l'équation suivante :

[0143] Ainsi, une valeur Xa
1 représentative de la charge induite par le premier flux 41 dans la file d'attente,
une valeur Xa
2 représentative de la charge induite par le deuxième flux 42 dans la file d'attente,
ainsi qu'une valeur Xe représentative de la charge induite par les flux événementiels
43, 44 dans la file d'attente sont calculées et mémorisées pour le port 4.
[0145] Un calcul de données d'évaluation analytique de restitution DEAR peut être ensuite
réalisé suite au calcul des données d'évaluation analytique de la charge DEAC. Ce
calcul est réalisé selon les formules suivantes :

où da
i est le débit de paquets 7 sortants issus du flux analytique i.
[0146] Ainsi, une valeur da
1 représentative du débit de paquets 7 sortants issus du premier flux 41 ainsi qu'une
valeur da
2 représentative du débit de paquets 7 sortants issus du deuxième flux 42 sont calculées
et mémorisées pour le port 4. Ces valeurs da
1 et da
2 constituent des données d'évaluation analytique de la restitution DEAR.
[0147] Dans cet exemple, suite au calcul des données d'évaluation analytique de la charge,
un paramètre TRFE de taux de restitution, par la file d'attente, de paquets 7 sortants
issus du troisième flux 43 et du quatrième flux 44 est calculé en résolvant le système
de deuxième ordre suivant :

[0148] Ce paramètre TRFE permet de calculer, dans une sous étape d'évaluation de la transmission
des flux événementiels tel que décrit ci-après, des dates d'événements chronologiques
de restitution
EXEMPLE 2 :
[0149] La figure 10 représente le port 4 du dispositif 16 matériel dans le deuxième exemple
de mise en oeuvre du procédé d'évaluation de l'invention. La figure 11 représente
le principe d'évaluation hybride par superposition tel que réalisé dans le deuxième
exemple de mise en oeuvre du procédé d'évaluation de l'invention.
[0150] Dans cet exemple, la discipline d'attente est de type premier arrivé premier servi.
Par ailleurs, on suppose dans ce deuxième exemple que les paquets entrants des flux
(analytiques et événementiels) arrivant dans chaque mémoire tampon suivent un processus
de Poisson et une loi de service dépendant directement de la distribution des tailles
des paquets ; dans cet exemple cette distribution des tailles des paquets est de type
Générale indépendante. Aussi, on considère une capacité infinie pour les files d'attentes.
[0151] D'autre part, les mémoires tampon sont gérées suivant un ordonnancement par priorités.
Dans un tel type d'ordonnancement, les paquets de la file d'attente 1 sont toujours
traités avant ceux des files d'attente 2, 3, ... K, où K est le nombre de files d'attente
dans le port. De même, les paquets de la mémoire tampon 2, si la mémoire tampon 1
est vide (aucun paquets présent), sont toujours traités avant ceux des mémoires tampon
3, 4, ... K. Il en est ainsi de toutes les mémoires tampon, où l'indice indique non
seulement le numéro de la file d'attente mais aussi son ordre de priorité. Cet exemple
illustre le calcul de chaque paramètre TRFE(k) associé à une file d'attente k du port.
[0152] Cet exemple est une application particulière du modèle générique dans le cas où K=3
et N=0.
[0153] Considérons les notations suivantes :
Dk : la moyenne des tailles des paquets (par exemple donné en bits) entrants des flux
événementiels et/ou analytiques de la file d'attente k,
σDk : le moment d'ordre 2 des tailles des paquets (par exemple donné en bits) des flux
de paquets entrants de la file d'attente k,
σDek : le moment d'ordre 2 des tailles des paquets des flux événementiels de paquets entrants
dans la file d'attente k.
[0154] Dans ce cas particulier le taux maximal d'émission TME est partagé selon le procédé
de gestion des files d'attentes par priorité, ordonnancées dans l'ordre 1, 2, 3, ...,
K.
[0155] Dans ce deuxième exemple, une valeur λe
k est calculée pour chaque file d'attente recevant au moins un flux événementiel. Cette
valeur est calculée à partir de données événementielles de réception DER descriptives
d'événements chronologiques de réception de paquets des flux événementiels. L'équation
suivante illustre le principe de son calcul :

où λej
k est le débit, en nombre de paquets par unité de temps, de paquets entrants de chaque
flux événementiel j de la file d'attente k.
[0156] Ainsi, une valeur λe
1 de débit entrant du troisième flux 43 dans la première file d'attente 51 et une valeur
λe
3 de débit entrant du quatrième flux 44 dans la troisième file d'attente 53 sont obtenues.
[0157] De préférence, ces valeur λe
k correspondent chacune à une valeur de débit moyen sur un intervalle de temps Δt
p correspondant, tel que décrit ci-après, à une itération courante du procédé d'évaluation
de l'invention. En pratique, chaque λe
k peut être obtenu par dénombrement des événements chronologiques de réception survenant
sur cet intervalle Δt
p et par division du nombre obtenu par la durée de l'intervalle de temps Δt
p. Dans ce deuxième exemple, les valeurs λe
1 et λe
3 ainsi obtenues constituent les données d'évaluation statistique de réception DESR.
[0158] Suite au calcul des données d'évaluation statistique de réception DESR, un calcul
des données d'évaluation analytique de la charge DEAC est effectué pour l'intervalle
de temps Δt
p correspondant, tel que décrit ci-après, à une itération courante du procédé d'évaluation
de l'invention. Dans cet exemple, ce calcul est réalisé selon un modèle analytique
de type M/G/1 pour chaque file d'attente k.
[0159] Soit λa
k le débit de paquets entrants des flux analytiques dans la file d'attente k (de préférence
en paquets par seconde) :

où λa
ik est le débit, en nombre de paquets par unité de temps, de paquets entrants de chaque
flux analytique i de la file d'attente k.
[0160] Dans cet exemple, ces valeurs λa
ik constituent les données analytiques de réception DAR.
[0161] En outre :

et

où µ
k est le taux moyen de service des paquets des flux entrants dans la file d'attente
k, τ
k est le moment d'ordre 2 du temps de service des paquets des flux entrants dans file
d'attente k et τe
k est le moment d'ordre 2 du temps de service des paquets des flux événementiels entrants
dans file d'attente k.
[0162] Pour chaque file d'attente k on calcule les quantités suivantes :

[0163] On calcule de plus les quantités suivantes :

[0164] Soit X
k la charge totale, en nombre de paquets, dans la file d'attente k. Cette charge peut
être décomposée en une charge
Xak induite par les flux analytiques et une charge
Xek induite par les flux événementiels, tel qu'illustré par la formule suivante :

[0165] Dans cet exemple, la charge totale de la mémoire tampon k est donnée par:

[0166] Si on considère une mémoire tampon k composée d'au moins un flux événementiel, la
charge Xe
k est donnée par:

[0167] En outre, la charge Xa
ik induite par chaque flux analytique i dans la file d'attente k peut être déterminée
pour chaque flux analytique i selon l'équation suivante :

[0168] Ainsi, une charge analytique Xa
11 représentative de la charge induite par le premier flux 41 dans la première file
d'attente 51 ainsi qu'une charge analytique Xa
12 représentative de la charge induite par le troisième flux 43 dans la première file
d'attente 51 sont calculées. En outre, une charge événementielle Xe
2 représentative de la charge induite par le deuxième flux 42 dans la deuxième file
d'attente 52 et une charge événementielle Xe
3 représentative de la charge induite par le quatrième flux 44 dans la troisième file
d'attente 53 sont calculées. Ces valeurs de charge Xe
1, Xa
11, Xa
12 et Xe
3 constituent des données d'évaluation analytique de la charge DEAC. A noter que dans
cet exemple, les valeurs de Xe
2 et Xa
13 sont nulles puisque aucun flux événementiel ne correspond à la deuxième file d'attente
52 et qu'aucun flux analytique correspond à la troisième file d'attente 53.
[0170] Un calcul des données d'évaluation analytique de restitution DEAR est ensuite réalisé
suite au calcul des données d'évaluation analytique de la charge DEAC. Ce calcul est
réalisé pour chaque file d'attente k recevant au moins un flux analytique i selon
les formules suivantes :

[0171] Ainsi, une valeur da
11 représentative du débit de paquets 7 sortants issus du premier flux 41 dans la première
file d'attente 51 est calculée ainsi qu'une valeur da
12 représentative du débit de paquets 7 sortants issus du deuxième flux 42 sont calculés
et mémorisés pour le port 4 dans cet exemple. Ces valeurs da
11 et da
12 constituent des données d'évaluation analytique de la restitution DEAR.
[0172] Dans cet exemple, un paramètre TRFE(k) est calculé pour chaque file d'attente k recevant
au moins un flux événementiel, c'est à dire pour les files d'attentes 51 et 53. Ainsi,
un paramètre TRFE(1) est calculé pour la première file d'attente 51 et un paramètre
TRFE(3) est calculé pour la troisième file d'attente 53. Ces paramètres TRFE(k) sont
des solutions du système du 2
nd ordre suivant :

[0173] Dans ce deuxième exemple de mise en oeuvre, le calcul des données d'évaluation statistique
de réception DESR, le calcul des données d'évaluation analytique de la charge DEAC,
le calcul des données d'évaluation analytique de la restitution DEAR et le calcul
des paramètres TRFE(1) et TRFE(3) est répété pour chaque itération de l'étape d'évaluation,
décrite ci-après, du procédé d'évaluation de l'invention.
[0174] Les paramètres TRFE(1) et TRFE(3) sont ainsi calculés et mémorisés en vue de l'évaluation
de la transmission des flux événementiels de l'itération subséquente de l'étape d'évaluation,
telle que décrite ci-après.
1. Verfahren zur digitalen Bewertung eines Datenübertragungsnetzes, welches eine Vielzahl
von Knoten (1) und sich zwischen den Knoten (1) erstreckende Datenübertragungsverbindungen
(2) umfasst, wobei jeder Knoten (1) wenigstens eine Eingangs- oder Ausgangsschnittstelle
(11, 12) umfasst, die eine Vielzahl von Warteschlangen umfasst, wobei jede Warteschlange
ausgelegt ist, um Daten in der Form von analytischen Ströme oder von Ereignisströmen
zu empfangen, wobei die Datenströme in den Warteschlangen in Abhängigkeit von dem
Strom zugeordneten Dienstklassen eingeteilt werden,
wobei das Verfahren Schritte umfasst, die darin bestehen:
- Schnittstellen zu identifizieren, die einen hybriden Betriebsmodus aufweisen, von
denen jede wenigstens einen Datenereignisstrom und wenigstens einen analytischen Datenstrom
empfängt,
- für jede Schnittstelle, die eine hybride Funktionsweise aufweist, Bestimmen für
die von der Schnittstelle empfangenen Ereignisdatenströme einer gegebenen Dienstklasse
(k) einer äquivalenten virtuellen Warteschlange, die der gegebenen Dienstklasse (k)
zugeordnet ist, wobei die äquivalente virtuelle Warteschlange eine äquivalente Dienstrate
(TRFE(k)) aufweist, mit dem Ziel das Datenübertragungsnetz zu bewerten, indem der
Schnittstelle die äquivalente virtuelle Warteschlange zugeordnet wird, die die Ereignisdatenströme
der gegebenen Dienstklasse (k) empfängt.
2. Verfahren gemäß Anspruch 1, welches einen früheren Schritt umfasst, der darin besteht
für eine Vielzahl von Datenströmen, die analytische Datenströme und Ereignisdatenströme
umfassen, denen Dienstklassen (k) zugeordnet sind, Routingwege zu bestimmen, wobei
jeder Weg durch eine Vielzahl von Knotenschnittstellen verläuft.
3. Verfahren gemäß Anspruch 1 oder 2, bei dem der Schritt der Bestimmung einer äquivalenten
virtuellen Warteschlange Unterschritte umfasst, die darin bestehen:
- die von der Schnittstelle empfangenen Ereignisdatenströme einer Dienstklasse (k)
in einen äquivalenten analytischen Strom (λek) umzuwandeln, und
- die äquivalente Dienstrate (TRFE(k)) in Abhängigkeit eines Dienstgesetzes (F) zu
bestimmen, das die von der Schnittstelle empfangenen Datenströme unter Berücksichtigung
des äquivalenten analytischen Datenstroms regelt.
4. Verfahren gemäß Anspruch 3, bei dem das Dienstgesetz (Γ) die analytischen Datenströme
und die äquivalenten analytischen Datenströme verschiedener Dienstklassen (k=1...K)
berücksichtigt, die in die verschiedenen Warteschlangen der Schnittstelle (11, 12)
eingeteilt sind.
5. Verfahren gemäß einem der Ansprüche 3 oder 4, bei dem der Schritt der Bestimmung einer
äquivalenten Dienstrate einen Unterschritt umfasst, der darin besteht:
- den äquivalenten analytischen Strom (λek) mit analytischen Strömen (λak) zu aggregieren, die von derselben Warteschlange (k) empfangen werden wie die Ereignisdatenströme,
- Lösen eines aggregierten Systems analytischer Gleichungen, die vom Dienstgesetz
(Γ) abhängen, in Abhängigkeit der aggregierten analytischen Ströme.
6. Verfahren gemäß Anspruch 5, bei dem die Lösung des aggregierten Gleichungssystems
zum Erhalt einer Anzahl in derselben Warteschlange (k) aggregierter Datenpakete führt.
7. Verfahren gemäß einem der Ansprüche 5 oder 6, bei dem das Gleichungssystem die folgenden
Parameter berücksichtigt:
- einen Wert der mittleren Größe der Datenpakete,
- einen Varianzwert der Datenpakete,
- einen mittleren Wert der Ankunftsdurchflüsse der Datenpakete für jeden Strom, und/oder
- eine Paketreihung, die auf die Warteschlangen der Schnittstelle angewendet wird.
8. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem der Schritt der Bestimmung
einer äquivalenten Dienstrate (TRFE(k)) die folgenden Parameter berücksichtigt:
- eine mittlere Größe der Pakete (Dk) der von der Warteschlange (k) der Schnittstelle empfangenen Ströme,
- Momente der Ordnung 2 der Größe von Paketen (σDk, σDek) der von der Warteschlange (k) empfangenen Ströme,
- eine globale, der Schnittstelle zugeordnete Dienstrate (TME),
- ein der Schnittstelle zugeordnetes Dienstgesetz (Γ), und/oder
- einen Kapazitätsparameter (Ck) einer Warteschlange der Schnittstelle.
9. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem die Schnittstelle in eine
erste Bank zerlegt wird, die K Warteschlangen gemäß einer Paketreihung nach Prioritäten
enthält, sowie eine zweite Bank, die N Warteschlangen gemäß einer Paketreihung durch
gerechte Verwaltung der Bandbreite mit Gewichtung (αk) enthält.
10. Verfahren gemäß Anspruch 9, welches die Schritte umfasst:
- Auflösung der zweiten Bank, die daraus besteht, für jede Warteschlange (k, k ∈ {1,...N}) der ersten Bank, Lastwerte zu bestimmen, die den in der Schlange empfangenen Ereignisströmen
(Xek) und den analytischen Strömen (Xaik) zugeordnet sind, indem man die zweite Bank mit einer K+1-ten Warteschlange der ersten
Bank gleichstellt, dann
- Auflösung der ersten Bank, die darin besteht, für jede Warteschlange (k, k ∈ {N+1,...N+K}) der zweiten Bank Lastwerte zu bestimmen, die den in der Schlange empfangenen Ereignisströmen
(Xek) und analytischen Strömen (Xaik) zugeordnet sind.
11. Verfahren gemäß Anspruch 9 oder 10, bei dem der Auflösungsschritt der zweiten Bank
die Schritte umfasst, die darin bestehen:
- eine globale Last der N Warteschlangen der zweiten Bank zu berechnen,
- für jede Warteschlange k der zweiten Bank, Bestimmen einer minimalen Elementarlast
und einer maximalen Restlast, indem man berücksichtigt, dass der Gewichtungskoeffizient
der Schlange k maximal ist und dass ein Gewichtungskoeffizient der anderen, von k
verschiedenen Schlangen der zweiten Bank minimal ist, und Einteilen der Restlast der
Warteschlangen, die von k verschieden sind, im Verhältnis einer Verwendungsrate ρk dieser Warteschlangen,
- ausgehend von der globalen Last, der minimalen Last und der maximalen Last für jede
Warteschlange der zweiten Bank, Durchführen einer multilinearen Interpolation zwischen
den 2*N minimalen und maximalen Werten mit den Werten, die aus der Gewichtungsrate
αk der Warteschlangen k bekannt sind.
12. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem der Schritt der Bestimmung
einer äquivalenten Dienstrate (TRFE (k)) in einem regelmäßigen Zeitintervall (Δtp) erneuert wird.
13. Vorrichtung zur digitalen Bewertung eines Datenübertragungsnetzes, wobei die Vorrichtung
eine Verarbeitungseinheit umfasst, die ausgelegt ist, um die Schritte des Verfahrens
gemäß einem der Ansprüche 1 bis 12 auszuführen.