Affichage des articles dont le libellé est Réseau haut débit. Afficher tous les articles
Affichage des articles dont le libellé est Réseau haut débit. Afficher tous les articles

lundi 17 novembre 2014

Réseau à haut débit (suite1)

Les Technologies à Haut DébitŒ 

  • Les solutions locales
  Comment accroître les débits des réseaux locaux existants?
-         Augmenter les capacités de transfert de données des supports de transmission
-         Diminuer la longueur max du support
-         Intervenir au niveau du codage de l'information
-         Réduire le temps d'accès au support en intervenant au niveau de la méthode d'accès

LAN de 2ème Génération :

Œ·         Ethernet à très Haut Débit
  Une offre d'Ethernet à débit élevé s'est développée, car Ethernet est le plus répandu des LAN. Elle fait appel à 3 principales technologies :
-         Fast Ethernet : 100Base T
-         Switched Ethernet et VLAN
-        100 VG Any LAN
·         Avantages:
-         Conservation du format des trames et donc compatibilité avec les réseaux existants
-         Réutilisation du câblage existant et donc réduction des coûts(paire torsadée)
-         Architecture de réseau en étoile sur des distances limitées
·            FDDI I et II

Switched LAN :

·         Une technologie qui conserve un débit d'accès à 10Mbps pour chaque utilisateur et donc améliore l'utilisation de la BP
·         Le hub est remplacé par un commutateur rapide, qui établit un CV commuté entre 2 correspondants
·         l'utilisateur ne modifie pas les cartes sur les stations
·         Les paires torsadés raccordées au commutateur sont utilisées en Full duplex avec le même débit d'accès dans chaque sens.

·         très peu de collisions, limité au cas où 2 stations veulent émettre vers un même destinataire.

Switched Ethernet :


Critères de choix d’un switch :

®  Configuration
  • Configuration
-        Fixe: boitiers, impossibilité d’ajouter des fonctions ou d’options supplémentaires
-        Empilable: plusieurs boitiers empilés via un câble particulier pour former une seule unité
-         Modulaire: châssis avec cartes modulaires

  • Densité de ports: nombre de ports
  •  Débits de transfert des ports: 100/1000
  • Agrégation de liaisons
  • Support de PoE
  • Supporte le routage inter-vlan (switch de niveau 3)

Agrégation de liens :

  • Il s'agit de créer une liaison logique (PortChannelx, x étant le numéro du port) associée à plusieurs ports physiques. Le débit obtenu est la somme des débits des ports agrégés
  • Les ports doivent avoir le même débit et le même mode de fonctionnement
  • Cette technique est normalisée: IEEE 802.3ad
  • Etherchannel, de cisco se charge de:
-         faire du load balancing en répartissant le trafic sur les ports physiques.
-        Faire du failover en renvoyant immédiatement le trafic sur un autre port du groupement si un port physique « tombe ».

  • Etherchannel permet aussi d'appliquer de façon globale des configurations sur tous les ports d'un même groupement
  • Sur les switch fédérateur seulement(multi-couches)

PoE IEEE 802.3af :

  • Le Power Over Ethernet est défini par le standard IEEE802.3af et est considéré comme étant la première norme internationale de distribution d'énergie. 
  • Cette technologie permet de transférer le courant et les données sur les paires torsadées, de longueur limitée à 100m et de catégorie >= 5
  • L’Ethernet utilise en général uniquement les fils 1, 2, 3 et 6 pour transporter les données, pour le courant ce seront donc les fils 4, 5, 7 et 8 qui seront utilisées. En amont, le module PSE (Power Source Equipement) devra identifier si le terminal est compatible avec la norme. S’il ne l’est pas, le courant peut passer par les paires 1, 2, 3 et 6 et ainsi corrompre les données.
  • Lors de coupures d'électricité, le PoE assure un fonctionnement continu des appareils connectés à distance tels que les téléphones IP, les points d'accès de réseau LAN sans fil et les caméras de sécurité IP, lorsqu'elle est utilisée conjointement avec une alimentation électrique centralisée sans interruption (UPS).
  • il permet d’économiser près de 50% des coûts globaux d'installation, évitant ainsi l’installation d’un câblage électrique et de prises de courant séparées.

Les midspans :

  • Les Midspans (dispositifs intermédiaires) PoE offre une solution économique de mise à niveau de systèmes à la norme IEEE 802.3af, sans avoir à remplacer le commutateur Ethernet existant.
  • Généralement installé dans l'armoire de câblage, le Midspan se trouve entre le commutateur Ethernet et les appareils alimentés et injecte la puissance définie par la norme IEEE 802.3af.
  • Les Midspans fournissent un maximum de 15,4 watts (48 v) par port, ce qui est une alimentation suffisante pour des téléphones IP (consommant généralement 3-5 watts), des points d'accès de réseau LAN sans fil (6 à 12 watts) et les caméras de sécurité (10 à 12 watts).

Avantages de la technologie PoE :

·         Baisse des coûts: Retour sur investissement incroyable
-         Réduction de près de 50% du coût global d'installation car la PoE ne nécessite pas un câblage spécifique et des prises électriques séparées.
-         Utilisation possible d'une unité centralisée d'alimentation de secours (UPS) pour maintenir l'alimentation des appareils durant d’éventuelles pannes de courant.
-         Gestion centralisée de la puissance pour une optimisation de l’utilisation de l’énergie, des coûts moindres en électricité, ainsi que des capacités de dépannage améliorées.
-         Protection de votre investissement dans les systèmes existants conformes aux normes.
·         Fiabilité: Une seule unité UPS et pas de mise hors service
-         Fonctionnement continu même en cas de coupure de courant grâce à une unité centralisée d'alimentation de secours pour alimenter des périphériques distants.
-         Détection intelligente de périphériques vérifiant que les appareils connectés peuvent s'adapter à la réception de signaux de puissance.
-        Protection des terminaux et du câblage en conformité avec la norme 802.3af.
·         Sécurité du réseau: Accès distant aux périphériques IP
-        Accès à distance et gestion par contrôle SNMP basé sur explorateur Web.

-        Possibilité de désactiver à distance des appareils IP pour améliorer la sécurité du réseau.

Modèle de réseau commuté hiérarchique :

·         Pour satisfaire les besoins des moyennes et grandes entreprises, il faut utiliser un modèle de conception hiérarchique
·         Un modèle à trois niveaux:
ü   Niveau accès: permet aux utilisateurs répartis dans les groupes de travail d’accéder au réseau: les équipements utilisés sont des hub ou des switch (catalyst 2950, 4000 et 5000)
ü   Prise en charge des aspects suivants:
-         Sécurité des ports
-         Débit de 100Mbps à 1Gbps
-         PoE
-         Agrégation de liens vers les switch de niveau supérieur
-         Gestion de la QOS
-         VLAN
ü  Niveau distribution: assure une connectivité basée sur les politiques d’administration et de sécurité. Elle assure:
-        Le regroupement des connexions du local technique
-         Débit de gigabit
-         Le routage inter VLAN et QOS
-         Redondance des composants et de liens
-         Stratégies de sécurité
-        Les équipements: switch de niveau 2 ou 3 (2926, 3550, 5000 et 6000)
ü  Niveau principal: assure l’optimisation du transport entre les sites: backbone de commutation à haut débit
-         Switch de niveau 3 (6500 et 8500)

·         Ces 3 niveaux peuvent exister en entités physiques distinctes ou combinées dans une ou deux entités.

Modèle hiérarchique :


Avantages d’un réseau hiérarchique :

  • Évolutivité
-         les réseaux hiérarchiques peuvent être aisément étendus
  • Redondance
-         La redondance aux niveaux des couches distribution et backbone garantit la disponibilité de chemins d’accès
  • Performances
-         l’agrégation de liens entre les niveaux et les switch permet de bénéficier de grande vitesse
  • Sécurité
-         la sécurité des ports et les stratégies de sécurité au niveau distribution améliore la sécurité du réseau
  • Facilité de gestion
-         la cohérence entre les switch de chaque niveau facilite la gestion
  • Maintenance  
 la modularité de la conception hiérarchique permet une mise à l’échelle du réseau sans trop de complexité

dimanche 16 novembre 2014

Réseau à haut débit

Introduction

  • But : Faire le point sur les technologies et les architectures des réseaux à haut débit, et de leurs caractéristiques.
  • Objectif : ce cours présente les nouvelles classes d'applications, leurs besoins et leurs contraintes, ainsi que l'ensemble des techniques nécessaires à la construction de réseaux à haut débit et notamment la transmission et la commutation de données à plusieurs Mbit/s

Plan du cours

ü  Etat actuel des réseaux de communication/Problématique
ü  Motivations pour le développement à HD
-        Evolution des technologies
-        Evolution des besoins
-         Définition de la QOS
-        Classification des applications
ü  Les solutions à haut débit
-        LAN à très haut débit
·         LAN de 3ème génération Gb/s LAN
·         Réseaux d’interconnexion: 10giga Ethernet, EFM
·         Réseaux d’interconnexion: 10giga Ethernet, Ethernet carrier grade
·         Réseaux mobiles à haut débit
-         Les solutions longue distance
·         Techniques de transmission à haut débit: , xDSL, SDH, WDM
·         Frame Relay

·         la technologie ATM

Quelle définition pour  les Hauts Débits?

ü  Notion problématique se réfère à un contexte technologique daté
ü  Un débit élevé est un débit > à la pratique courante du moment
ü  Le haut débit n'a de sens en dehors des services et usages qu'il autorise
ü  La définition du HD n'est pas homogène sur l'ensemble d'un réseau.
·          Réseaux de transport :
-        Réseaux publics: de qq Kbps à 2Mbps
-         Réseaux locaux: qq Mbps à 10 Gbps

·          Réseaux d'interconnexion : >100 Mbps 

Etat actuel des Réseaux

  • Réseaux spécialisés: un réseau par type de service(application)
ü  Réseau Télex : transfert de messages à 300bps
ü   RTC : analogique puis numérique avec un débit de 64Kbps
ü   TV : diffusion sur support ondes radio (UHF, VHF); par satellite, TV câblée
ü   Réseaux informatiques : transfert de données
-         X.25 < 2 Mbps
-         LAN de 4 à 100Mbps

-         TCP/IP : Internet

Motivations pour le développement à HD

ü  Evolution des technologies
-         Micros et stations très rapides È le réseau devient un goulot d ’étranglement
-         Les LAN offrent des débits >100 Mbps
-         Baisse des prix des micros et stations au détriment des mainframes
-         Connectivité à Internet
-         Support   de transmission plus fiables; fibre optique
ü  Evolution des besoins
-         Du texte vers l’image È augmentation du volume de données È compression
-         Intégration des réseaux et services
-         Nouveaux services avec des contraintes différentes

-         Interconnexion de réseaux existants sur de longues distances

Apport de l’intégration de services :

  • 3 points de vue:
-         Utilisateur des services: avoir la QOS souhaitée via un accès unique (interface normalisée)
-         Technologie utilisée: grande capacité des nouveaux systèmes de transmission (FO, SDH, ADSL, techniques de commutation et de multiplexage, etc…)

-         Concepteur réseau: optimiser les ressources, réduire les coûts des équipements, simplifier le câblage, faciliter la maintenance, simplifier la facturation des clients

Problématique :

  • Besoins en débits plus importants :
-         Échange de données plus important
-         Applications multimédia
-         Numérisation audio et vidéo
  •  Besoins en QOS(multimédia)

Les services ont des contraintes différentes en terme de QOS.

Caractéristiques des flux multimédias :

  • Signaux audio et vidéo numérisés
-         norme G.7xx de l’IUT-T; codec PCM(MIC), ADPCM, MPEG et JPEG, etc.

  • Synchronisation entre l’émetteur et le récepteur
  • Augmentation du volume des données transférées
  • Diffusion entre l’émetteur et plusieurs récepteurs pour la téléconférence (Multicast)

Spécificités du trafic multimédia :

    • Débit(s): plus élevés que pour les données
    -         Constant Bit Rate (CBR)
    -         Variable Bit Rate (VBR) _à ABR et UBR
    •  Délais de transit (latence) : temps qui s’écoule entre l’envoi d’un mot et sa restitution côté récepteur
    -        Pas d’interactivité : délais longs acceptables: la norme G.114 préconise un délai de 400ms pour le RTC
    -        Interactivité : < 200 ms, de préférence <150ms
    •  Gigue faible indispensable: variation des délais de transit due à la charge du réseau; Permet de savoir si les paquets arrivent de façon régulière. on utilise des tampons mémoire pour compenser la gigue
    • L’écho: provient de la réflexion du signal sur le câble( convertisseurs 2fils/4fils présents sur le RTC sur de longues distances). L’écho est perceptible si délai de transit >25 ms. Sinon on utilise les suppresseurs d’écho (G.165). 2 types d’écho: local, généré par les terminaux  lointain , généré à partir du passage 2fils vers 4 fils(rupture d’impédance);
    • Perte de paquets tolérée: mesure le nombre de paquets perdus
    •  Excellent  <5% ;  Bon < 10%;   Pauvre >10%   et très mauvais >15%
    La gigue: la variation ou déviation standard dans le temps d’arrivée des paquets. Une gigue élevée produirait une qualité irrégulière du son ou de l’image. La gigue peut être limitée en calculant le temps de transit attendu de chaque saut sur le chemin. Lorsqu’un paquet arrive sur le routeur, celui-ci vérifie la variation plus ou moins par rapport au temps prévu. Cette information est inscrite dans le paquet et adaptée à chaque saut. Si le paquet arrive en avance, il est retenu suffisamment longtemps pour le rapprocher du délai prévu. S’il est en retard, le routeur l’expédie le plus vite possible. Dans certaines applications, telle que la vidéo à la demande, la gigue peut être éliminée par l’utilisation d’un tampon sur le récepteur. Ainsi, la diffusion des images se fait par lecture à partir du tampon et non du réseau en temps réel(non adéquate pour les applications interactives telle que la téléphonie ou la vidéoconférence via l’internet).

Codec Audio & vidéo :

Un flux est une séquence de paquets entre une source et une destination. Les besoins de chaque flux sont caractérisés par les paramètres de QOS suivants:
            - fiabilité (sémantique);
            - bande passante (débit);
            - temps d’acheminement et gigue (temporelles);
            - mode de connexion: connecté ou sans connexion.




Le parfait codec :


  • Econome en bande passante
  • Un bon MOS(Mean Opinion Score) qui exprime la qualité sonore des codecs sur une échelle de 1 à 5
-         4<MOS<5: haute qualité
-         3,5<MOS<4: qualité standard
-         3<MOS<3,5: qualité moyenne

-         2,5<MOS< 3: communication possible

Qualité de service (QOS) :

  • La Qualité de Service (QoS) est la capacité à véhiculer dans de bonnes conditions un type de trafic donné, en termes de disponibilité, débit, délais de transit, taux de perte de paquets…
  • QOS demandée par l’application ou QOS offerte par le réseau – avec quelle garantie?
  • Paramètres de la QOS
-         Débit(s)
-         Délais de bout en bout
-         Gigue (variation de délais)
-         Taux d’erreurs
-         Taux de perte de paquets ou trames

La notion de QOS recouvre un ensemble de techniques destinées à offrir de bout en bout aux applications le service dont elles ont besoin. Elle recouvre les 2 aspects: aspect temporel et aspect sémantique.

Types d’Applications :

  • Asynchrone
-         pas de contrainte de temps ni contrainte de débit.. Transfert de données (VBR)
-         Contraintes sémantiques
  • Synchrone
-         Délai de transmission borné; stockage important
-        trec- tem <= dm
-         Débit variable Vidéo et voix compressés (VBR)
-        Contrainte sémantique: essentiellement le taux de perte
  • Isochrone
-         variation statistique du délai; gigue constante; stockage réduit, exp voix et vidéo non compressés
-         Débit constant (CBR)

-         Moins de contraintes sémantiques
Contraintes sémantiques :
-        Délivrer les données au destinataire avec un taux d ’erreur borné; les paramètres de mesure sont:
·          BER (Bit Error rate): taux d ’erreur bit
·          PER(Packet Error Rate) : taux d ’erreur paquet -> CLR(Cell Loss Rate)

·          PLR (Packet Loss Rate): taux de perte de paquets

Paramètres de QOS :


Classification des applications :

  • Les applications de données n’ont pas un rythme imposé
-        Elles peuvent s’adapter aux conditions de congestion du réseau
-         Le débit et le délai peuvent fluctuer, faisant varier le niveau de confort de l’utilisateur
ü   Les applications non interactives (asynchrones) sont insensibles à ces fluctuations
ü  Les applications peu interactives (bulk) y sont peu sensibles
ü   Les applications interactives (burst) y sont les plus sensibles
-        Les applications ayant des gros transferts (bulk) et utilisant TCP accélèrent dés qu’elles le peuvent : elles sont dites « élastiques »
ü  Du fait du fonctionnement de TCP
ü  Ces applications, bien que peu exigeantes en général, sont dangereuses pour les autres applications
ü  Il faut donc les identifier
-         Les applications interactives ne sont pas élastiques
ü   Le débit qu’elles utilisent est lié à l’activité des utilisateurs, pas à l’état de congestion du réseau
ü  Ces applications ont un comportement statistiquement prévisible
  • Les applications temps réel (voix, vidéo) ont un rythme imposé (isochrone) qui doit se maintenir de la source au destinataire
-         Elles s’adaptent beaucoup plus mal à l’état de congestion du réseau
-         Le débit spécifié doit être assuré par le réseau sous peine de non fonctionnement
ü   Ce débit était constant dans le cas des codecs sans compression
ü  Le débit est variable quand les techniques de compression sont plus évoluées
-        Le délai doit être faible pour les applications temps réel interactives
ü  Téléphonie ou vidéoconférence
-         Le délai doit en tout cas être le plus constant possible
ü  La variation de délai (la gigue ou jitter) doit être faible
-        Les pertes de paquet ne sont pas récupérées par retransmission
-        Ces applications utilisent UDP, qui ne tient pas compte de l’état de congestion du réseau

ü  Ces applications doivent donc être protégées


A t-on besoin de traiter la QoS?

  • La bande passante au niveau LAN devient énorme et bon marché
-        100 Mbps, 1Gbps, 10 Gbps, …
-         On peut se permettre de surdimensionner les liaisons
  •  La bande passante interne aux WAN devient énorme aussi
-         Jusqu’à des Térabps dans une même fibre grâce à DWDM!
-         Les coeurs de réseau sont aujourd’hui surdimensionnés
  • La bande passante à l’interface LAN-WAN est en train d’exploser
-         Grâce à ADSL (de 512 Kbps à 20 Mbps) puis FTTH (50 à 100 Mbps)
  • Les commutateurs et routeurs sont de plus en plus puissants
-         Jusqu’à des dizaines de millions de paquets/s
Pourquoi ne pas simplement profiter du surdimensionnement des lignes et des équipements?

  • Sans ajouter un traitement de QoS qui risque de freiner les performances et augmenter le coût!

 Le traitement de la QoS est nécessaire :

  • Les différents types d’applications induisent des flux qui se contrarient
-        Les transferts de gros volumes (par exemple les transferts de fichiers) sont élastiques, et prennent toute la bande passante disponible
ü  Que ce soit 64 Kbps ou 100Mbps!
-        Les applications interactives (question/réponse) consomment une bande passante prévisible, mais exigent des délais courts
ü  Elles sont pénalisées par les transferts de fichiers
-         Les applications temps réel (téléphonie ou vidéo) ne sont pas élastiques (besoin borné en bande passante), mais elles doivent avoir un débit garanti, et un délai court et fixe
ü  Elles sont pénalisées par les applications de gros transferts
  •  Avoir une bande passante surdimensionnée ne suffit pas
-        Il faut empêcher les applications élastiques de prendre toute la bande passante
  • Avoir beaucoup de bande passante permet juste de simplifier le traitement de la qualité de service

-         Besoin de mécanismes de QoS simples, implémentés en hardware

Définition de la QoS :

ü  C’est l’assurance pour un élément (application, hôte, routeur, switch) que son trafic sera acheminé dans les conditions voulues et prévisibles
            – Le délai doit être compatible avec les besoins de l’application
            – La bande passante doit être disponible
            – Le taux de perte de paquets doit être compatible avec l’application
            – La QoS se focalise sur les périodes de congestion
ü   Le trafic doit être réparti en classes de service de façon à isoler les applications qui se contrarient
            - Cela suppose d’analyser les flux qui doivent transiter sur le réseau         

           - Chaque classe de service doit avoir les performances qui lui conviennent 


Stratégies de traitement de la qualité de service:

Cinq moyens complémentaires d’assurer la qualité de service
ü  Surdimensionnement de la capacité du réseau
ü  Utiliser des applications adaptatives
– Interpolation de données manquantes (temps réel)
– Émettre à débit variable en fonction de la congestion
– Buffers de réception pour compenser la gigue, …
ü  Traitement sélectif du trafic sans réservation préalable
– Le trafic est classifié, et le traitement différencié (DiffServ)
– Chaque classe a son traitement spécifique
• Files d’attente séparées
• Traitement spécifique en cas de congestion
– Les trafics à privilégier sont prioritaires
ü   Réservation dynamique de ressources
– Frame Relay, ATM, IntServ - RSVP
ü   Ingénierie de trafic
– Répartir le trafic dans le réseau en fonction de la bande passante disponible
- MPLS
  • Traitement de la QoS par flux élémentaire ou par flux agrégés?
  • Bilan du traitement par flux élémentaire
– Un flux élémentaire est un flux de bout en bout
De PC à Serveur, ou de téléphone à téléphone
– Chaque utilisateur définit ses besoins en QoS au travers d’une API
– Avantage : meilleure garantie de QoS pour chaque utilisateur
– Le traitement par flux élémentaire oblige les équipements réseau à gérer un grand nombre d’informations d’état
  • Bilan du traitement par flux agrégés
– C’est l’administrateur qui définit le traitement de QoS pour l’ensemble des flux d’une même classe de service
– On garantit une probabilité de bonnes performances
  • Tendance actuelle
– Traitement de la QoS par flux agrégés
– Compensation par le surdimensionnement et les applications adaptatives
– Contrats commerciaux (SLA) basés sur des probabilités de performances
  • Dans quelle couche OSI doit-on traiter la qualité de service?
ü  Traitement au niveau des couches supérieures?
– Oui si on veut compenser les imperfections résiduelles de QoS
– Par TCP (applications élastiques) ou par les applications adaptatives (VoIP)
ü  Traitement au niveau 3?
– Oui si on veut conserver une QoS sur l’ensemble du parcours
– Traitement dans les routeurs
ü  Traitement au niveau 2?
– Oui si on veut que la QoS soit homogène de bout en bout
– Traitement dans chaque commutateur de chaque sous-réseau multipoint
ü  Le traitement de la qualité de service est répartie dans toutes les couches
– La répartition des rôles est variable selon les modèles, c’est le résultat final qui compte!

·          Exemples : RTC, VoIP sur Internet, ToIP en entreprise