42
FASCICULE INFORMATIQUE GENERALE La téléinformatique

FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

  • Upload
    others

  • View
    5

  • Download
    1

Embed Size (px)

Citation preview

Page 1: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

FASCICULE INFORMATIQUE GENERALE

La téléinformatique

Page 2: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

AVERTISSEMENT

CET OUVRAGE CONTIENT DES REPRODUCTIONS EFFECTUEES PAR L'IGPDE AVEC L'AUTORISATION DU CENTRE FRANÇAIS D'EXPLOITATION DU DROIT DE COPIE (CFC).

TOUTE NOUVELLE REPRODUCTION EST SOUMISE A L'AUTORISATION PREALABLE DU CFC .

Page 3: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :
Page 4: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Sommaire

page 4 Toute reproduction même partielle interdite IGPDE

SOMMAIRE

GENERALITES .................................................................................................................................. 6 1. L’expansion des réseaux informatiques ............................................................................... 7 2. Généralités sur les réseaux .................................................................................................... 7 3. Le télétraitement ...................................................................................................................... 8 4. Pourquoi le télétraitement ? ................................................................................................... 9

PRINCIPES DE TELECOMMUNICATION....................................................................................... 10 1. Les supports de transmission.............................................................................................. 10

1.1. Les conducteurs physiques............................................................................................. 10 1.2. Les supports utilisés pour la propagation libre................................................................ 11

2. Caractéristiques liées aux transmissions de données...................................................... 13 2.1. Le débit............................................................................................................................ 13 2.2. Les modes d’exploitation................................................................................................. 13 2.3. La qualité de la liaison..................................................................................................... 13 2.4. Le mode de transmission ................................................................................................ 13 2.5. La synchronisation .......................................................................................................... 13

3. Les matériels mis en œuvre.................................................................................................. 14 4. La logique mise en œuvre..................................................................................................... 14

LES RESEAUX ................................................................................................................................ 16 1. Les deux grands modèles de réseaux................................................................................. 16

1.1. Le modèle OSI de l’ISO................................................................................................... 16 1.2. Le modèle Internet de l’ARPA......................................................................................... 17

2. Typologie et topologie des réseaux..................................................................................... 17 2.1. Eléments matériel de basé.............................................................................................. 17 2.2. Architectures et topologie des réseaux........................................................................... 17 2.3. Les réseaux longue distance .......................................................................................... 19 2.4. Les autres technologies .................................................................................................. 22 2.5. Les réseaux locaux (LAN)............................................................................................... 25 2.6. Le réseau mondial Internet ............................................................................................. 26 2.7. Les futures infrastructures technologiques des réseaux à haut débit............................. 30

3. Le Réseau privé virtuel (RPV)............................................................................................... 36 3.1. Eléments matériel de base.............................................................................................. 36 3.2. Le concept de réseau privé virtuel .................................................................................. 37 3.3. Fonctionnement d'un VPN .............................................................................................. 38

LES ARCHITECTURES INFORMATIQUES.................................................................................... 40 1. L’architecture centralisée .....................................................................................................40

1.1. L’informatique totalement centralisée ............................................................................. 40 1.2. L’informatique centralisée avec télétraitement................................................................ 40

2. L’architecture déconcentrée................................................................................................. 40 2.1. L’informatique répartie avec fichiers centralisés ............................................................. 40 2.2. L’informatique répartie avec fichiers répartis .................................................................. 41

Page 5: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Généralités

Toute reproduction même partielle interdite IGPDE page 5

2.3. L’informatique totalement décentralisée......................................................................... 41 3. L’architecture client/serveur ................................................................................................ 41

3.1. Sur serveur mini.............................................................................................................. 41 3.2. Sur serveur de type PC................................................................................................... 41

Page 6: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Généralités

page 6 Toute reproduction même partielle interdite IGPDE

GENERALITES

Remarque :

Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

♦ scientifiques (calcul, simulation, … ; ♦ et industriels (conduite de processus de fabrication, …) ;

La téléinformatique peut se définir comme le domaine de l’informatique utilisant les techniques de transmission à distance. Cet aspect de l’informatique n’a cessé d’occuper une place prédominante.

En effet, bon nombre de personnes ont déjà soit été confrontées à un service tel que le minitel, soit ont utilisé un guichet bancaire automatique, ou soit, plus récemment, utilisées les réseaux Internet et Intranet.

La conjugaison de l’informatique et des télécommunications a ouvert des horizons nouveaux. Elle a connu et connaît toujours des développements constants et concomitants à ceux des techniques informatiques.

Les premiers essais de transmission de données entre deux ordinateurs ont lieu dans les années 60.

Les années 70 sont marquées par la généralisation des techniques d’accès à distance, la décentralisation des stations d’entrée/sortie et l’apparition des terminaux.

A la fin des années 70 apparaissent des réseaux de terminaux (communication de circuits avec des concentrateurs, des multiplexeurs) ainsi que des réseaux d’ordinateurs (communication de messages, paquets).

La notion de terminal englobe des équipements allant d’un simple poste de travail composé d’un écran de visualisation et d’un clavier, à des équipements englobant en complément des unités auxiliaires telles que les imprimantes.

La téléinformatique est devenu un des sujets prédominants depuis les années 80 et le restera encore pour de nombreuses années. Les principaux aspects sont les réseaux publics, les réseaux locaux, les communications entre réseaux, les communications par satellite, les fibres optiques, les communications digitales.

Si la technologie semble à peu près au point pour permettre le développement de tous ces aspects, un problème important subsiste, celui de la normalisation.

Page 7: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Généralités

Toute reproduction même partielle interdite IGPDE page 7

1. L’EXPANSION DES RESEAUX INFORMATIQUES

Les télécommunications sont déjà très anciennes. Depuis 170 ans, elles n’ont cessé d’évoluer pour en arriver, aujourd’hui à leur utilisation généralisée dans l’informatique professionnelle et personnelle et bientôt, dans l’informatique nomade avec l’évolution des réseaux sans fil.

Nous allons tracer brièvement l’historique des télécommunications. ♦ 1851 Le télégraphe MORSE arrive en France ♦ 1873 Brevet BAUDOT ♦ 1873 Installation des premiers téléphones à Paris ♦ 1873 Création du CCITT (Comité Consultatif International pour le Télégraphe et le Téléphone) ♦ 1960 Réseaux de terminaux en étoile ♦ 1963 Ouverture du Télex et du RTC (Réseau Téléphonique Commuté) ; téléinformatique ♦ 1968 Premier frontal de télécommunications ♦ 1970 Les premiers réseaux d’ordinateurs ♦ 1972 Le réseau Caducée ♦ 1978 Ouverture du réseau public TRANSPAC ♦ 1980 Adoption par l’ISO du modèle OSI ♦ 1984 Télécom 1 ♦ 1993 Les premiers réseaux locaux sur micro-ordinateurs

2. GENERALITES SUR LES RESEAUX

L’utilisation ou non des réseaux dépend essentiellement de l’architecture informatique retenue pour un système d’information. S’il s’agit d’une informatique totalement centralisée où les matériels et les personnels informaticiens sont concentrés en un seul lieu, il ne sera sans doute pas fait appel au réseau.

S’il s’agit d’informatique décentralisée (distribuée ou répartie), il y aura des échanges entre ordinateur central et des moyens locaux. Dans ce cas, il sera fait appel aux réseaux en remplacement des procédures de transfert de données sur support magnétique transportable (bandes, cassettes, disquettes, CD-ROM).

Enfin, il peut s’agir d’une informatique totalement transactionnelle. Dans ce cas, l’utilisateur ne dispose que d’un terminal et est en dialogue permanent avec l’ordinateur via un système de communication évolué et permettant les échanges en temps réel.

Il ne faut cependant pas croire que l’utilisation du réseau soit synonyme de temps réel. Il existe, en effet, une utilisation du réseau qui consiste à soumettre, à distance des traitements par lots ("batch") : il s’agit du "remote batch processing" (traitement distant par lots).

La notion de base sur laquelle repose le traitement informatique par l’intermédiaire des réseaux est le télétraitement (ou télématique, association de télécommunications et d’informatique).

Page 8: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Généralités

page 8 Toute reproduction même partielle interdite IGPDE

3. LE TELETRAITEMENT

C’est l’ensemble des moyens, matériels et logiciels, destiné à transmettre des données à distance afin d’être traitées sur un ordinateur central.

Une ère nouvelle s’est ouverte pour les télécommunications depuis qu’elles permettent non seulement de transmettre un message écrit ou verbal (voire des signaux de mesure ou de contrôle ou des images fixes ou mobiles), mais de traiter instantanément ce message à distance.

Si la transmission "off line" (en différé) peut être considérée comme le prolongement naturel de la transmission télégraphique, le fait que celle-ci puisse être introduite dans les ordinateurs ou en émaner élargit prodigieusement leur domaine d’utilisation. Mais l’étape la plus décisive a été franchie grâce à la transmission de données "on line" (en direct) qui permet de traiter directement avec un ordinateur sans intermédiaire humain. Les télécommunications permettaient jusqu’alors d’informer, de commander, de dialoguer à distance.

Grâce à l’informatique, elles offrent désormais la possibilité de calculer, de raisonner, de gérer et de décider en faisant abstraction de la distance, du temps et du volume des informations à traiter (bien que ce point puisse être discuté au regard des coûts d’exploitation de certains réseaux. Certains ont dit que le télétraitement, apporterait une mutation technologique comparable à celle qu’apporta GUTEMBERG il y a déjà cinq siècles en inventant l’imprimerie. En effet, à cette époque se posait déjà le problème de la diffusion des connaissances du fait de leur croissance de plus en plus rapide. Aujourd’hui, le taux de croissance du besoin de transmission de données est estimé à 100 % par an. Ce taux ne peut qu’évoluer à la hausse avec la globalisation des économies internationales.

Pour donner à l’ordinateur des meilleures chances d’efficacité, il faut d’abord que l’information à traiter lui soit fournie dans de bonnes conditions. Selon AT&T (American Telephone and Telegraph), qui fut la société pionnière du développement du télétraitement, l’ordinateur a permis d’éviter un certain nombre d’écueils en matière de transmission des informations : ♦ l’information retardée : la réception tardive par le siège d’une société des fiches de présence

établies dans ses établissements dispersés, l’empêche de tirer parti de la rapidité de calcul de la paye de son personnel par son ordinateur central. Le problème sera le même lorsque l’ordinateur central devra assurer la gestion des stocks et de l’approvisionnement des magasins, gestion qui ne peut être optimisée si l’ordinateur, devant recevoir l’information, se trouve retardé par un délai de transmission.

♦ l’information périmée : le risque réside dans la possibilité d’établir une facture ou un état de frais alors que l’ordinateur n’a pas reçu l’information récente qui permettait d’établir une facture correcte. Ce risque est réel lorsque les informations de mise à jour sont transmises par voie de courrier.

♦ l’information difficilement accessible : l’information peut être difficile à atteindre parce qu’éparpillée, volumineuse ou éloignée.

♦ l’information onéreuse : la multiplication des ordinateurs et de la documentation dans les nombreuses agences des banques, des compagnies d’assurances, des grandes sociétés commerciales et dans les services extérieurs des administrations, compromettent la rentabilité et l’efficacité des systèmes informatiques. Grâce au télétraitement, il suffit de doter tous ces services d’un terminal pour leur donner accès à une documentation d’autant plus fiable qu’elle est unique. En ce sens, le télétraitement permet un traitement économique de l’information.

♦ l’information inexacte : lorsqu’un document commercial ou administratif passe entre plusieurs mains, il peut rapidement être entaché d’erreurs. S’il existe une ou plusieurs copies de l’original informatique, l’erreur est réduite d’autant. À l’occasion de télétraitements, les copies de sauvegarde pourront permettre de prouver la réalité de la décision originale ou de l’acte original.

Page 9: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Généralités

Toute reproduction même partielle interdite IGPDE page 9

♦ l’information mutilée : il n’est pas rare de se trouver en face d’informations altérées dans leur contenu car les moyens de collecte ne sont pas suffisamment fiables. L’utilisation de la téléinformatique doit permettre de limiter au minimum le risque d’altération des données.

4. POURQUOI LE TELETRAITEMENT ?

Le télétraitement procure à l’entreprise un instrument essentiel de compétitivité en lui permettant d’optimiser sa gestion.

Il assure les liaisons internes entre les niveaux nationaux, régionaux, départementaux, voire locaux, ces différents niveaux dépendant des choix déterminés par le schéma directeur de l’informatique de la structure (entreprise ou administration).

Le télétraitement assure aussi les liaisons avec l’extérieur, par exemple la réalisation d’objectifs communs. Des commandes pouvant être effectuées à différents niveaux, le télétraitement, bien utilisé, peut permettre une certaine harmonisation des décisions

Page 10: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Principes de télécommunication

page 10 Toute reproduction même partielle interdite IGPDE

PRINCIPES DE TELECOMMUNICATION

1. LES SUPPORTS DE TRANSMISSION

La transmission de données informatiques nécessite l’utilisation de supports spécifiques. Ceux-ci peuvent être regroupés en deux grandes familles selon que la propagation des signaux est supportée par des conducteurs physiques ou non.

Toutes les voies de transmission utilisent la propagation des ondes électromagnétiques. On les divise en deux grandes catégories selon le support physique utilisé : ♦ Les conducteurs physiques ; ♦ Les supports utilisés pour la propagation libre.

1.1. Les conducteurs physiques

Les conducteurs physiques les plus couramment utilisés aujourd’hui sont les suivants.

1.1.1. LES LIGNES METALLIQUES (OU PAIRE TORSADEE)

C'est une ligne électrique, qui peut être soit une ligne téléphonique, soit un câble électrique.

La transmission à l'aide de ce support est facile mais comporte quelques inconvénients tel que l'affaiblissement du signal sur de grandes distances (d'où la nécessité de la réamplifier régulièrement) et surtout la sensibilité aux bruits. Ce dernier défaut peut être atténué par l'utilisation d'un blindage, tel qu'un câble coaxial. Un câble coaxial est un fil électrique entouré par une enveloppe métallique, les deux étant séparés par un isolant. Le réseau téléphonique utilise principalement des paires de fils torsadés pour le raccordement des abonnés.

1.1.2. LES CABLES COAXIAUX

Les câbles coaxiaux permettent, par multiplexage de voies, de faire cohabiter plusieurs lignes téléphoniques.

Page 11: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Principes de télécommunication

Toute reproduction même partielle interdite IGPDE page 11

1.1.3. LA FIBRE OPTIQUE

La fibre optique

Le transport d'informations est réalisé par propagation d'ondes lumineuses dans des fibres de verre. La propagation lumineuse s'effectue par réflexion sur les parois de la fibre qui a un diamètre compris entre 100 et 300 microns. Les fibres optiques ont bon nombre d'avantages tels que très grande bande passante, bonne immunité aux bruits électromagnétiques, petite taille, pas d'affaiblissement du signal. La bande passante varie de 50 MHz jusqu'à 100 GHz selon le type de fibre utilisé. On distingue trois types de fibre classés par ordre croissant de capacité: les fibres multimodes à saut d'indice, les fibres multimodes à gradient d'indice et les fibres monomodes. Le principal point faible réside dans les connexions qui sont délicates. Une diode électroluminescente ou laser convertit le signal électrique à transmettre en un signal optique alors qu'un détecteur de lumière, une photodiode, effectue la conversion inverse. La présence ou l'absence d'un signal lumineux permet le codage d'un bit.

L'utilisation de ces divers supports dépend du type de liaison.

Une liaison intercontinentale est réalisée à l'aide d'un satellite, une liaison entre des ordinateurs d'un même pays par les lignes téléphoniques, une liaison entre deux bâtiments d'une même ville par des fibres optiques, une liaison de divers équipements dans un même bâtiment par un câble coaxial et une liaison entre des équipements proches l'un de l'autre par de simples fils électriques.

La fibre optique, possédant une très large bande passante, autorise des débits élevés.

Il est à noter que l'utilisation de la fibre optique tend à se généraliser aux liaisons nationales et internationales.

1.2. Les supports utilisés pour la propagation libre

Les supports utilisés pour la propagation libre sont les suivants.

Page 12: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Principes de télécommunication

page 12 Toute reproduction même partielle interdite IGPDE

1.2.1. LES FAISCEAUX HERTZIENS

Le faisceau hertzien

Ce support utilise les ondes radioélectriques pour transporter des informations. Les liaisons radioélectriques sont réalisées par ondes courtes, moyennes et longues.

La propagation peut se faire en ligne droite, c'est le cas pour des utilisations telles que la télévision et la radio, mais pour permettre les transmissions sur de grandes distances, il est plus aisé d'utiliser des satellites. Les satellites utilisés sont géostationnaires: ils tournent à la même vitesse angulaire (par rapport au centre de la terre) que la terre avec une orbite située à 36.000 km d'altitude. Si l'on prend la terre comme système de référence, alors un satellite géostationnaire est immobile. Les principaux avantages sont la couverture de grandes distances, la diffusion, tout en évitant les problèmes de câblages. Les principaux défauts sont l'affaiblissement des signaux dans l'air et le temps de propagation qui est de l'ordre de 260 ms pour un trajet aller-retour. Un satellite travaille au moins avec deux bandes de fréquences, une (montante) dans laquelle il reçoit les informations, l'autre (descendante) dans laquelle il renvoie ces informations.

1.2.2. LES LIAISONS SATELLITES

Encore balbutiantes il y a deux ans, les offres de connexions bidirectionnelles par satellite gagnent du terrain : elles ont vu leurs prix baisser mais elles restent onéreuses pour de petites structures.

Après cinq ans de présence en France, l'Internet par satellite n'en est encore aujourd'hui qu'à son tout début. Les offres bi-directionnelles donnent l'occasion pour les entreprises implantées en province et ne disposant pas de l'ADSL, de profiter du haut débit sans payer le coût d'une ligne spécifique.

En attendant la venue du Wimax, technologie de réseau sans fil longue portée, le satellite a le champ libre pour s'imposer. La nouvelle loi sur l'économie numérique (LEN) pourrait également lui donner un coup de pouce, en donnant aux municipalités la possibilité de jouer le rôle d'opérateur, ce qui les laissent libres d'adopter de nouvelles technologies dont le satellite.

Autre élément qui pourrait jouer en faveur du satellite : les distributeurs proposent du matériel pour pallier le temps d'accès parfois très long sur ce type de connexion.

Les services varient d'un revendeur à l'autre, les plus fréquent étant : des antivirus, des firewalls, des noms de domaines et l'ajout d'IP fixes. De façon plus marginale, certaines entreprises proposent de monter des réseaux VPN ou des solutions contre les intempéries.

Les débits proposés varient de 128 Kb/s à 1024 Kb/s.

Page 13: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Principes de télécommunication

Toute reproduction même partielle interdite IGPDE page 13

2. CARACTERISTIQUES LIEES AUX TRANSMISSIONS DE DONNEES

2.1. Le débit

Il s’exprime en bits par seconde (bps) et ses multiples (Kbps, Mbps) et permet de calculer les temps nécessaires au transfert des données.

2.2. Les modes d’exploitation

Il s’agit du sens de transfert des informations entre les équipements situés aux extrémités des liaisons. Il existe trois modes : ♦ simplex (ou unidirectionnel) ; ♦ semi-duplex (alternativement dans un sens puis dans l’autre) ; ♦ full duplex (les informations transitent dans les deux sens simultanément).

2.3. La qualité de la liaison

Celle-ci s’exprime en taux d’erreur et est le résultat du rapport entre le nombre de bits (ou caractères pour la transmission parallèle) erronés et le nombre total de bits (ou caractères) émis pendant une période donnée.

Les erreurs sont détectées à l’aide de méthodes basées sur le codage des informations émises. Le fameux "bit de parité" est l’exemple d’un codage destiné à repérer les erreurs de transmission.

D’autres codages existent, comme des sommes de contrôle (checksum) ou des contrôles cycliques de redondance (CRC).

2.4. Le mode de transmission

Deux modes existent : le mode série et le mode parallèle. En mode série, un caractère est transmis sous la forme d’une file de bits (les uns à la suite des autres), alors qu’en mode parallèle tous les bits sont envoyés simultanément ; il y a donc transfert complet d’un caractère à la fois.

2.5. La synchronisation

Elément essentiel lié à la transmission des données, la synchronisation consiste à assurer une adéquation entre le rythme de l’émission et celui de la réception afin de bien recevoir le message. Cette synchronisation s’effectue grâce à des horloges situées à chaque extrémité de la liaison. On distingue deux modes de transmission : ♦ asynchrone : dans ce cas, chaque horloge se recale sur l’autre après chaque caractère (on

parle aussi de transmission caractère) ; ♦ synchrone (ou en mode message ou mode bloc), qui permet de transmettre tous les bits d’un

même message de plusieurs caractères à l’aide d’un bit de synchronisation de départ.

Page 14: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Principes de télécommunication

page 14 Toute reproduction même partielle interdite IGPDE

3. LES MATERIELS MIS EN ŒUVRE

Les matériels utilisés sont : ♦ les matériels d’entrée des données à distance et de restitution des résultats ; ♦ les matériels de transmission (modems, réseaux) ; ♦ les moyens de traitement (ordinateur central).

Donc une liaison télématique mettra en œuvre les éléments suivants :

4. LA LOGIQUE MISE EN ŒUVRE

La logique mise en œuvre à l’occasion de l’utilisation des réseaux dépend en fait de la nature du réseau et des choix qui ont été opérés en matière de fournisseur de gestionnaire de réseau.

Cette logique peut être différente selon qu’il s’agit d’un réseau local (Local Area Network ou LAN) ou d’un réseau grande distance (Wide Area Network ou WAN).

Selon la logique retenue, les télécommunications s’appuieront sur un des deux modèles de développement de réseau : OSI ou Internet.

TERMINAL

jonction

jonction

MODEM

TERMINAL

LIGNE DE TRANSMISSION

MODEM

Page 15: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :
Page 16: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 16 Toute reproduction même partielle interdite IGPDE

LES RESEAUX

1. LES DEUX GRANDS MODELES DE RESEAUX

La conception d’un réseau est une opération d’une grande complexité. Pour sérier les problèmes qui lui sont liés, on a défini des modèles théoriques sous forme de couches hiérarchisées.

À chacune de ces couches correspondent un ensemble de règles, appelée "protocole", qui permet d’assurer des échanges corrects au niveau considéré. Ces protocoles sont l’objet de normalisations afin qu’un grand nombre de systèmes d’informations puissent communiquer entre eux.

1.1. Le modèle OSI de l’ISO

La nécessité de rendre compatibles les solutions réseaux des constructeurs a amené l’ISO (International Standards Organization), représenté en France par l’AFNOR, à proposer l’OSI (Open System Interconnection).

Ce modèle de référence pour l’interconnexion de systèmes ouverts se compose de sept couches.

Chacune des couches joue un rôle essentiel et bien précis dans la cinématique de la procédure d’interconnexion. Les sept couches du modèle OSI se décomposent comme suit : ♦ couche 7 "Application" : ce sont les programmes d’application ; ♦ couche 6 "Présentation" : il s’agit de la mise en forme des données ; ♦ couche 5 "Session", qui gère le dialogue ; ♦ couche 4 "Transport", qui effectue un contrôle de bout en bout du transfert des données ; ♦ couche 3 "Réseau", qui assure le relais des blocs de données à travers le réseau ; ♦ couche 2 "Liaison", qui gère le transfert entre deux systèmes en assurant le contrôle de la

bonne réception ; ♦ couche 1 "Physique", qui assure le transfert d’éléments binaires entre deux systèmes.

Ce modèle présente plusieurs avantages par rapport à la situation quelque peu anarchique qui limitait auparavant les échanges informatisés : ♦ spécifiquement conçu pour la liaison de systèmes hétérogènes, il permet d’unifier les

méthodes d’accès au réseau et prend en compte l’ensemble des ressources nécessaires, tant matérielles que logicielles, à l’utilisation des réseaux ;

♦ il n’est pas limité aux réseaux locaux et est soutenu par le CCITT, organisme chargé de la standardisation des télécoms ;

♦ chaque couche du modèle OSI s’appuie sur l’ensemble des services apportés par les couches inférieures et dialogue seulement avec les couches qui l’entourent ; aucun contact direct n’existe donc entre les couches de même niveau de deux machines qui échangent des informations. Ces informations transitent toujours à travers l’ensemble des couches selon des règles très précises appelées protocoles.

Dans la pratique, on ne peut pas dire que tous les systèmes respectent strictement le modèle OSI.

Dans certains cas, des couches débordent sur d’autres couches, dans d’autres cas une seule couche globale englobe plusieurs couches du modèle OSI.

Page 17: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 17

1.2. Le modèle Internet de l’ARPA

Le modèle Internet de l’ARPA (Advanced Projects Research Agency) connue pour son réseau Arpanet a été développé pour les besoins du département de la défense américaine.

Ce modèle ne présente que cinq couches (au lieu des sept du modèle OSI).

2. TYPOLOGIE ET TOPOLOGIE DES RESEAUX

2.1. Eléments matériel de basé

Les éléments d’un réseau local (non relié à l’extérieur) sont : ♦ les ordinateurs individuels : ils sont reliés au réseau par une carte spécialisée. Celle-ci est

identifiée par une adresse unique dite adresse MAC (medium access control) ; ♦ le réseau : il s’agit d’un réseau local, basé sur le protocole Ethernet. La jonction entre le

réseau et ses éléments est effectuée avec des prises RJ45 ; ♦ le hub : les appareils devant communiquer via le réseau sont connectés au hub, qui joue le

rôle d’un distributeur au sein du réseau local. La topologie des connexions au sein du hub est celle d’un bus.

Comme chaque élément du réseau est relié par une liaison spécifique, la topologie du réseau est celle d’une étoile. Pour étendre le réseau, plusieurs hubs peuvent être connectés.

Si maintenant on désire relier ce réseau local à un réseau plus étendu on rajoute : ♦ un routeur, qui permet de relier des réseaux distincts. Les données destinées au réseau local

ne franchissent pas le routeur et n’encombrent pas les lignes du réseau étendu ; ♦ enfin, si notre réseau local est particulièrement étendu, on peut diviser le réseau local en

plusieurs parties reliées par des ponts. La fonction d’un pont est d’écouter chaque segment du réseau. Lorsqu’on transmet des données sur un segment du réseau, le pont auquel est relié ce segment vérifie l’adresse de destination. Si elle fait partie du segment, le pont n’intervient pas. Dans le cas contraire, le pont oriente les données vers le segment concerné au sein du réseau.

2.2. Architectures et topologie des réseaux

Il existe plusieurs architectures de réseaux traditionnels, à savoir les réseaux en étoile, les réseaux en boucle et les réseaux hiérarchiques.

2.2.1. LE RESEAU EN ETOILE

Dans les réseaux en étoile, un ordinateur principal est placé au centre du réseau. Des postes, éventuellement des ordinateurs dépendants, sont reliés directement à l’ordinateur principal tout autour, formant ainsi un dessin semblable à une étoile ; d’où le nom du réseau.

Page 18: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 18 Toute reproduction même partielle interdite IGPDE

La station D émet des messages à destination des autres stations du réseau local. Lorsque la station B est en panne, les stations A, C et E reçoivent le message. Seul B est isolé du réseau.

Lorsque la station C est en panne, aucune station ne reçoit de message. En effet, C est la station "relais" qui permet toute la communication sur le réseau local. C est un nœud du réseau.*

Remarque :

Ce type de réseau est fragile.

2.2.2. LE RESEAU LINEAIRE

L’information ne circule que dans un seul sens.

La station A émet un message à destination des autres stations du réseau local. Lorsque la station B est en panne, les stations C, D et B (car elle est en panne) ne reçoivent pas le message. En effet, la station B est une station relais pour les stations C et D.

Lorsque la station D est en panne, seule cette station ne reçoit pas le message.

Remarque :

Ce type de réseau est extrêmement fragile.

A D

C

B E

A B C D

Page 19: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 19

2.2.3. LE RESEAU EN BOUCLE

Dans le cas du réseau en boucle, un câble formant une boucle débutant à l’ordinateur principal et s’y terminant chemine en circuit fermé. Les postes sont reliés à ce câble et reçoivent les informations qui circulent sur la boucle au fur et à mesure de leur arrivée. Tous les postes sont arrosés" par les informations. À eux de savoir si celle-ci les intéresse et de s’en servir.

On peut aussi schématiser le réseau en boucle comme ceci :

Les liaisons sont doublées pour permettre la circulation des messages dans les deux sens.

Lorsque la station A émet un message et que la station B est en panne, les stations C, D et E reçoivent le message, seule B ne le reçoit pas. La station A a émis le message dans les deux sens.

Lorsque la station A émet un message et que la station C est en panne, les stations B, D et E reçoivent le message, seule C ne le reçoit pas. La station A a émis le message dans les deux sens.

Remarque :

Ce type de réseau est plus sûr que les deux précédents (réseau en étoile, réseau linéaire).

2.2.4. LE RESEAU HIERARCHIQUE

Le réseau hiérarchique, comme son nom l’indique, met en œuvre de gros ordinateurs qui sont maîtres et d’autres plus petits. Chaque petit ordinateur gère une sorte de réseau local et est rattaché au réseau principal pour communiquer éventuellement avec les autres petits ordinateurs eux-mêmes connectés au réseau principal.

2.3. Les réseaux longue distance

Seuls sont abordés les points essentiels à mémoriser pour chacune des offres de réseau longue distance existant actuellement qui peuvent orienter un choix d’organisation, à savoir : ♦ le réseau commuté, réseau public par excellence, sur lequel les informations transitent sur des

ressources de transmissions qui sont mises simultanément mais temporairement à la disposition de tous les usagers,

A

B

CD

E

Page 20: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 20 Toute reproduction même partielle interdite IGPDE

♦ à l’inverse, le réseau loué est permanent et s’appuie sur des liaisons spécialisées uniquement accessibles à l’abonné.

2.3.1. LES RESEAUX COMMUTES PUBLICS

2.3.1.1. RTC (RESEAU TELEPHONIQUE COMMUTE)

C’est un réseau de structure maillée, réservé aux bas débits (9 600 bps) et qui assure le transport de la voix et des données. Il utilise la commutation de circuit : une liaison est créée pour le temps de la communication et libérée ensuite.

C’est un réseau presque entièrement numérique mais dont l’interface est analogique.

Ce réseau convient à une utilisation privée ou professionnelle peu fréquente d’un réseau de transport ou d’accès à un autre réseau (accès Internet ou TRANSPAC par exemple). Il offre néanmoins peu de sécurité, pour un taux d’erreur assez élevé (10-4).

Sa tarification s’effectue comme pour une facture téléphonique classique et comprend : ♦ des frais d’accès au réseau, ♦ un abonnement mensuel majoré éventuellement de frais dus à des services supplémentaires, ♦ le coût des communications établi à la durée en fonction de plages horaires.

2.3.1.2. TRANSPAC (X25)

TRANSPAC est une filiale de France Télécom qui propose depuis 1978 les services du réseau de même nom. Fondé sur la norme X25 (3 premières couches de la norme ISO), ce réseau analogique utilise la commutation de paquets : les données sont scindées en blocs de 128 octets auxquels s’ajoute un en-tête de 3 octets, le tout formant un paquet. Celui-ci constitue l’entité de base transportée sur le réseau. L’une des particularités de TRANSPAC est la notion de circuit virtuel. En effet, le circuit physique est établi pour une communication et peut être simultanément emprunté par d’autres usagers.

Les paquets résultant du découpage des données utilisateurs transitent sur le réseau de transport constitué : ♦ d’un réseau de distribution, ♦ de commutateurs de transit, ♦ du réseau principal.

Le premier paquet établit un chemin qui sera suivi par l’ensemble des paquets constitutifs du même message (tables de routage gérées par les commutateurs).

Ce mode de transport implique des contrôles de la conservation de l’ordre des paquets (pour reconstitution d’un message cohérent) et de flux. TRANSPAC supporte des débits allant jusqu’à 2 Mbps pour un taux d’erreur d’environ 10-8.

L’accès au réseau TRANSPAC nécessite la souscription d’un abonnement. Sa facturation tient ensuite compte des moyens d’accès au réseau et de concentration et du coût des communications proprement dites. L’accès au réseau peut s’effectuer par accès : ♦ direct par liaison spécialisée (concentrateur, modem, accès synchrones X25, hautes ou basses

vitesses, interface IP) : abonnement mensuel fonction de tranches de débit, ♦ direct par canal D Numéris (adaptateur) : tarif fonction du volume + abonnement mensuel, ♦ indirect par RTC ou Numéris canal B (coffret d’accès indirect) : facturation à la durée.

Page 21: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 21

Le coût des communications est fonction du type de circuit et du mode de tarification choisis par l’abonné : pour les circuits virtuels (CVP et CVC), la taxation peut être indexée sur le volume ou sur la durée.

TRANSPAC offre un service de groupe fermé d’abonnés (GFA), n’autorisant l’accès qu’à des clients ayant des exigences de sécurité similaires. Ainsi, la DGI repose sur TRANSPAC dans le cadre d’un GFA pour certaines de ses applications multisites.

L'intérêt de TRANSPAC réside dans la quasi-certitude pour l’utilisateur de voir son information arriver à bon port. À cela plusieurs raisons : d’une part TRANSPAC double au moins ses équipements de communication (nœuds, lignes…) afin de pallier une éventuelle défaillance ; d’autre part, il est architecturé d’une manière telle que si un chemin direct d’un point à un autre devient inopérant, une solution de secours est possible.

2.3.1.3. TRANSDYN

C’est un service de télécommunication numérique par satellite composé d’un réseau satellitaire proprement dit et de stations terrestres fixes ou mobiles (antennes). Il utilise le satellite géostationnaire Telecom 2. À plus large échelle, les organismes Intelsat et Eutelsat (pour l’Europe) se partagent la gestion de ce type de réseaux.

L’accès à ce mode de télécommunication est différencié en trois catégories : ♦ accès sur réservation : comme son nom l’indique, l’abonné au service doit réserver une

journée à l’avance une plage de communication et en préciser les paramètres (date, heure, qualité de la liaison),

♦ accès appel par appel ou aléatoire : une phase d’appel permet d’établir la liaison entre les deux équipements communicants,

♦ accès temps partiel : la liaison est louée pour une plage donnée dont la durée et la période sont déterminées par contrat.

Le réseau TRANSDYN est adapté aussi bien aux bas débits (2 400 à 9 600 bps) qu’aux hauts débits (128 000 bps et plus), pour un taux d’erreur faible (10-9) dont la valeur peut être encore diminuée par abonnement à un service de correction d’erreur.

C’est un mode de transmission fiable mais manquant de souplesse notamment en ce qui concerne la réglementation des accès. Pour cela, il est utilisé majoritairement pour des opérations ayant trait à des transferts de volumes importants et planifiés. Le principe de facturation se décompose en : ♦ frais d’accès au réseau suivant la classe de débit, ♦ frais fixes (équipements terrestres locaux), ♦ abonnement mensuel suivant la classe de débit, ♦ coût des communications dépendant du débit, des horaires, du niveau de service appliqué et

du mode d’accès retenu.

2.3.1.4. TRANSCOM

Il s’agit d’un service de télécommunication numérique de type commuté (commutation de circuit comme le RTC) offrant un débit de 64 000 bps.

Ce service qui a vu le jour en 1986 est basé sur l’utilisation des lignes téléphoniques numériques (du réseau RTC) et de commutateurs numériques, réalisant ainsi une liaison numérique de bout en bout. TRANSCOM a préfiguré Numéris.

Page 22: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 22 Toute reproduction même partielle interdite IGPDE

2.3.2. LES RESEAUX LOUES

Pour des raisons de sécurité le plus souvent, des entreprises sont amenées à préférer des liaisons louées à l’offre de transmission commutée. Il s’agit néanmoins de réseaux publics, dont une partie des liaisons sont mises à la disposition permanente de l’abonné. En France, les deux services les plus fréquemment rencontrés en matière de liaisons spécialisées sont TRANSFIX et les liaisons spécialisées analogiques.

2.3.2.1. TRANSFIX

Ce service, disponible depuis 1985, s’appuie sur le réseau physique TRANSMIC (Trans-Modulation par Impulsion et Codage) qui utilise une méthode de multiplexage dans le temps (32 voies logiques véhiculant l’information). Il s’agit d’un réseau numérique couvrant une large gamme de débits (de 2,4 à 1920 Kbps) et offrant une excellente couverture du territoire national. Ses points forts sont : ♦ la supervision de réseau, ♦ la qualité de service, ♦ un taux d’erreur de 10-7 à 10-8.

Remarque :

TRANSPAC loue des lignes TRANSFIX.

2.3.2.2. LES LIAISONS ANALOGIQUES SPECIALISEES

Elles sont basées sur le RTC, à la permanence près. Pour un taux d’erreur d’environ 10-7, ces liaisons offrent une qualité supérieure à celle du RTC. Le débit maximum autorisé est de 19,2 Kbps, ce qui reste suffisant pour de la transmission de données (sauf gros volumes). C’est un service encore attractif compte tenu d’un mode de tarification basé sur un forfait d’accès et un abonnement mensuel, indépendamment du volume ou du taux d’utilisation.

2.4. Les autres technologies

2.4.1. NUMÉRIS

NUMÉRIS est la version Française du RNIS (Réseau Numérique à Intégration de Services). Le principe du RNIS est l’intégration dans un réseau numérique unique des services des autres réseaux (RTC, TRANSCOM, TRANSPAC) de façon à transporter la voix, les données, les images animées ou non. Les abonnés NUMÉRIS peuvent ainsi communiquer avec les usagers de ces réseaux. Deux types de canaux véhiculent l’information : ♦ le canal D transporte les données de signalisation, ♦ le canal B transporte les données elles-mêmes, sur des liaisons numériques synchrones à

64 Kbps.

NUMÉRIS fournit : ♦ des services support réseau TRANSCOM (données) et RTC (données non stratégiques : voix,

télécopies) à 64 Kbps, ♦ un service d’accès à TRANSPAC (canal D), ♦ des téléservices : téléphone, télécopie, vidéotex, télétex, ♦ des services de complément : l’identification, le transfert, la présentation d’appel…

Page 23: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 23

NUMÉRIS a été créé pour remplacer TRANSCOM et RTC. Mais la migration ne pourra s’effectuer qu’à l’occasion de baisses significatives des coûts. Sa tarification est soumise aux même principes que pour le RTC.

2.4.2. LE RELAIS DE TRAME (FRAME RELAY)

Le principe du relais de trames est dérivé de la norme X25, à la différence près que les trames sont prises en charge par les couches 1 et 2 uniquement du modèle ISO. Le Frame Relay Forum est chargé de sa normalisation. L’amélioration apportée par cette technique provient donc de la disparition des contrôles d’erreurs et de flux dans les nœuds du réseau (assurés au niveau de la couche 3 en X25) : les contrôles s’effectuant aux extrémités, le transfert des données est plus rapide.

Les corrections X25 en matière de contrôle, de demandes de retransmission sont effectuées au niveau du réseau grande distance ce qui les rend peu efficientes lors des interconnections avec les réseaux locaux. Globalement, les caractéristiques d’un réseau relais de trames sont similaires à celles d’un réseau X25 (TRANSPAC). Il faut également noter que le relais de trame n’est possible que dans un contexte de fiabilité maximum : les contrôles non pris en charge doivent être compensés par la fiabilité du réseau et des ressources intermédiaires.

Le relais de trames est adapté à la liaison avec les réseaux locaux car, bien qu’utilisant les mêmes infrastructures de base que X25, la longueur des trames peut atteindre 4 096 octets et contenir entièrement une trame Ethernet sans la fragmenter. En France, l’implémentation du relais de trames est partagée entre les opérateurs TRANSPAC, SIRIS et EQUANT. Le réseau physique s’appuie sur des lignes TRANSFIX (circuit virtuel permanent).

Aujourd’hui Frame Relay devance l’ATM et X25 pour les mises en place de réseaux nouveaux. C’est un réseau fortement orienté données, cependant la voix commence à être intégrée.

2.4.3. ATM (ASYNCHRONOUS TRANSFER MODE)

Le développement de l’ATM correspond à un nouveau besoin d’intégration voix-données-images. À titre d’information, la diffusion d’images animées nécessite une vitesse de 100 Mbps minimum.

Il s’agit d’un mode de communication numérique asynchrone par paquets : les données sont découpées en cellules de taille fixe et réduite, ce qui permet une très grande vitesse de transmission. Ces cellules se déplacent de manière intelligente et indépendante et savent choisir le chemin optimal. Les données sont reconstruites à l’arrivée en respectant leur synchronisme ce qui permet le transfert associé de l’image et du son. Cette technique de commutation large bande conçue par le CNET supporte des liaisons à débit variable.

La particularité de l’ATM est le support de tous les réseaux physiques existants locaux et distants. C’est le vecteur de communication qui adhère le mieux au concept des « autoroutes de l’information » : diversité des débits (allant jusqu’aux très hauts débits sur fibre optique) et intégration de multiples technologies (réseau local, d’entreprise ou de transport).

La mise en œuvre d’ATM, protocole complexe, se déroule en plusieurs étapes au sein des liaisons longue distance. Les réseaux locaux équipés peuvent être considérés comme des réseaux ATM privés.

2.4.4. TCP/IP (TRANSPORT CONTROL PROTOCOL/INTERNET PROTOCOL)

Il s’agit d’un ensemble de protocoles développés au début des années 1970 et présents au début principalement dans le monde UNIX.

Page 24: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 24 Toute reproduction même partielle interdite IGPDE

IP occupe la couche 3 et TCP la couche 4 en débordant sur la couche 5 :

Couche Application

Couche Transport (TCP)

Couche Internet (IP)

Couche Réseau

TCP/IP n’est pas qu’un simple protocole de transport, c’est toute une architecture qui couvre l’ensemble des couches et inclus des applications telles que FTP (File Transfert Protocol) pour le transfert de fichiers, NFS pour le partage de fichier… TCP/IP oblige à définir une adresse unique pour chaque machine connectée au réseau.

Les adresses IP sont codées sur 32 bits, soit un peu plus de 4 milliards d’adresses possibles. Ces 32 bits se répartissent entre la classe d’adresse qui détermine l’ampleur du réseau et les adresses des stations.

L’attribution des adresses des stations est effectuée par un organisme international : L’IANA (Internet Assigned Numbers Authority).

Classes d’adresse : ♦ Classe A : adresses réseau codées sur 8 bits et attribuées à des entités (organisations, pays,

compagnies) ayant besoin d’une grande quantité d’adresses IP. On ne peut définir que 126 réseaux de classe A mais plus de 16 millions d’adresses sont disponibles.

♦ Classe B : adresses réseau codées sur 16 bits, admettant environ 16 000 réseaux. ♦ Classe C : adresses réseau codées sur 24 bits, admettant environ 2 millions de réseaux.

La limitation des adresses selon la classe du réseau qui est attribué à une société peut ne pas suffire à couvrir les besoins de celle-ci. C’est pourquoi IP utilise un masque de sous-réseau pour séparer l’adresse réseau de l’adresse des stations. L’usage des sous-réseaux permet de diviser la plage d’adressage, au sein d’un même organisme, en plusieurs blocs d’adresses IP de taille réduite. Enfin, la liaison entre l’adresse IP et la carte réseau de la station est assurée par le protocole ARP (Address Resolution Protocol) qui constitue une table de correspondance entre l’adresse IP et l’adresse physique (Ethernet).

Même si l’adresse IP est plus facilement compréhensible que l’adresse MAC de l’interface réseau, elle n’est guère significative. Aussi la plupart des utilisateurs préfèrent utiliser des noms "en clair" tels que "http : // www.société.com". Pour pouvoir utiliser cette désignation, il faut des bases de données capables de convertir les adresses IP en adresses mémorisables aisément. Ceci est réalisé par la résolution de noms. Lorsqu’un ordinateur recherche une adresse libellée en clair, il interroge le serveur DNS (Domain Name Server) pour connaître l’adresse IP correspondante.

On voit que le paramétrage de TCP/IP est complexe. Ce protocole étant désormais largement répandu dans le monde de la micro informatique, Microsoft a intégré dans son système d’exploitation Windows un service de paramétrage dynamique DHCP (Dynamic Host Configuration Protocol). Le rôle de DHCP est d’attribuer automatiquement des adresses IP aux ordinateurs du réseau.

Page 25: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 25

2.5. Les réseaux locaux (LAN)

2.5.1. ETHERNET

Ethernet fait partie de la famille de protocoles CSMA/CD définis par la norme IEEE 802.3. Physiquement, un segment Ethernet est un câble sur lequel sont connectés les différents nœuds du réseau. Il peut s’agir de fibre optique, de câbles à paires torsadées, de câbles coaxiaux :

Support Longueur maximale

Paires torsadées 100 mètres

Fibre optique 2 km

Câble coaxial 185 mètres

Ethernet est basé sur une typologie logique de type bus : les trames émises sont diffusées en parallèle à tous les nœuds du réseau.

2.5.1.1. LE 10 MBPS L’architecture Ethernet standard est performante en présence d’un trafic faible. Elle se révèle lente dès que le trafic devient trop important en raison des collisions plus fréquentes.

Une différence doit être faite entre le trafic sur le réseau et le nombre de postes connectés. Le réseau peut saturer avec quelques postes s’échangeant beaucoup de données et fonctionner correctement avec de nombreux postes connectés dialoguant peu souvent et/ou échangeant peu d’informations.

2.5.1.2. LE 100 MBPS Il utilise la même méthode d’accès et le même format de trame. Cependant les élément matériels (Hub, adaptateurs) sont spécifiques. Ceux utilisés pour l’Ethernet à 10 Mbps ne peuvent donc pas être recyclés. Des collisions étant toujours possibles, le débit réel sera inférieur aux 100 Mbps théoriques (40 à 60 Mbps).

Le protocole Ethernet s’applique aux réseaux locaux, les connexions longue distance passent par des réseaux étendus dont les protocoles sont présentés dans les paragraphes suivants. En outre, Ethernet n’est pas vraiment adapté aux transmissions numériques massives requises par le multimédia en raison de l’absence de synchronisation.

2.5.2. LE RESEAU A JETON

Ce type de réseau local est basé sur une méthode d'accès à jeton.

Ces méthodes d'accès, basées sur la circulation d'un jeton (token), sont des méthodes déterministes empêchant les collisions de se produire. Le principe de base utilise un jeton libre (qui est une séquence de bits prédéfinie) circulant librement sur le réseau. Toute station désirant émettre un message doit s'emparer du jeton. Dès qu'elle l'a pris, elle peut émettre son ou ses messages librement. Quand elle a terminé d'émettre, elle renvoie le jeton sur le réseau à la station suivante. Si le jeton est pris par une autre station, il faut attendre. Ainsi, il n'y a pas de risque de collision. Cette méthode peut être employée pour des réseaux en bus ou en anneau.

Cette technique est utilisée dans l'anneau à jeton (token ring) d'IBM qui permet des débits de l'ordre de 18 Mbps.

Page 26: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 26 Toute reproduction même partielle interdite IGPDE

2.5.3. LE STANDARD FDDI

FDDI (Fiber Distributed Data Interface) est un standard pour réseaux locaux ou métropolitains. Ce standard est basé sur une structure d'anneau à jeton ainsi que sur l'utilisation de fibres optiques pour le câblage. Ce protocole doit permettre d'accroître considérablement la performance, la sécurité et la fiabilité des réseaux locaux. Il couvre les deux premiers niveaux du modèle OSI.

Le principal avantage de la fibre optique et de la transmission de signaux lumineux par rapport aux fils de cuivre et des signaux électriques provient de la bande passante disponible. Le standard FFDI définit une bande passante de 100 Mbits par seconde (Mbps) alors qu'un réseau de type Ethernet est prévu pour 10 Mbits/s.

Parmi les autres avantages de FDDI, notons que les stations sur le réseau peuvent être séparées par de longues distances jusqu'à deux kms). La distance maximale prévue pour de tels réseaux est d'une centaine de kms.

La technologie FDDI repose sur l'utilisation de deux anneaux à jeton pour garantir une bonne fiabilité. En mode normal d'utilisation seul un des anneaux est utilisé. Le second n'est utilisé qu'en cas de problèmes sur le premier anneau. Les informations circulent alors dans le sens opposé à celui du premier anneau.

Le problème majeur dans l'utilisation de fibres optiques provient de la difficulté à réaliser des connexions.

2.6. Le réseau mondial Internet

Un développement de la notion d'Internet a été réalisé par l'organisation DARPA (Defense Advanced Projects Research Agency) connue pour son réseau Arpanet. Ce développement a donné lieu à un modèle appelé TCP/IP (Transmission Control Protocol / Internet Protocol) du nom des deux protocoles les plus connus. TCP fournit un service de transport de bout en bout pour toute application, alors que IP est responsable du routage de l'information à travers le réseau.

Internet ne doit pas être considéré comme une mode passagère, une technologie supplémentaire, mais bien plutôt comme la forme la plus apparente de la révolution numérique. Son entrée dans la société informationnelle et l’émergence de nouveaux outils de communication bouleversent déjà les règles de l’économie mondiale.

Nous assistons depuis une quinzaine d’année à développement dynamique d’Internet. En 1995, le monde comptait moins de 10 millions de serveurs Internet, il y en a plus de 100 millions aujourd’hui. Ce succès a surpris presque tout le monde par sa rapidité et sa puissance, qui n’en est probablement qu’au commencement.

2.6.1. DEFINITION

Internet, le "Réseau des réseaux", est un ensemble de réseaux interconnectés sous le protocole TCP/IP. Les autorités militaires de l’époque ont voulu mettre sur pied un réseau capable : ♦ de relier une grande variété d’ordinateurs, quelques soient leurs systèmes d’exploitation

respectifs ; ♦ de résister à une attaque nucléaire. De ce fait, le réseau ne devait pas être centralisé. Ses

fonctions vitales ne devraient pas être concentrées sur quelques sites.

Plusieurs organismes gèrent le fonctionnement d’Internet :

Page 27: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 27

♦ l’ISOC (Internet Society) créée en 1990 organise, centralise et finance les travaux de normalisations des protocoles utilisées sur Internet ;

♦ l’IAB (Internet Architecture Board) conseille techniquement l’ISOC depuis 1983. Elle est composée de l’IETF et de l’IRTF ;

♦ l’IETF (Internet Engineering Task Force) est chargée de résoudre les problèmes à court terme ;

♦ l’IRTF (Internet Research Task Force) est chargée de l’évolution, à long terme d’Internet.

2.6.2. L’ACCES AU RESEAU INTERNET

Le réseau Internet est composé des éléments suivants : ♦ L’utilisateur, équipé d’un micro-ordinateur, lance l’exécution d’un logiciel de navigation (le

"navigateur") qui demande à consulter un site Web. L’ordinateur compose le numéro de téléphone du fournisseur d’accès.

♦ Les fournisseurs d’accès ("providers" en anglais) sont des intermédiaires incontournables qui ouvrent une "porte" sur Internet, moyennant un abonnement dont la tendance va vers la gratuité (financement par la publicité). Ils disposent de lignes privées à haut débit fonctionnant 24 heures sur 24. Ils établissent la connexion avec le réseau, attribuent une adresse (IP) à l’utilisateur et lui envoient celle du serveur Web demandé.

♦ Internet repose sur une norme de communication permettant la coopération entre des machines et des réseaux disparates. L’information et son cheminement sont gérés par deux protocoles de transmissions, "TCP" et "IP". Le protocole TCP (Transmission Control Protocol) établit une connexion entre deux ordinateurs et fragmente les données en petits paquets numériques. Le protocole IP (Internet Protocol) assure le cheminement et la cohérence de ces données. L’adresse IP attribuée par le fournisseur d’accès est une suite de quatre nombres qui désigne et identifie l’ordinateur sur le réseau. Dès que l’ordinateur est identifié, l’information peut transiter.

♦ L’information est dirigée vers les routeurs, ordinateurs spécialisés dans la régulation du trafic (par l’utilisation de tables de routage IP). Ils reçoivent les données sous forme de paquet TCP générés par l’ordinateur de l’internaute. Ils les vérifient et les acheminent vers leur destination finale. Les paquets transitent par différents routeurs.

♦ L’information arrive à destination. Les paquets sont rassemblés. Le serveur du site (appelé "site Web") fragmente la page Web demandée en paquets TCP. Il utilise le même procédé pour retourner l’information vers l’internaute.

Internet offre une grande variété de services que l’on peut regrouper en quatre ensembles : ♦ la communication entre personnes ; ♦ le transfert de fichiers ; ♦ les applications du Web.

2.6.3. LES SERVICES DE COMMUNICATION ENTRE PERSONNES

Ils permettent de s’échanger des messages et/ou d’y adjoindre des documents sous forme de pièces jointes. Il s’agit : ♦ des messageries électroniques (e-mail) ; ♦ des forums de discussions ; ♦ de la téléphonie et de la visiophonie.

Page 28: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 28 Toute reproduction même partielle interdite IGPDE

2.6.3.1. MESSAGERIES ELECTRONIQUES (E-MAIL)

Les services de messagerie utilisent le protocole SMTP (Simple Mail Transfert Protocol) pour l’envoi des messages accessibles en ligne.

Par contre, en mode différé, le message est rédigé hors connexion et envoyé sur un serveur POP (Post Office Protocol).

Les pièces jointes doivent être au format ASCII. L’utilitaire MIME (Multipurpose Internet Mail Extension) permet de transférer des fichiers binaires.

2.6.3.2. LES FORUMS DE DISCUSSION

Organisés par thèmes, ils regroupent des boites à lettres qui permettent l’échange d’informations. Quelques exemples de thèmes : news (informations sur le réseau, utilisent les protocoles UUCP et NNTP), sci (sciences), misc (miscellaneous : divers)…

2.6.3.3. LA TELEPHONIE ET LA VISIOPHONIE

Il s’agit en réalité non pas de communication en temps réel mais de transfert de fichiers son et vidéo qui, s’ils sont rapides, donnent l’illusion d’une communication en temps réel.

Le son et la vidéo sont numérisés, compressés puis transmis à la machine distante qui effectue leur décompression et leur restitution.

La qualité de la communication est fortement dépendante de la bande passante de la liaison à Internet, de la charge du réseau et de la puissance de traitement des machines interconnectées.

2.6.3.4. LE TRANSFERT DE FICHIERS (FTP)

FTP (File Transfert Protocol) permet d’importer sur la machine locale des fichiers ASCII ou binaires (par l’intermédiaire de MIME) disponibles sur un serveur distant.

Une phase d’authentification (fourniture d’un nom d’utilisateur "login" et d’un mot de passe) est généralement préalable au transfert proprement dit.

Il existe cependant des noms génériques donnant l’accès à des données "publiques", généralement il s’agit de "guest" (invité) ou "anonymous" (anonyme).

L’accès aux fichiers disponibles s’effectue comme sur un disque dur local, avec des restrictions d’accès selon les droits conférés à l’utilisateur authentifié. Ces systèmes distants sont souvent gérés sous Unix.

2.6.3.5. LE WORLD WIDE WEB (WWW)

Le World Wide Web (www), généralement abrégé en "Web" signifie "Toile Mondiale", par analogie au maillage d’une toile d’araignée.

Le Web est né au CERN (Centre Européen de Recherche Nucléaires) pour permettre l’échange aisé d’informations entre les ordinateurs des différents laboratoires.

L’accès au réseau Internet passe par l’usage d’adresses TCP/IP et éventuellement de noms de domaines.

Page 29: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 29

2.6.3.6. L’URL

Le Web est un sous-ensemble d’Internet dans lequel chaque ordinateur est identifié par une adresse spécifique : l’URL (Uniform Resource Locator), dont la structure est la suivante :

<protocole>://<domaine>:<port>/<chemin d’accès>/<fichier>#<balise-html-optionnelle>

Par exemple "http://www.ladocfrancaise.gouv.fr" donne accès au site de la documentation française.

En permettant d’accéder de proche en proche aux ordinateurs composant le réseau et en gérant le dialogue, le mode de fonctionnement Web permet d’utiliser plus efficacement et plus simplement Internet.

2.6.3.7. LE MODELE CLIENT/SERVEUR DU WEB

Le navigateur s’appuie su IP pour transmettre les requêtes aux serveurs concernés. Chaque serveur « écoute » des ports correspondant aux services qu’il fournit.

Par défaut, le port 80 est affecté au service HTTP, le port 21 au service FTP. Des programmes dédiés prennent ensuite en charge le traitement des requêtes.

Le succès du Web est basé sur l’utilisation de deux protocoles : HTML et HTTP.

2.6.3.8. LE PROTOCOLE HTML

HTML (Hypertext Mark-up Language) d’associer à un ensemble de mots consécutifs, dans un texte donné, les coordonnées d’un site (Web ou FTP) ou d’un fichier. Cet ensemble de mots est mis en valeur par rapport au texte (couleur spécifique et/ou soulignement).

C’est ce que l’on nomme les liens hypertexte. En cliquant (avec la souris) sur cet ensemble de mots à l’écran, l’utilisateur accède directement à l’élément référencé.

Ces systèmes d’hypertexte sont également utilisés en dehors d’applications réseau, pour naviguer entre des pages d’un document important (fichiers d’aide, dictionnaires, ouvrages encyclopédiques…).

2.6.3.9. LE PROTOCOLE HTTP

HTTP (HyperText Transfert Protocol) permet de différencier, lors des connexions aux ordinateurs du réseau, la représentation de l’information et le codage des liens hypertexte à représenter. HTTP autorise l’accès aux pages HTML et aux éléments multimédia les composant : images, vidéos et sons.

2.6.3.10. LA STRUCTURE DE L’INFORMATION SUR LE WEB

L’analogie la plus utilisée pour expliquer le Web est celle d’un livre. Imaginez chaque site Internet comme un ouvrage dont le texte comporterait des renvois à non seulement à d’autres chapitres de l’ouvrage mais aussi des renvois aux autres livres de la bibliothèque et aux documents de l’ensemble des bibliothèques de la planète.

L’intérêt extrême accordé au Web s’explique par l’aisance de navigation entre les renvois. L’utilisateur consultant la page HTML n’a pas à connaître l’URL du renvoi. Seul le concepteur de la page Web doit la connaître. L’utilisateur ne verra qu’un texte explicatif ou une image sur lequel il cliquera pour accéder au site désiré.

Page 30: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 30 Toute reproduction même partielle interdite IGPDE

La définition des pages Web HTML ne se contente pas de permettre la définition des liens entre les pages Web. Il constitue un langage de description de mise en forme. Des mots-clés permettent de définir les polices de caractères utilisées, de diviser la page en zones, d’inclure des tableaux, des images…

L’utilisation du Web La lecture de pages HTML est effectuée par un programme spécifique dénommé « navigateur ». Il fusionne un gestionnaire de télécommunication reposant sur le protocole HTTP et un interpréteur de langage HTML pour la restituer à l’écran des pages du Web. Les navigateurs les plus connus sont Internet Explorer (de Microsoft) et Navigator (de Netscape).

Les sites Internet Chaque page Web est conçue soit en programmant en code HTML, soit en utilisant un logiciel spécialisé tel que Microsoft FrontPage ou WebExpert ; ce type de logiciel ayant l’avantage de dispenser l’utilisateur d’une connaissance du code HTML et de permettre une visualisation de la page. Lorsque la page est terminée, le(s) fichier(s) contenant le code HTML et les éventuels documents multimédia associés sont copiés sur le serveur du fournisseur d’accès.

2.6.4. EXTRANET ET INTERNET, DECLINAISONS DE LA TECHNOLOGIE INTERNET

La technologie Internet est utilisée sous deux autres formes : Intranet et Extranet : ♦ Intranet est un réseau à technologie Internet mais réservé exclusivement à un nombre

restreint de personnes, le plus souvent appartenant à la même entreprise ou administration. L’intérêt majeur d’Intranet est de fédérer des environnements applicatifs hétérogènes et ainsi de les rendre accessibles à un plus grand nombre à moindre frais, mais également de mutualiser, de capitaliser et de rendre accessibles les connaissances à l’intérieur de l’entreprise ou de l’administration.

♦ Extranet est une variante d’Intranet mais dont l’accès est ouvert à un nombre restreint de personnes externes à l’entreprise ou à l’administration.

2.7. Les futures infrastructures technologiques des réseaux à haut débit

Si, pour l’heure, les infrastructures de réseaux et les technologies de transport des projets américains "Internet 2" et européens "TEN-155/Quantum" ont été conçues pour les communautés universitaires, elles n’en demeurent pas moins un laboratoire de tests pour l’industrie, d’où devrait sortir la prochaine génération d’Internet.

Les technologies nouvelles vont permettre aux opérateurs de brasser plus de trafic pour une qualité de service enfin à la mesure des besoins.

Il ne faudra pas plus de un à trois ans pour que les technologies récentes commencent aient des répercussions sur Internet et qu’elles donnent naissance à une nouvelle génération d’infrastructures physiques et applicatives. Ces travaux devraient déboucher sur de nouvelles technologies qui permettent de mieux gérer la bande passante.

Ces nouvelles générations d’infrastructures physiques et applicatives impliqueront forcément la fusion des réseaux de télécommunication et d’Internet et devraient se concrétiser par des services beaucoup moins chers, notamment pour la téléphonie et la vidéoconférence.

Page 31: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 31

Tous les grands opérateurs travaillent en effet à la mutation de leur réseau qui fera passer sur un même fil des services de voix et de données.

2.7.1. LA VITESSE DE TRANSMISSION, ENJEU TECHNOLOGIQUE MAJEUR

Pour répondre à une demande croissante des entreprises en termes de hauts débits, les opérateurs de télécommunication investissent dans de nouvelles technologies de réseaux à large bande comme le câble, la fibre optique ou l’ADSL.

La guerre que se livrent les fabricants d’équipements de télécommunications et les opérateurs téléphoniques pour prendre position sur ces nouveaux marchés a pour enjeu principal le contrôle de la bande passante, sorte de gros « tuyau » qui alimente l’ordinateur en informations. Plus ce tuyau est large, plus le débit de l’information peut être important, plus vite les données arrivent à l’ordinateur.

Deux types de technologies complémentaires multiplient la capacité de transmission des données : la fibre optique permet le transport de l’information entre les serveurs, tandis que les technologies DSL (Digital Subscriber Line) augmentent la vitesse d’accès entre le serveur et l’utilisateur.

2.7.1.1. LES TECHNOLOGIES DE TRANSMISSION PAR FIBRES OPTIQUES

Les réseaux de fibres optiques ont vu leur performance accrue grâce aux technologies EDFA (Erbium Doped Fiber Amplifier) et DWDM (Dense Wavelenght Division Multiplexing).

La première évite à un signal optique d’avoir à être converti en signal électronique lorsque les informations arrivent sur le serveur. La seconde repose sur la division d’une même ligne en plusieurs sous-lignes qui permet le transport d’une masse d’informations plus importante en un temps plus court.

Une fois que ces informations sont arrivées au serveur, celui-ci les renvoie vers l’utilisateur qui, s’il n’est pas câblé, utilise sa ligne téléphonique comme moyen de réception.

2.7.1.2. LA TECHNOLOGIE DSL OU ADSL (ASYMETRIC DIGITAL SUBSCRIBER LINE)

Expérimentée fin 1996, il aura fallu moins de trois ans pour que la technologie ADSL passe du stade expérimental au stade commercial en Île-de-France.

La technologie ADSL présente l’intérêt d’utiliser les infrastructures des actuels réseaux téléphoniques tout en augmentant leur performance grâce à la conversion du signal analogique en signal numérique.

En numérisant la partie terminale de la ligne téléphonique, la technologie ADSL donne accès à un flux de données à très haut débit tout en laissant disponible la ligne téléphonique. L’ADSL utilise les bandes de fréquences supra-vocales de la ligne téléphonique traditionnelle.

L’installation d’un modem et d’un filtre ADSL à chaque extrémité de la ligne téléphonique permet d’exploiter ces fréquences. Ainsi équipé, il est possible d’émettre et/ou de recevoir des données informatiques à haut débit.

La technologie ADSL autorise des débits 40 à 70 fois plus élevés qu’avec un simple modem sur une ligne RTC. Cette évolution technologique majeure permet d’utiliser une même ligne téléphonique pour téléphoner et naviguer simultanément sur le Web.

Internet est le seul service intéressant sur ADSL, le câble et le satellite étant mieux adaptés à la télévision par exemple. L’ADSL permet de rester connecté en permanence à Internet, avec des débits beaucoup plus importants.

Page 32: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 32 Toute reproduction même partielle interdite IGPDE

Mais si l’ADSL exploite les infrastructures existantes, il nécessite la mise en place d’équipements adaptés, à la fois chez le client (filtre de séparation entre les communications téléphoniques et le trafic des données, modem ADSL et carte réseau Ethernet) et au central téléphonique.

ADSL reste une solution très intéressante pour les gros consommateurs d’Internet et en particulier pour les PME à la recherche de liaisons permanentes et qui hésitent à louer une ligne spécialisée pour des raisons économiques.

2.7.1.3. LE PROTOCOLE IP-V6

La croissance exponentielle du nombre de serveur connecté sur le réseau Internet contribue à rendre obsolète le protocole "IPv4" identifiant chaque machine connectée sur Internet et régissant les échanges d'informations sur le réseau.

Lorsque le protocole "IPv4" a été conçu au début des années 1970, il n'existait qu'une centaine d'ordinateurs en réseau. Quatre milliards d'adresses disponibles, cela semblait alors largement suffisant. Aujourd'hui, on est proche de la pénurie.

L'explosion du réseau mondial engendre, en effet, une pénurie des combinaisons de chiffres identifiant les ordinateurs connectés. Le protocole "IPv4" doit donc progressivement être remplacé.

La nécessité d'une migration vers un système aux capacités presque illimitées constituait le terme central du Forum consacré à l'IPv6 qui s'est tenu à Madrid du 13 au 15 mars 2002. Ce forum, regroupant un grand nombre d'acteurs d'Internet et des télécommunications, a fait écho à une communication de la Commission européenne qui appelait, fin février 2002, les Etats membres et le secteur privé à se mobiliser pour promouvoir le nouveau protocole.

Le déploiement de la norme "IPv6", testée depuis le milieu des années 1990, permettra au réseau de poursuivre sa croissance au-delà des ordinateurs. Il sera en effet indispensable au développement de l'Universal Mobile Telecommunications System (UMTS) et de l'Internet mobile comme à celui de la domotique en réseau.

Le standard actuel, qui prévoit un codage des adresses sur 32 bits (une succession de quatre séries de chiffres telle que : 64.231.174.167) permet l'octroi d'un nombre d'adresses IP plafonné à environ 4 milliards. La norme "IPv6" permet de coder des adresses IP sur une longueur quatre fois plus grande, c'est-à-dire 128 bits. Il en résulte des capacités d'adressage presque infinies, c'est-à-dire de l'ordre de 4 milliards à la puissance quatre.

Le nouveau standard devrait se développer plus rapidement en Asie où le manque d'adresses est le plus fort. Aujourd'hui, une part importante du déploiement d'IPv6 se situe au Japon. En Europe, les entreprises n'ont pas encore un fort besoin de franchir le pas.

Le basculement ne se fait pas sans mal, car tous les maillons de la chaîne - logiciels, systèmes d'exploitation, routeurs, etc. - doivent être adaptés à la nouvelle norme. De plus, les deux protocoles doivent cohabiter sur les mêmes équipements.

En aucun cas le basculement d'un protocole à l'autre ne se fait de façon brutale. Aujourd'hui, poursuit le chercheur, "99,99 % du trafic mondial repose encore sur le protocole "IPv4". Dans les cinq à dix prochaines années, la tendance devrait lentement s'inverser.

L'arrivée massive sur le marché de nouveaux terminaux connectés en permanence au réseau et, notamment, des terminaux téléphoniques de troisième génération ou les nouvelles applications domotiques, créera une forte demande d'adresses et devrait accélérer ce processus.

Aujourd'hui, il est nécessaire de configurer manuellement toute connexion au réseau, ce qui est une opération relativement complexe. Le protocole IPv6 contient une fonction d'autoconfiguration qui simplifiera grandement la procédure de connexion.

Page 33: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 33

Une simplification nécessaire à la mise en réseau d'appareils d'usage courant et à l'émergence de nouvelles applications comme, par exemple, un caméscope capable de se connecter directement au Réseau sans le truchement d'un PC.

Lors des premiers tests, IPv6 a souvent été présenté comme offrant une meilleure qualité de service que son prédécesseur. Les paquets IPv6 incluent un "en-tête" permettant d'en acheminer certains en priorité. Un atout pour les applications nécessitant un débit stable et continu, comme le téléphone sur Internet (VoIP) ou la télémédecine ...

Mais, ce qui poussera à la migration vers IPv6, ce sont surtout les possibilités d'adressage, car le principe des paquets prioritaires a été adapté à "IPv4". Dans le cas particulier des réseaux sans fil de troisième génération, le nouveau standard offrira néanmoins un avantage. Lorsque la connexion saute d'un sous-réseau à un autre, la continuité du débit est interrompue avec le protocole "IPv4", ce qui ne se produit pas avec le protocole de mobilité d'IPv6.

2.7.1.4. ATM SUR ADSL ET FIBRE OPTIQUE POUR LA VISIOPHONIE

France Télécom se livre à des expérimentations mettant en œuvre le mode de transmission ATM sur différents types de réseaux, l’objectif étant d’assurer un service interactif et multimédia entre sites distants.

Ce projet définit de nouveaux services dans lesquels les rapports humains jouent un rôle primordial, en combinant la visiophonie et les outils de travail coopératifs avec les services Internet à haut débit.

L’infrastructure ATM utilisée met en œuvre des réseaux en fibre optique et des réseaux ADSL, assurant la transmission à large bande de ces services avec une garantie de débit jusque sur le poste de réception final.

Des expériences de travail coopératif sur ATM et par satellite sont menées ; notamment l’expérimentation d’une visiophonie par satellite utilisant successivement un lien ATM à 2 Mbps puis une liaison numérique satellitaire et enfin une liaison numérique vers le destinataire.

2.7.1.5. L’ACCES A INTERNET PAR SATELLITE

La connexion à Internet par satellite constitue une solution immédiate qui pourrait répondre aux besoins des internautes privés de liaisons terrestres rapides. L’ensemble du réseau mondial sera accessible par l’installation d’une carte spécifique à l’intérieur de l’ordinateur et relié à une parabole classique. Cette dernière capte le satellite Telecom 2B qui offre un débit total de 2 Mbps à l’ensemble des abonnés professionnels ou le satellite Hot Bird 3 qui dessert les particuliers à 0,5 Mbps. En moyenne la vitesse de réception des données sera 10 fois supérieure à celle que fournissent les modems sur les lignes téléphoniques classiques.

Néanmoins, ce mode de transmission est réservé, bien entendu, à la réception, les lignes téléphoniques servant à émettre les données et les requêtes des internautes. Mais le débit nécessaire pour cette émission est très largement inférieur à celui imposé pour la réception du Web.

2.7.1.6. L’ACCES A INTERNET PAR ONDE RADIO : LE PROTOCOLE "WI-FI"

Le terme Wi-Fi (Wireless Fidelity) désigne une technologie qui permet de faire du réseau sans fil.

C'est un réseau local sans fil qui offre des débits de 11 mégabits, soit 22 fois supérieurs à ceux d'une ligne ADSL normale. On peut faire passer du Web, du FTP, de la radio en ligne, de la vidéo, partager des imprimantes, etc.

Page 34: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 34 Toute reproduction même partielle interdite IGPDE

Il supporte toutes les machines - machines de bureau, ordinateurs portables, assistants numériques -, quel que soit leur environnement : PC, Mac, Linux ou Unix.

Un réseau Wi-Fi n'est pas un accès Internet en soi. C'est un réseau radio.

Pour établir un réseau, il faut une carte pour chaque poste client et un boîtier qui permet d'associer le réseau standard type ADSL et le sans fil. L'équipement est moins cher pour le déploiement du réseau, parce qu'il y a moins de travaux sur la voirie. Pour les utilisateurs, le plus cher est dans le prix de la carte réseau, mais ils gagnent en mobilité.

En France, il est officiellement interdit de déployer un réseau Wi-Fi en extérieur. Le principal obstacle au déploiement de réseaux Wi-Fi est, en effet, le code des télécommunications.

Une tolérance est cependant opérée par l'ART. Il est possible de créer des "hot spots" qui couvrent un immeuble, un quartier, après que ces installations aient reçu l'autorisation de l'ART.

En revanche, la création d'un réseau Wi-Fi d'immeuble à immeuble, entre personnes, reste interdite, ce qui reviendrait à créer un réseau indépendant. Or, la création d'un réseau indépendant est soumise à autorisation de l'ART. Le code des télécommunications reste le principal obstacle au déploiement de réseaux Wi-Fi. L'espoir réside dans le nouveau code européen.

2.7.1.7. L’ACCES A INTERNET PAR LE RESEAU ELECTRIQUE

Accéder à Internet sans avoir besoin d'installer une prise téléphonique, ou de tirer un câble réseau telle est la promesse du CPL (Courant Porteur en Ligne). Emergé des laboratoires en 1998, il semble entrer seulement aujourd'hui en phase d'industrialisation.

Les courants porteurs en ligne constituent une solution permettant de surfer à haut débit sur Internet en utilisant comme relais les prises de courant électriques.

La solution CPL, s'appuie en amont sur un accès haut débit type ADSL déjà installé. A partir de ce point d'entrée "classique", la solution CPL permet de diffuser via le réseau électrique de l'accès Internet dans le bâtiment.

L'offre repose sur des modems CPL à brancher sur des prises électriques standards. Elle est immédiatement opérationnelle si les ordinateurs sont dotés de cartes PC éthernet. Le principal avantage des courants porteurs en ligne est qu'ils permettent de partager de l'accès haut débit en évitant une extension du câblage réseau télécom au sein de l'établissement sans engager des grands travaux d'aménagement réseaux.

A priori, il n'existe pas de limites au nombre de modems que l'on peut installer, sachant naturellement que le nombre de postes connectés à Internet impacte la performance de l'accès haut débit qu'il faut partager.

2.7.2. L’EVOLUTION DES BESOINS ENGENDRES PAR LE RESEAU INTERNET

À mesure que la technologie Internet s’est développée, ses usages ont évolué.

Téléphoner à l’autre bout du monde au coût d’un appel local, envoyer rapidement des données, des messages vocaux, des fax ou encore des vidéos, dans n’importe quel pays en un instant, tout cela est désormais possible grâce à Internet.

Page 35: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 35

On s’oriente en particulier vers davantage d’applications en temps réel ou particulièrement exigeantes en terme de rapidité : télévision numérique, applications partagées, visioconférence, formation à distance… Le potentiel est énorme.

Initialement conçu pour les militaires, puis les chercheurs, universitaires et scientifiques américains, le réseau Internet n’a pas été prévu pour gérer un tel trafic. Le système actuel montre donc ses limites et devient un goulot d’étranglement pour toutes ces applications qui transitent par Internet, ralentissant ainsi le débit qui est devenu insuffisant pour la majorité des utilisateurs. De ce fait, augmenter le débit des connexions reste l’une des préoccupations majeures des opérateurs de télécommunications. C’est bien évidemment l’infrastructure qui est en cause au travers des technologies de transport utilisées sur Internet.

Le protocole de transmission des données IP ne sait ni gérer les priorités, ni garantir qu’un paquet de données arrive à bon port, ni encore assurer la sécurité des informations. Difficile, dans ces conditions, de mettre en place des applications commerciales, multimédias, de téléphonie et autres vidéoconférences. Pourtant, c’est précisément ce type de services que les entreprises attendent d’Internet.

Pour offrir les débits nécessaires à ces nouvelles exploitations du réseau, des projets sont actuellement menés aux États-Unis et en Europe. Ces projets devraient déboucher sur de nouvelles technologies qui enrichiront la qualité des services sur Internet.

2.7.2.1. LE PROJET AMERICAIN "INTERNET 2"

Lancé dès 1996, le projet "Internet 2", régi par le consortium UCAID (University Corporation for Advanced Internet Development), compte une centaine d’universités américaines et des sociétés telles qu’IBM, 3Com, Cisco, Nortel, Qwest ou encore MCI.

Ce projet poursuit un double objectif : fournir une infrastructure performante aux chercheurs et universitaires et encourager le développement de nouvelles technologies de transport afin de garantir une qualité de service optimale.

Plutôt que de chercher à améliorer l’Internet actuel, le projet se propose de repartir sur des bases saines et de développer un nouveau réseau universitaire à très haut débit. Cet Internet nouvelle génération, basé sur un ensemble de technologies et de protocoles très récents et axés sur les applications multimédias large bande, sera d’abord un outil de travail pour chercheurs et universitaires capables d’exploiter pleinement les capacités de l’infrastructure, le but ultime étant par la suite de transférer les résultats du projet à la communauté Internet en général.

Un volet du projet comprend également la mise en œuvre de systèmes applicatifs (travaux en commun à distance, réalité virtuelle…), rendue possible par de très hauts débits sur le réseau.

Elle s’appuie sur deux dorsales et des points de présence à hauts débits qui relient les universités américaines. Ces deux dorsales VBNS (Very High Performance Backbone Network Service) et ABILENE permettent de brasser un trafic de 622 Mbps et devraient autoriser un débit allant jusqu’à 2 400 Mbps.

2.7.2.2. LES PROJETS EUROPEENS "TEN-155" ET "QUANTUM"

Soutenu par l’Espagne, l’Allemagne, la Grèce, l’Italie, la France et la Suisse, le programme européen est coordonné par la société DANTE (une société privée détenue par les réseaux gouvernementaux nationaux de la recherche et de l’éducation en Europe).

À l’inverse d’Internet 2, ces programmes n’intègrent aucun projet de recherche mais sont focalisés sur des programmes européens transversaux d’infrastructure rapide à destination de la communauté scientifique et universitaire. Américains et européens se différencient également par

Page 36: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 36 Toute reproduction même partielle interdite IGPDE

des vitesse de communication différentes : 622 Mbps pour Internet 2, contre seulement 150 Mbps en Europe.

Moins avancé que le projet américain Internet 2 et moins ambitieux faute de moyens, le projet européen a été conçu sur les mêmes bases : fournir une infrastructure à la communauté des chercheurs et universitaires européens. Au départ, le projet, baptisé TEN34, ne comprenait qu’une infrastructure de réseau dont le débit restait limité à 22 Mbps sur la dorsale RENATER en France. D’où une vitesse de communication basse. En outre, l’absence de marché européen des télécommunications complique les négociations. Le prix des interconnexions reste très élevé par rapport aux États-Unis et, contrairement à Internet 2, aucun sponsor ne soutient les Européens, les projets étant financés par les États membres.

Néanmoins, une prochaine génération est en cours de déploiement, offrant un débit de 150 Mbps (projet TEN-155), accompagné du programme QUANTUM (Quality Network Technology for User-oriented Multimédia). Ce dernier prévoit un développement des technologies de transport et de la qualité de service, dans le cadre de la mise en œuvre d’applications multimédia.

3. LE RESEAU PRIVE VIRTUEL (RPV)

Un réseau privé virtuel (en anglais : Virtual Private Network : VPN) est un réseau étendu privé établi en créant des liaisons permanentes spécialisées entre réseaux d'entreprises à travers des réseaux publics afin de répondre aux besoins en partage des ressources de ses utilisateurs.

Le principal avantage de ce système réside dans l’intégration de mécanisme de chiffrement et d’authentification pour préserver le réseau virtuel des utilisateurs non-autorisés.

Un réseau privé relie différents sites (réseaux locaux) géographiquement éloignés d'une entreprise ou d'une autre entité privée multisite.

3.1. Eléments matériel de base

La plupart des réseaux privés sont "virtuels", au sens où les supports de transmission qu'ils empruntent ne sont pas propres à l'entreprise. Il serait en effet irrationnel aussi bien sur le plan économique que sur le plan pratique de laisser chaque personne morale qui le souhaiterait construire son réseau propre.

Les RPV sont donc bâtis sur l'infrastructure des réseaux publics existants. Ils partagent, par multiplexage , avec le reste du trafic les artères principales de ces réseaux, mais sont protégés par divers processus de contrôle d'accès et de chiffrement.

Les réseaux publics supports des RPV ont été d'abord en France Transpac, le réseau national X.25 et son évolution plus rapide dite "relais de trame".

Pour les plus gros besoins en termes de débit, la nouvelle infrastructure ATM est désormais un support de choix. Mais le recours au plus grand réseau public mondial, Internet , est bien entendu également prometteur pour les RPV à moyen débit.

Page 37: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 37

3.2. Le concept de réseau privé virtuel

Les réseaux locaux d'entreprise (LAN ou RLE) sont des réseaux internes à une organisation, c'est-à-dire que les liaisons entre machines appartiennent à l'organisation. Ces réseaux sont de plus en plus souvent reliés à Internet par l'intermédiaire d'équipements d'interconnexion. Il arrive ainsi souvent que des entreprises éprouvent le besoin de communiquer avec des filiales, des clients ou même du personnel géographiquement éloignées via internet.

Pour autant, les données transmises sur Internet sont beaucoup plus vulnérables que lorsqu'elles circulent sur un réseau interne à une organisation car le chemin emprunté n'est pas défini à l'avance, ce qui signifie que les données empruntent une infrastructure réseau publique appartenant à différents opérateurs. Ainsi il n'est pas impossible que sur le chemin parcouru, le réseau soit écouté par un utilisateur indiscret ou même détourné. Il n'est donc pas concevable de transmettre dans de telles conditions des informations sensibles pour l'organisation ou l'entreprise.

La première solution pour répondre à ce besoin de communication sécurisé consiste à relier les réseaux distants à l'aide de liaisons spécialisées. Toutefois la plupart des entreprises ne peuvent pas se permettre de relier deux réseaux locaux distants par une ligne spécialisée, il est parfois nécessaire d'utiliser Internet comme support de transmission.

Un bon compromis consiste à utiliser Internet comme support de transmission en utilisant un protocole d'"encapsulation" (en anglais tunneling, d'où l'utilisation impropre parfois du terme "tunnelisation"), c'est-à-dire encapsulant les données à transmettre de façon chiffrée. On parle alors de réseau privé virtuel (noté RPV ou VPN, acronyme de Virtual Private Network) pour désigner le réseau ainsi artificiellement créé.

Ce réseau est dit virtuel car il relie deux réseaux "physiques" (réseaux locaux) par une liaison non fiable (Internet), et privé car seuls les ordinateurs des réseaux locaux de part et d'autre du VPN peuvent "voir" les données.

Le système de VPN permet donc d'obtenir une liaison sécurisée à moindre coût, si ce n'est la mise en oeuvre des équipements terminaux. En contrepartie il ne permet pas d'assurer une qualité de service comparable à une ligne louée dans la mesure où le réseau physique est public et donc non garanti.

Page 38: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

page 38 Toute reproduction même partielle interdite IGPDE

3.3. Fonctionnement d'un VPN

Un réseau privé virtuel repose sur un protocole, appelé protocole de tunnelisation (tunneling), c'est-à-dire un protocole permettant aux données passant d'une extrémité du VPN à l'autre d'être sécurisées par des algorithmes de cryptographie.

Le terme de "tunnel" est utilisé pour symboliser le fait qu'entre l'entrée et la sortie du VPN les données sont chiffrées (cryptées) et donc incompréhensible pour toute personne située entre les deux extrémités du VPN, comme si les données passaient dans un tunnel. Dans le cas d'un VPN établi entre deux machines, on appelle client VPN l'élément permettant de chiffrer et de déchiffrer les données du côté utilisateur (client) et serveur VPN (ou plus généralement serveur d'accès distant) l'élément chiffrant et déchiffrant les données du côté de l'organisation.

De cette façon, lorsqu'un utilisateur nécessite d'accéder au réseau privé virtuel, sa requête va être transmise en clair au système passerelle, qui va se connecter au réseau distant par l'intermédiaire d'une infrastructure de réseau public, puis va transmettre la requête de façon chiffrée. L'ordinateur distant va alors fournir les données au serveur VPN de son réseau local qui va transmettre la réponse de façon chiffrée. A réception sur le client VPN de l'utilisateur, les données seront déchiffrées, puis transmises à l'utilisateur ...

3.3.1. LES PROTOCOLES DE TUNNELISATION

Les principaux protocoles de tunneling sont les suivants : ♦ PPTP (Point-to-Point Tunneling Protocol) est un protocole de niveau 2 développé par

Microsoft, 3Com, Ascend, US Robotics et ECI Telematics. ♦ L2F (Layer Two Forwarding) est un protocole de niveau 2 développé par Cisco, Northern

Telecom et Shiva. Il est désormais quasi-obsolète ♦ L2TP (Layer Two Tunneling Protocol) est l'aboutissement des travaux de l'IETF (RFC 2661)

pour faire converger les fonctionnalités de PPTP et L2F. Il s'agit ainsi d'un protocole de niveau 2 s'appuyant sur PPP.

♦ IPSec est un protocole de niveau 3, issu des travaux de l'IETF, permettant de transporter des données chiffrées pour les réseaux IP.

3.3.2. LE PROTOCOLE PPTP

Le principe du protocole PPTP (Point to Point Tunneling Protocol) est de créer des trames sous le protocole PPP (Point to Point Protocol) et de les encapsuler dans un datagramme IP.

Ainsi, dans ce mode de connexion, les machines distantes des deux réseaux locaux sont connectés par une connexion point à point (comprenant un système de chiffrement et d'authentification, et le paquet transite au sein d'un datagramme IP.

Page 39: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les réseaux

Toute reproduction même partielle interdite IGPDE page 39

Datagramme IP

Trame PPP

Message original

De cette façon, les données du réseau local (ainsi que les adresses des machines présentes dans l'en-tête du message) sont encapsulées dans un message PPP, qui est lui-même encapsulé dans un message IP.

3.3.3. LE PROTOCOLE L2TP

Le protocole L2TP est un protocole standard de tunnelisation (standardisé dans un RFC) très proche de PPTP. Ainsi le protocole L2TP encapsule des trames protocole PPP, encapsulant elles-mêmes d'autres protocoles (tels que IP, IPX ou encore NetBIOS).

3.3.4. LE PROTOCOLE IPSEC

IPSec est un protocole défini par l'IETF permettant de sécuriser les échanges au niveau de la couche réseau. Il s'agit en fait d'un protocole apportant des améliorations au niveau de la sécurité au protocole IP afin de garantir la confidentialité, l'intégrité et l'authentification des échanges.

Le protocole IPSec est basé sur trois modules : ♦ IP Authentification Header (AH) concernant l'intégrité, l'authentification et la protection contre le

rejeu. des paquets à encapsuler ; ♦ Encapsulating Security Payload (ESP) définissant le chiffrement de paquets. ESP fournit la

confidentialité, l'intégrité, l'authentification et la protection contre le rejeu.

Security Assocation (SA) définissant l'échange des clés et des paramètres de sécurité. Les SA rassemblent ainsi l'ensemble des informations sur le traitement à appliquer aux paquets IP (les protocoles AH et/ou ESP, mode tunnel ou transport, les algo de sécurité utilisés par les protocoles, les clés utilisées,...). L'échange des clés se fait soit de manière manuelle soit avec le protocole d'échange IKE (la plupart du temps), qui permet aux deux

Page 40: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les architectures informatiques

page 40 Toute reproduction même partielle interdite IGPDE

LES ARCHITECTURES INFORMATIQUES

1. L’ARCHITECTURE CENTRALISEE

1.1. L’informatique totalement centralisée

Constituée d’un gros ordinateur et d’un pupitre, ce type d’architecture remonte aux débuts de l’informatique de gestion.

Au ministère des finances, cette architecture a été mise en place dans les années 1960. Elle ne permettait que le traitement par lots. Chaque utilisateur soumettait un travail à la salle machine sous la forme d’un paquet de cartes perforées. Ces cartes étaient "habillées" d’autres cartes destinées à conduire les travaux. Elles portaient alors le nom de cartes "job".

Ce type d’architecture a perduré jusqu’au milieu des années 1970, époque de l’arrivée des premiers écrans et du début des travaux transactionnels.

1.2. L’informatique centralisée avec télétraitement

Cette architecture représente la première grande révolution dans l’informatique professionnelle. Le programmeur ou l’utilisateur dispose d’un écran "passif" déporté dans son bureau et relié à sa machine hôte par réseau. Il soumet ses travaux directement depuis son clavier en utilisant un "langage de commande". Il y a donc une réelle interactivité entre l’homme et la machine.

Cette architecture vieillissante se rencontre encore en France de nos jours et continue à rendre des services appréciables.

2. L’ARCHITECTURE DECONCENTREE

2.1. L’informatique répartie avec fichiers centralisés

Dans ce type d’architecture, les programmes sont déportés sur des ordinateurs plus petits que celui du site central ; ce dernier ne conservant que les gros fichiers ou bases de données importantes.

Cette architecture, qui préfigurait l’informatique répartie, trouvait sa justification dans les problèmes liés au volume des fichiers, aux coûts de stockage et à un certain retard technologique par rapport à l’évolution des organisations.

Page 41: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Les architectures informatiques

Toute reproduction même partielle interdite IGPDE page 41

2.2. L’informatique répartie avec fichiers répartis

Dans ce type d’organisation deux niveaux de traitements sont prévus.

En local (niveau région, niveau département ou niveau service), les ordinateurs disposent à la fois de leurs propres programmes et de leurs propres fichiers.

Au plan central, des applications spécifiques permettent des regroupements de fichiers locaux et des traitements de masse ou à compétence géographique étendue.

Cette architecture est toujours présente parmi les grandes entreprises et les administrations.

2.3. L’informatique totalement décentralisée

Ici, des choix politiques d’organisation ont été effectués par le biais d’un schéma directeur informatique dans le but de responsabiliser des services en leur donnant la maîtrise de leurs données. Souvent, chaque service utilisera les mêmes programmes que les autres services mais disposera de fichiers ou bases de données propres, limités à leur compétence géographique. Cette architecture n’est pas totalement fermée puisqu’il sera toujours possible de la relier à un autre niveau d’exploitation ou de consultation grâce à la mise en place d’outils réseau.

3. L’ARCHITECTURE CLIENT/SERVEUR

3.1. Sur serveur mini

Architecture récente, ce modèle est largement utilisé de nos jours.

Ce modèle met en œuvre des machines (évoluant par exemple sous environnement UNIX) qui gèrent le réseau local ainsi que les partages des gros fichiers, et des micro-ordinateurs qui fonctionnent avec leurs propres programmes ou ceux du serveur.

Dans ce dernier cas, les PC fonctionnent en émulation (par exemple UNIX).

L’émulateur Affinity est utilisé pour ce type d’architecture et d’exploitation. Un des gros avantages réside dans la substitution d’écrans passifs UNIX vieillissants (dont la maintenance est de plus en plus difficile) par des micros qui peuvent également permettre de travailler sous Dos ou Windows.

3.2. Sur serveur de type PC

Le serveur est un micro-ordinateur "musclé" de type PC qui assure le partage des ressources communes (imprimantes, graveurs et/ou lecteurs de CD-ROM, bases de données, gros programmes, périphériques de sauvegarde, connexions extérieures).

Ce type d’architecture tend à se généraliser.

Page 42: FASCICULE INFORMATIQUE GENERALE · 2007. 2. 20. · Ce fascicule n'aborde que des notions propres à l'informatique de gestion et exclus d'autres aspects propres aux domaines :

Institut de la Gestion Publique

et du Développement Economique 20, allée Georges Pompidou

94306 Vincennes cedex SERVEUR PEDAGOGIQUE INTRANET

http://alize.alize/crp/tic

2004