38
FASCICULE INFORMATIQUE GENERALE Notions générales

FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

  • Upload
    others

  • View
    1

  • Download
    1

Embed Size (px)

Citation preview

Page 1: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

FASCICULE INFORMATIQUE GENERALE

Notions générales

Page 2: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

AVERTISSEMENT

CET OUVRAGE CONTIENT DES REPRODUCTIONS EFFECTUEES PAR L'IGPDE AVEC L'AUTORISATION DU CENTRE FRANÇAIS D'EXPLOITATION DU DROIT DE COPIE (CFC).

TOUTE NOUVELLE REPRODUCTION EST SOUMISE A L'AUTORISATION PREALABLE DU CFC .

Page 3: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

SOMMAIRE

INTRODUCTION............................................................................................................... 4 1. Informatique............................................................................................................................. 4 2. Traitement automatisé et ordinateur ..................................................................................... 5 3. Traitement automatisé et programme (logiciel) ................................................................... 6 4. Traitement automatisé et information ................................................................................... 7

HISTOIRE DES TECHNOLOGIES DE L'INFORMATIQUE...... 9 1. Les progrès conceptuels ........................................................................................................ 9 2. Les débuts de la mécanisation du calcul............................................................................ 10 3. Les progrès du XIXème siècle.............................................................................................. 12 4. Les progrès du XXème siècle............................................................................................... 15 5. La naissance de l'ordinateur ................................................................................................ 16 6. La naissance de l'industrie informatique : la première génération d'ordinateur............ 18 7. La deuxième génération d'ordinateur ................................................................................. 19 8. La troisième génération d'ordinateur .................................................................................. 21 9. La quatrième génération d'ordinateur................................................................................. 22 10. Le développement de la micro-informatique ................................................................. 23 11. La micro-informatique nomade ....................................................................................... 24

11.1. Les assistants personnels numériques (PDA)................................................................ 24 11.2. Les téléphones intelligents et le Wap ............................................................................. 24

12. Évolution des micro-ordinateurs et des machines centrales....................................... 25 12.1. La généralisation des micro-ordinateurs......................................................................... 25 12.2. Les traitements réalisés sur le site central ne disparaissent pas ................................... 27

LES GRANDES TENDANCES DE L'EVOLUTION DE L'INFORMATIQUE........................................................................................................ 28 1. Les progrès du "matériel" .................................................................................................... 28

1.1. L'âge du silicium ............................................................................................................. 28 1.2. Le processeur du futur .................................................................................................... 29 1.3. Le stockage des données............................................................................................... 31 1.4. L'essor des télécommunications..................................................................................... 31

2. Les progrès du "logiciel"...................................................................................................... 34 2.1. Les principales tendances dans la fabrication du logiciel............................................... 34 2.2. Vers l'assemblage de composants ................................................................................. 35 2.3. Systèmes ouverts – systèmes proprietaires................................................................... 36

3. Vers l'âge de l'information.................................................................................................... 36

Toute reproduction même partielle interdite IGPDE page 3

Page 4: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

INTRODUCTION

1. INFORMATIQUE

Dans nos civilisations modernes, l'ordinateur occupe désormais une place prépondérante dans les domaines techniques, scientifiques, mais également dans les secteurs du commerce et de l’industrie.

L'ordinateur s'est installé dans notre existence quotidienne, au bureau comme à la maison. Il nous permet de communiquer avec des interlocuteurs situés à des centaines, voire des milliers de kilomètres.

Depuis sa naissance, ses performances n'ont cessé d'augmenter de façon impressionnante. Vitesse de traitement, capacité de mémoire ont été multipliées des millions de fois, pendant que les dimensions physiques, la consommation énergétique et le prix baissaient considérablement.

Ce progrès spectaculaire qui devrait continuer encore pendant de longues années avant que les limites physiques des technologies employées actuellement soient atteintes, est le fruit de l'évolution rapide des connaissances et les techniques dans les domaines de l'électronique et l'informatique.

Avec l'ordinateur une nouvelle discipline est née, l'informatique.

L'informatique, bien que n'ayant qu'un demi-siècle d'existence, peut être considérée comme une technique (ou science) à part entière. Cette technique comporte des aspects théoriques (tels que la logique, l'algorithmique, la modélisation, la théorie de l'information, les mathématiques, la théorie des automates finis, la linguistique) et des aspects pratiques (tels que la technologie des composants, le développement de programmes, la gestion des systèmes informatiques).

Plus précisément, l'informatique (terme issu de la contraction des mots "information" et "automatique") peut être définie comme la science du traitement automatisé de l'information.

L'informatique couvre plusieurs domaines : ♦ le domaine scientifique: milieux universitaires, laboratoires et centres de recherche ...

Le calcul scientifique nécessite des ordinateurs ayant des possibilités de traitement interne très importantes pour réaliser des calculs mathématiques complexes de type statistique, matriciel, vectoriel, intégral, différentiel ... Ces calculateurs sont qualifiés de "super-ordinateurs".

♦ le domaine de la conduite de processus qui requiert généralement des ordinateurs équipés de processeurs spécialisés dans l'acquisition de données et le contrôle en temps réel d'appareils plus ou moins complexes (par exemple, unité de production industrielle, fusées, machines à laver, carburateurs d'automobile, etc.).

♦ le domaine de la gestion: automatisation des tâches de gestion des entreprises, des professions indépendantes, des administrations, ... Ce type d'informatique nécessite les manipulations (stockage, accès, traitement, restitution, conservation) d'un très grand nombre d'informations. Les ordinateurs appropriés sont dotés d'importantes mémoires de masse et de systèmes de gestion de ces informations qui facilitent leur accessibilité et leur manipulation.

♦ le domaine individuel: la micro-informatique couvre des besoins "personnels" de l'individu (bureautique, culture, loisirs, ...).

Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines.

page 4 Toute reproduction même partielle interdite IGPDE

Page 5: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

2. TRAITEMENT AUTOMATISE ET ORDINATEUR

L'Académie Française publia en 1965 cette définition générale de l'informatique:

"La science du traitement rationnel de l'information, considérée comme le support des connaissances dans les domaines scientifiques, économiques et sociaux, notamment à l'aide de machines automatiques".

Mais comment définir le traitement automatisé ?

Dans le cadre des technologies logicielles et matérielles de l'informatique de gestion, le traitement automatisé met en œuvre des données et des traitements.

Schéma I

RESULTATS

DONNEES

TRAITEMENT DONNEES

Un traitement automatisé est assuré par une "machine" appelée "ordinateur".

Un ordinateur n'effectue, à la base, que des opérations élémentaires. Mais la vitesse de traitement de ces opérations permet d'en effectuer un très grand nombre très rapidement, ce qui permet de réaliser des opérations plus complexes.

Grâce à son extraordinaire rapidité, à ses grandes capacités de stockage, l'ordinateur couvre les besoins de l'ensemble des secteurs d'activité en matière de traitement automatisé de l'information.

L'ordinateur a été spécialisé pour couvrir une palette très variée de besoins informatiques des utilisateurs allant du simple au complexe.

Certaines tâches de bureau peuvent être automatisées par un micro-ordinateur équipé de logiciels "bureautiques" (mot résultant de la contraction de "bureau" et "informatique").

Une petite entreprise peut être informatisée grâce à un mini-ordinateur sur lequel sont implantées des applications réalisant l'automatisation par exemple de la gestion de la paye, de la comptabilité, des fonctions "achat", "vente" et "stockage", etc ...

Mais ces moyens peuvent devenir très importants pour couvrir des besoins complexes tel par exemple ceux des grands laboratoires de calcul scientifique tels que le CERN (laboratoire européen pour la physique des particules), des industries, des banques, des hôpitaux. La dimension de ces organisation nécessite un grand nombre d'ordinateurs puissants ("mainframe"), reliés entre eux par des réseaux de télécommunication.

Toute reproduction même partielle interdite IGPDE page 5

Page 6: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

3. TRAITEMENT AUTOMATISE ET PROGRAMME (LOGICIEL)

L'ordinateur réalise un traitement automatisé en exécutant un programme.

Car pour fonctionner l'ordinateur doit être programmé, c'est-à-dire qu'il est nécessaire de lui fournir très précisément le détail du traitement à réaliser. C'est le travail des informaticiens.

Et quand un traitement est "correctement" programmé, l'ordinateur l'exécute très rapidement et conformément à ce qui lui a été indiqué.

L'ordinateur réalise donc un traitement automatisé en exécutant un programme.

Même si la notion "d'ordinateur" renvoie de prime abord à une idée de "matériel", il est indispensable de constater qu'un ordinateur sans programme est totalement inutile.

Par opposition à l'aspect "matériel" de l'ordinateur on emploie la notion de "logiciel" pour évoquer l'aspect immatériel du programme.

Le logiciel transforme l'ordinateur d'un outil qui peut théoriquement résoudre un problème en un outil qui le résout en pratique. Le matériel est au logiciel ce que les instruments sont à la musique. Léonard De Vinci définissait la musique comme le "modelage de l'invisible". Cette définition est encore plus adaptée à la description du logiciel.

On peut définir alors un programme comme étant constitué d'une suite d'instructions logiquement ordonnées et directement compréhensibles par l'ordinateur.

En informatique, il est important de noter que les notions de "matériel" et de "logiciel" sont indissociables.

C'est ainsi que, plus généralement, on emploie la terminologie de "système informatique" pour définir l'ensemble des moyens matériels (hardware) et logiciels (software) nécessaires à la satisfaction des besoins informatiques des utilisateurs.

On peut classer les logiciels en deux grandes familles, les programmes "applicatifs" et les programmes "systèmes".

Un programme est une suite ordonnée d'instruction en langage binaire, appelé aussi langage machine, car c'est le seul langage compréhensible par les circuits électroniques de l'ordinateur.

Au sein d'un programme, l'instruction est l'unité de base de manipulation des données.

Le programme réside dans la mémoire de l'ordinateur le temps du déroulement du traitement.

En résumé, lorsqu'un ordinateur est en fonctionnement, sa mémoire centrale comporte deux types "d'information" : les données et les instructions.

page 6 Toute reproduction même partielle interdite IGPDE

Page 7: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Si nous déclinons le schéma I en terme de technologie logicielle, nous obtenons :

Affichage des données

Saisie des données

fichier

Base de données

fichier

fichier

Etat

d'impression

PROGRAMME (données – instructions)

Schéma II

4. TRAITEMENT AUTOMATISE ET INFORMATION

Un traitement automatisé manipule des données (stockées sur support informatisé ou saisies à l'écran) pour produire automatiquement soit des données transformées sous forme de supports informatisés, soit des résultats sous forme de supports papiers (ou sur écran).

Les données, avant d'être traitées se présentent obligatoirement sous une forme directement assimilable par un ordinateur. Elles subissent pour cela une codification (cf. § xxxxxx Principes de codification de l’information) préalablement à leur manipulation.

Elles sont dites "numériques" parce que représentées au niveau élémentaire sous la forme binaire ("0" ou "1"), seule représentation "compréhensible" par l'ordinateur.

La plus petite unité de mémorisation est le bit (contraction de l'expression anglaise "binary digit") qui ne mémorise que l'un des deux états élémentaires possibles, par la valeur "0" ou par un "1".

Les données résident temporairement dans la mémoire de l'ordinateur, le temps de leur traitement.

Avant et après leur traitement les données sont mémorisées sur des supports de stockage : ♦ magnétiques (bandes, cassettes, disques) ; ♦ optiques (CD-ROM, DVD, …).

L'écran et le clavier sont des périphériques de communication avec l'ordinateur.

Toute reproduction même partielle interdite IGPDE page 7

Page 8: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Si nous déclinons le schéma I en terme de technologie matérielle, nous obtenons :

Imprimante

bande

Disque

bande

ORDINATEUR

Schéma III

Sur le support de stockage, un fichier ou une base de donnée : ♦ organise le rangement des données ; ♦ offre des méthodes d'accès à ces données (séquentiel, direct, …).

Le traitement automatisé s'accompagne d'une manipulation des informations (acquisition, transformation, conservation et restitution).

La nature des informations traitées a spécialisé le type d'ordinateur utilisé.

On distingue ainsi les "calculateurs analogiques" qui traitent des informations analogiques par opposition aux ordinateurs qui traitent le plus souvent des informations numériques.

Une information analogique (dite "continue") peut prendre un ensemble infini de valeurs telles que, par exemple, une tension électrique, une pression, une température.

Des capteurs fournissent au calculateur les mesures de ces informations.

Les calculateurs analogiques sont utilisés dans le cadre de l'automatisation des procédés de fabrication en milieu industriel ou bien dans le contrôle des processus de téléguidage de fusée.

L'information dite "numérique" nécessite une codification sous une forme binaire préalablement à sa manipulation et à son traitement afin d'être "compréhensible" par l'ordinateur.

L'information numérique ainsi traitée peut provenir d'origines très diverses comme par exemple une forme textuelle (caractères numériques, alphabétiques, alphanumériques) ou, plus récemment une forme "multimédia" (dessins, graphisme, image, vidéo, son).

page 8 Toute reproduction même partielle interdite IGPDE

Page 9: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

HISTOIRE DES TECHNOLOGIES DE L'INFORMATIQUE L'ordinateur, en tant que produit industriel, n'a que quelques dizaines d'année.

Mais sa naissance est l’aboutissement d'une longue évolution des besoins de l'homme en matière, dans un premier temps, de calcul avant de recouvrir, dans un second, ceux en matière de traitement automatisé de l'information.

Car l'histoire de l'ordinateur est avant tout celle de la mécanisation du calcul. D'ailleurs, le terme anglais de "computer" signifiait au départ "calculateur numérique électronique".

Mais ces progrès technologiques ont été précédés des indispensables avancées conceptuelles dans le domaine des mathématiques.

1. LES PROGRES CONCEPTUELS

De tout temps, l'homme a eu besoin de compter.

L'homme préhistorique savait déjà calculer à l'aide de cailloux (latin: calculi) ou de ses mains.

On trouve les traces des premiers systèmes de numération (symboles et de chiffres) quelques millénaires avant notre ère dans les civilisations chinoise, égyptienne, sumérienne, babylonienne, grecque ou romaine.

Ces systèmes de numération s'inspiraient naturellement du nombre de doigts des mains et des pieds, le nombre 20 était parfois choisi comme base de numération. Dans certaines régions asiatiques, on comptait en se servant des articulations des doigts ou des phalanges, d'où des numérations en base 12, 14, 15, 24, 30, 60, etc.

La plus naturelle et la plus répandue des numérations était celle qui comptait en base 10 et elle nous est parvenue à travers les siècles avec ses symboles introduits par les Indiens, modifiés et complétés par les Arabes. Notre système décimal actuel est le résultat de cette évolution et des moyens mis en œuvre pour lui donner des formes adaptées à l'expression écrite et orale et aux méthodes de calcul.

Si l'utilisation du système décimal (dont les symboles d'origine arabe ont été adoptés en Europe au cours du XIe siècle) s'est généralisée dans nos civilisations modernes, d'autres sont toujours utilisés, tel le système sexagésimal (base 60) pour exprimer les mesures du temps, tout comme celles des arcs et des angles.

Le XVIIe siècle est à l’origine de la conceptualisation des bases de la science moderne, racines de ce grand développement d'idées qui conduira à l'ordinateur.

Des savants tels Galilée, Newton et Leibniz commencèrent à s'intéresser aux systèmes d'aide au calcul et sont à l'origine d'une véritable révolution intellectuelle.

En 1614, le mathématicien écossais Neper présenta sa théorie des logarithmes. Les tables de Neper transformaient des multiplications compliquées en de simples additions.

Neper inventa également un système non logarithmique pour simplifier les multiplications.

Le savant allemand Leibniz, qui avec Newton est à l'origine du calcul différentiel et intégral, inventa aussi le système binaire sous sa forme moderne (des numérations base 2 existaient déjà en Chine

Toute reproduction même partielle interdite IGPDE page 9

Page 10: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

dans l'Antiquité) avec ses deux chiffres 0 et 1. Il mit ainsi en évidence la puissance et la simplicité de l'arithmétique binaire qui sera adoptée par la plupart des ordinateurs contemporains.

En 1854, un mathématicien anglais Georges Boole, publie un essai intitulé "Une étude des lois de la pensée", où il expose ses idées sur la formulation mathématique des propositions logiques. Reprenant les spéculations de Leibniz, Boole conçoit un système de logique symbolique, appelé algèbre booléenne qui révolutionnera la science de la logique. Un siècle plus tard, ses formules appliquées à la conception des circuits électroniques rendront possible la réalisation de l'ordinateur.

2. LES DEBUTS DE LA MECANISATION DU CALCUL

L’évolution des civilisations conduit à des besoins croissant en matière de calcul.

On assiste au développement d'outils, de systèmes, de machines pour simplifier et accélérer les calculs nécessaires dans des domaines aussi divers que, par exemple, la comptabilité (Trésor royaux, commerçants, paysans), les transactions commerciales ou l'astrologie (calcul des cycles astraux).

Les débuts de la mécanisation du calcul furent lents et difficiles.

Il y a 2000 ans déjà les civilisations méditerranéennes utilisaient l'abaque pour leurs calculs.

Bien avant l'ère chrétienne, les Chinois comptaient à l'aide de bouliers (encore couramment utilisées de nos jour dans le commerce, les banques de certains pays tels que la Russie, la Chine, le Japon, etc.).

Figure 1 Boulier

Mais il fallut attendre le XVIIe siècle pour voir apparaître des systèmes de calcul plus rapides et plus automatiques.

Les tables logarithmiques de Neper donnèrent naissance en 1620 à la règle à calcul, un outil pratique et efficace basé sur le simple déplacement de tiges ("Bâtons" ou "Os de Neper").

page 10 Toute reproduction même partielle interdite IGPDE

Page 11: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Figure 2 la machine de Schickard

En 1642 à Paris, Pascal présente une machine ("la Pascaline") qui peut additionner et même soustraire des nombres de six chiffres. Son système est basé sur une série de roues dentées figurant les colonnes décimales. Cette machine pouvait exécuter des opérations plus complexes, telle la multiplication, par des méthodes compliquées d'additions répétitives.

Figure 3 la Pascaline

Il faudra attendre 1673 pour voir apparaître, avec le savant allemand Leibniz, une calculatrice capable d'exécuter automatiquement les quatre opérations arithmétiques.

Il ajoutera aux mécanismes de la Pascaline un chariot mobile et une manivelle permettant d'accélérer et automatiser l'exécution des additions et des soustractions répétitives exigées par les multiplications et les divisions.

Toute reproduction même partielle interdite IGPDE page 11

Page 12: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Figure 4 la machine de Leibniz

Les principes des machines de Pascal et de Leibniz, seront adoptés dans la conception des machines à calculer pendant près de trois siècles.

3. LES PROGRES DU XIXEME SIECLE

En 1728 le mécanicien français Falcon construit une commande pour métier à tisser à l'aide d'une planchette en bois munie de trous. Son invention constitue la première machine capable d'exécuter un programme externe.

En 1805, Jacquard perfectionne le système de Falcon en remplaçant les planches en bois par des cartons troués articulés (les premières cartes perforées), qu'on peut encore voir de nos jours dans certains orgues de barbarie. Le système à bande de programmation de Jacquard permet de produire les dessins les plus compliqués en grande quantité et de qualité toujours égale.

Il s'agit du premier pas de la révolution industrielle, mais aussi d'une étape très importante vers l'exécution automatique des calculs les plus complexes.

Figure 5 Le métier à tisser de Jacquard

page 12 Toute reproduction même partielle interdite IGPDE

Page 13: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Au milieu du XIXe siècle, on s'approche de manière conceptuelle et matérielle de l'ordinateur grâce aux idées d'un mathématicien anglais : Charles Babbage (1792-1871). Il est considéré comme le père de l'ordinateur pour avoir fait le rapprochement entre les machines à calculer et les systèmes de commande automatique de Jacquard.

De 1822 à 1832 Babbage conçoit une machine capable de calculer et d'imprimer des tables de tir selon la méthode des différences. Il construit un prototype, basé sur des roues dentées glissant sur des arbres actionnés par une manivelle. Mais il se heurte alors à des problèmes techniques et son projet est finalement abandonné.

En 1833, Babbage se lance dans la réalisation d'une machine encore plus ambitieuse, la "Machine Analytique". Il introduit pour la première fois le concept de programme en définissant des séquences d'opérations arithmétiques en fonction d'instructions données par l'utilisateur. On trouve dans sa Machine Analytique des idées très avancées pour l'époque, qui seront adoptées ou réinventées par les constructeurs d'ordinateurs une centaine d'années plus tard; comme la notion de processeur, celle de mémoire, celle de programme ou de techniques comme les entrées/sorties par cartes perforées, etc.

Mais cette machine était irréalisable avec les techniques et les outils de son temps. Elle devait fonctionner comme une locomotive à vapeur et était beaucoup trop complexe et ambitieuse. Elle ne sera jamais terminée.

Par contre, le concept de sa machine à différences, repris par un inventeur suédois P.G. Scheutz sera réalisée, avec l'aide de Babbage, et présentée à Londres en 1854.

Figure 6 Machine à différences reconstituée en 1991 à partir des plans de Babbage

Avant la fin du XIXe siècle, l'Américain Hermann Hollerith construisit un calculateur de statistiques fonctionnant avec des cartes perforées pour accélérer le traitement des données du recensement américain de 1890.

Toute reproduction même partielle interdite IGPDE page 13

Page 14: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Figure 7 Calculateur de statistiques d’Hermann Hollerith

Inspiré par les travaux de Babbage et par les applications des cartons troués dans la commande des métiers à tisser, il inventa la carte perforée et un système de codage des informations qui porte son nom. La carte de Hollerith comprenait douze rangées de vingt positions à perforer pour figurer les données du recensement de la population des Etats-Unis.

Figure 8 Principe de la carte preforée

page 14 Toute reproduction même partielle interdite IGPDE

Page 15: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Une fois perforées, les cartes étaient placées dans des lecteurs qui détectaient les trous. Des aiguilles, traversant les trous, établissaient un circuit électrique en trempant dans des petits pots de mercure placé de l'autre côté de la carte. Le système de Hollerith était si rapide qu'un premier décompte fut établi en quelques semaines et une analyse statistique complète en deux ans et demi. Le traitement du recensement de 1890 avait été effectué en trois fois moins de temps qu'en 1880.

Hollerith fonda la Tabulating Machines Company pour produire ses systèmes à cartes perforées. Sa compagnie rencontra un succès de longue durée. En 1924, cinq ans avant la mort de son fondateur, elle devint l'International Business Machines Corporation, ou IBM.

4. LES PROGRES DU XXEME SIECLE

Pendant la première moitié du siècle, les machines à cartes perforées continuent à se développer sous l'avènement d'une véritable industrie: la mécanographie.

Basées sur le traitement de la carte perforée, des machines comme l'interclasseuse, la trieuse, la tabulatrice, etc ... voient le jour.

Pour les besoins des calculs scientifiques, la période 1930-1945 voit l'éclosion de machines analogiques basées sur la nouvelle technologie de l'électromécanique où les fonctions mathématiques sont représentées par des signaux électriques.

Ces machines recevaient les instructions à l'aide de cartes, bandes ou films perforés et pouvaient faire des opérations arithmétiques en quelques secondes. Les calculs complexes étaient exécutés dix fois plus vite qu'avec une tabulatrice.

Elles réalisaient les idées de Babbage un siècle après ses efforts.

Les années 30 sont riches en développements et il faut souligner les contributions fondamentales de Claude Shannon et Alan Turing. Dans sa thèse publiée au MIT en 1938, Shannon, reprenant les idées de Leibniz et de Boole, fit le rapprochement entre les nombres binaires, l'algèbre booléenne et les circuits électriques. Dix ans tard, il publiera une théorie mathématique de la communication, qui expose ce que l'on appelle aujourd'hui la théorie de l'information. Shannon prouva que les chiffres binaires conviennent également pour les relations logiques et que tous les calculs logiques et arithmétiques peuvent être réalisés à l'aide des trois opérations logiques de base: "ET", "OU" et "NON". Ses conceptions influencèrent le développement des télécommunications ainsi que celui des ordinateurs.

Vers la fin des années trente, d'autres chercheurs parvinrent à la conclusion que la logique booléenne pouvait être employée efficacement dans la conception des calculateurs. L'adoption du système binaire au lieu du décimal était aussi dans l'esprit de certains pionniers. Konrad Zuse à Berlin, John Atanasoff à l'université de l'Etat de Iowa et George Stibitz aux Laboratoires Bell, travaillant indépendamment, construisirent des prototypes de machines binaires.

Dès 1936 Zuse fabrique avec des moyens très modestes des machines électromécaniques qu'il appelle Z1, Z2, Z3 et Z4 fonctionnant selon le système binaire pour résoudre des problèmes de conception aéronautique et de missiles.

Les programmes étaient introduits au moyen d'un film perforé. Une multiplication durait environ 5 secondes.

Toute reproduction même partielle interdite IGPDE page 15

Page 16: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Parmi les derniers précurseurs de l'ordinateur il faut citer le Mark1, une énorme machine électromécanique construite entre 1939 et 1944 par IBM et l'Université de Harvard, sous la direction de Howard Aiken. Ce calculateur, capable de multiplier deux nombres de 23 chiffres décimaux en 6 secondes et d'effectuer des additions ou soustractions en trois dixièmes de seconde était conçu sur la base du système décimal. Avec ses milliers de roulements à billes et ses 760 000 pièces électromécaniques, le Mark 1 était une sorte de Machine Analytique du XXe siècle; en fait, il se révéla obsolète avant même d'être terminé.

5. LA NAISSANCE DE L'ORDINATEUR

Une nouvelle technologie apparaît "l'électronique" qui va autoriser la réalisation effective de l'ordinateur à l'aide de tubes électroniques et annonce la fin des machines calculatrices électromécaniques dépassées par une technologie mille fois plus rapide.

C'est en 1945 qu'Eckert et Mauchly terminent à l'université de Pennsylvanie la construction de l'ENIAC (Electronic Numerical Integrator And Calculator), premier calculateur électronique programmable, numérique, basée sur le système décimal, et entièrement électronique. Avec ses 18.000 tubes et ses 30 tonnes, l'ENIAC pouvait multiplier deux nombres de 10 chiffres en 3 millisecondes.

Figure 9 l’ENIAC

L'ENIAC traitait des millions de cartes perforées mais l'inconvénient résidait dans la difficulté de modifier ses programmes. La mémoire interne étant très petite, les programmes étaient "externes", câblés sur des fiches interchangeables. Pour passer d'un calcul à l'autre, il fallait brancher et débrancher des centaines de câbles. Pour cette raison l'ENIAC n'est pas considéré comme le premier ordinateur.

Avant la fin de 1945, John von Neumann (1903-1957), un mathématicien d'origine hongroise, associé comme consultant au projet ENIAC, franchit le dernier obstacle et proposa la construction de l'EDVAC, machine modèle de l'ordinateur tel qu'on le conçoit à présent.

page 16 Toute reproduction même partielle interdite IGPDE

Page 17: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

John von Neumann accomplit une abstraction du système de commande de la machine en proposant d'enregistrer le programme en mémoire. Il inventait la forme moderne du programme enregistré en introduisant un raffinement important : écrire sous la même forme les instructions pour le traitement des données et les données elles-mêmes. Instructions et données étaient ainsi manipulées de la même manière par la machine ouvrant la voie à l'ordinateur moderne.

La machine gagne ainsi en souplesse et en vitesse. Instructions et données sont stockées dans la mémoire même de la machine. Le déroulement du programme peut être commandé par des décisions logiques, ce qui permet des sauts et des branchements conditionnels dans le programme. Le programme peut décider quels calculs exécuter, quel chemin choisir pour la suite des opérations, sur la base des résultats intermédiaires.

On peut ainsi résumer les caractéristiques de l'ordinateur à "programme interne" ou "programme enregistré" qui allait être désormais appelé l'architecture "Von Neumann" : ♦ machine universelle contrôlée par programme ; ♦ les instructions du programme sont codées sous forme numérique (binaire) et enregistrées en

mémoire ; ♦ le programme peut modifier l'ordre d'exécution de ses instructions qui sont normalement

traitées en séquence ; ♦ des instructions existent permettant les ruptures de séquence.

Von Neumann décrit les cinq composants essentiels de cette architecture : ♦ l'unité arithmétique et logique (UAL) ; ♦ l'unité de commande ; ♦ la mémoire centrale ; ♦ l'unité d'entrée ; ♦ l'unité de sortie.

Von Neumann fit remarquer qu'un tel système, pour être vraiment efficace et performant, devait fonctionner électroniquement et selon la numération binaire. Les principes de Von Neumann inspirent toujours la conception des ordinateurs actuels.

L'ordinateur est composé "d'organes internes" (mémoires, processeurs, ...) pour réaliser l'exécution des traitements et "d'organes externes" (éléments appelés périphériques tels que claviers, écran, souris, disques et bandes magnétiques, etc...) pour permettre les manipulations des informations.

U nité C entrale

Mémoire

Centrale

Unité de Traitement

U.A.L

Organe de

Commande

U N I T E D' E C H A N G E

U N I T E D ' E C H A N G E

Figure 10 Schéma du principe de Von Neumann

Toute reproduction même partielle interdite IGPDE page 17

Page 18: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

6. LA NAISSANCE DE L'INDUSTRIE INFORMATIQUE : LA PREMIERE GENERATION D'ORDINATEUR

De 1945 à 1950 des prototypes sont construits partout aux Etats-Unis comme en Europe. Tous ces ordinateurs de la première génération sont basés sur la technologie des tubes à vide.

Paradoxalement ce ne sera pas von Neumann qui réalisera, le premier, une machine selon ses principes. L'EDVAC prend du retard à cause de querelles (de brevets et de paternité de l'invention) entre les protagonistes de cette grande réalisation.

Ce sera un scientifique britannique, Maurice Wilkes, qui, à Cambridge en 1949, achèvera le premier ordinateur obéissant aux principes énoncés par Von Neumann, l'EDSAC, avec deux ans d'avance sur l'EDVAC. L'EDSAC est donc le premier ordinateur électronique à haute performance, stockant programmes et données dans sa mémoire centrale.

Eckert et Mauchly quittent l'université de Pennsylvanie vers la fin des années quarante et travaillent à la création d'un ordinateur universel à usage commercial, l'UNIVAC (UNIVersal Automatic Computer), une machine électronique à programme enregistré, recevant des données via une bande magnétique à haute vitesse plutôt que par des cartes perforées. L'UNIVAC fut achevé en 1951 et construit en petite série.

Mais le grand problème de la technologie des tubes à vide (ou tubes électroniques) était celui de la fiabilité.

Figure 11 Le Tube électronique - "Lampe à vide"

Les pannes sont fréquentes et les causes difficiles établir. Des équipes de techniciens, spécialisées dans le diagnostic des erreurs et dans la réparation des organes fautifs, devaient être affectées au service de la machine. Il fallait parfois des jours ou des semaines pour déceler des pannes intermittentes et la confiance des utilisateurs étaient souvent mise à rude épreuve.

De plus ces ordinateurs nécessitaient une écriture des programmes en langage binaire ce qui ne facilitait pas la réalisation de traitements complexes.

page 18 Toute reproduction même partielle interdite IGPDE

Page 19: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

7. LA DEUXIEME GENERATION D'ORDINATEUR

La découverte du transistor, par Bardeen, Brattain et Shockley aux laboratoires Bell, en 1948, donne naissance vers les années 1960 à une nouvelle génération d'ordinateurs.

Figure 12 Le Transistor

Ces transistors sont disposés sur des support appelés "circuit imprimés".

Figure 13 Le Circuit Imprimé

Vitesse et fiabilité augmentent considérablement et le coût des composants baisse sensiblement.

Toute reproduction même partielle interdite IGPDE page 19

Page 20: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Des nouvelles firmes se lancent sur le marché comme, par exemple, Digital Equipment, Hewlett-Packard, Data General, etc.

Les ordinateurs deviennent plus performants et relativement bon marché. C'est le commencement d'une course effrénée vers des systèmes toujours plus performants offerts à des prix toujours plus compétitifs.

Ils ouvrent la voie à de nouvelles applications notamment dans le domaine de la gestion.

Avec les ordinateurs de la deuxième génération les techniques de stockage de l'information se développent.

Les cartes perforées sont progressivement remplacées par les bandes magnétiques.

Les unités à tambour magnétique permettent un accès direct à l'information.

Le développement des techniques d'impression offre une meilleure qualité et rapidité de restitution de l'information.

Les technologies du "logiciel" se développent.

Le concept de "système d'exploitation" fait sont apparition. Véritable interface entre l'homme et la machine, il facilite l'utilisation de l'ordinateur tout en autorisant une gestion optimisée de ses ressources.

Alors que les ordinateurs de première génération ne géraient qu'un seul programme en mémoire centrale (mode de fonctionnement en "mono-programmation"), les systèmes d'exploitation permettent un fonctionnement de l'ordinateur en "multi-programmation" où plusieurs programmes peuvent être gérés en mémoire.

La conception des programmes est facilité par l'introduction des langages : ♦ les langages dits "symboliques" utilisant des instructions mnémotechniques proche de la

machine (l'Assembleur, l'Autocodeur, ...), ♦ puis plus tard, les langages "évolués" plus proches de la syntaxe du langage humain (Cobol,

Fortran, PL1, ...).

De nouvelles modalités d'exploitation de l'ordinateur voient le jour comme le télétraitement qui permet son utilisation à distance grâce à l'utilisation des techniques de télécommunication.

page 20 Toute reproduction même partielle interdite IGPDE

Page 21: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

8. LA TROISIEME GENERATION D'ORDINATEUR

Apres la technologie du transistor apparaît celle des circuits intégrés.

Figure 14 Les circuits intégrés

Dés 1970 on parle d'une troisième génération d'ordinateurs. Les prix tombent encore plus rapidement et les microprocesseurs font leur apparition. Les micro plaquettes, ou puces (chips) contiennent de plus en plus de circuits. On passe en peu d'années de quelques composants à plusieurs milliers de transistors intégrés sur une puce de quelques centimètres carrés.

Cette miniaturisation des composants favorise l'éclosion du micro-ordinateur.

Avec les systèmes de la troisième génération, des unités périphériques de grande capacité font leur apparition.

La carte perforée est confinée à une utilisation marginale.

Progressivement, les unités de disques magnétiques remplacent les tambours magnétiques (dont la technologie est abandonnée) et relèguent la bande magnétique à une utilisation de sauvegarde des données.

Le télétraitement se développe. Les ordinateurs sont connectés entre eux par des réseaux de télécommunication. Les données sont transmises par ligne téléphonique d'un ordinateur à l'autre.

Le concept de base de donnée est développé qui permet une nouvelle gestion des données. Les bases de données s'accompagnent de l'apparition des langages dit de quatrième génération ("L4G") dont l'ambition est de rendre accessible au non informaticien, par un langage humain (d'où le nom également de "langage naturel"), l'utilisation de l'ordinateur.

Toute reproduction même partielle interdite IGPDE page 21

Page 22: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

9. LA QUATRIEME GENERATION D'ORDINATEUR

Au début des années 80, la technologie des circuits intégrés fait des pas de géant et les organes de l'ordinateur deviennent de plus en plus compacts et fiables.

Sous l'effet des progrès continus de la miniaturisation des composants électroniques, les capacités de traitements et de stockage des ordinateurs ne cessent de progresser et s'accompagnent d'une réduction de leur coût de fabrication.

Les "puces de silicium" sont fabriquées et intègrent des centaines de milliers de transistors et au début des années 90 leur contenance dépasse largement le million.

Des matériels et des logiciels toujours plus performants apparaissent continuellement, la demande ne cesse d'augmenter. En conséquence les modèles d'ordinateurs se succèdent rapidement.

Ces avancées technologiques couvrent un intervalle énorme de performances allant des mainframes aux ordinateurs personnels.

Avec les systèmes de la quatrième génération, les unités de disques magnétiques voient leurs capacités techniques s'améliorer considérablement (stockage, temps d'accès). De nouveaux périphériques de stockage de grande capacité font leur apparition, notamment les disques optiques, les cassettes et les cartouches magnétiques.

Les techniques d'impression progressent avec l'introduction des imprimantes de haute qualité à jet d'encre et à laser.

La quatrième génération fait le rapprochement entre traitement, stockage et transmission des informations. Les ordinateurs sont de plus en plus connectés à des réseaux de télécommunication; les données sont transmises à grande vitesse par câble, fibre optique, ligne téléphonique ou satellite, d'un ordinateur à l'autre à travers frontières et continents. Au niveau de l'entreprise on réalise des systèmes informatiques distribués où ces communications jouent un rôle fondamental.

Figure 15 Evolution de l’électronique

page 22 Toute reproduction même partielle interdite IGPDE

Page 23: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

10. LE DEVELOPPEMENT DE LA MICRO-INFORMATIQUE

Pendant longtemps, l’informatique était centralisée sur des sites régionaux ou nationaux disposants de fortes capacités de stockage de données et d’une grande puissance de calcul.

Actuellement, un redéploiement de cette capacité de stockage et de cette puissance de calcul semble s’opérer au profit d’une informatique plus locale, c’est-à-dire proche de ses utilisateurs.

Les micro-ordinateurs, naguère peu considérés par les professionnels de l’informatique, deviennent des éléments clés dans la construction d’une architecture informatique.

Ils apportent en effet une souplesse et une facilité d’utilisation appréciée du fait d’une puissance et d’une capacité de stockage croissante.

Microsoft, IBM, Apple, Intel…

Les principaux acteurs d’une guerre économique sans précédent sont désormais en place. Tout s’enchaîne de plus en plus vite : ♦ 1983 : IBM sort son PC XT : Intel 8086 à 8 MHz, 128 Ko de mémoire, disque dur de 10 Mo ♦ 1984 : IBM sort son PC AT (à base d’Intel 80286), tandis qu’Apple lance son interface

graphique (avec une souris) qui fait décoller ses ventes ♦ 1985 : sortie des premiers « compatibles » PC ; Microsoft lance Windows et Excel qui stimulent

les ventes de PC ♦ 1986 : Intel commercialise le 80386 (premier processeur 32 bits) à 16 MHz ♦ 1987 : IBM propose le PS/2 et l’OS/2 ♦ 1988 : Apple perd un procès contre Microsoft pour plagiat de MacOs par Windows ♦ 1989 : Sortie de Word, premier traitement de textes WYSIWYG ; sortie de l’Intel 80486 à 25

MHz ♦ 1990 : Sortie de Windows 3, première interface graphique viable sur PC ; développement du

Web (partie graphique d’Internet) par le CERN ♦ 1991 : Linus TORVALD crée Linux ♦ 1992 : déjà 65 millions d’ordinateurs dans le monde ♦ 1993 : Sortie du Pentium d’Intel (60 MHz) et de Windows NT (pour concurrencer Unix) ♦ 1994 : Naissance du PowerMac et de Netscape Navigator ♦ 1995 : Sortie de Windows 95, des DVD-ROM ♦ 1996 : Processeur Pentium MMX (multimedia extensions). Explosion des technologies

multimédia et d’Internet. ♦ 1997 : Processeur Pentium II (200 MHz) ♦ 1998 : Sortie de Windows 98, du iMac ♦ 1999 : Processeurs Pentium III (500 MHz), Celeron ♦ 2000 : Processeurs Pentium et AMD à plus de 1 GHz, Sortie de Windows Me et 2000. ♦ 2002 : Pentium IV (3,06 GHz, 42 millions de transistors, 60.000 Mips, gravure des circuits à

0,13 micron) ; ♦ 2006 : Prévision d'évolution à moyen terme des performances des processeurs micro : 10

Ghz, 1 milliard de transistors, 100.000 Mips, gravure des circuits à 0,06 micron.

Contrairement à l’informatique traditionnelle, la micro-informatique constitue désormais un véritable phénomène de société. À l’instar de l’électricité, elle est présente partout : administrations, entreprises, domiciles.

Toute reproduction même partielle interdite IGPDE page 23

Page 24: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

11. LA MICRO-INFORMATIQUE NOMADE

La micro-informatique nomade n’en est qu’à ses balbutiements. Pourtant, que de chemin parcouru depuis les premières calculatrices électroniques des années 70.

Elle envahit nos poches par le biais des "PDA" (Personal Data Assistant) et autres "WAP" (Wireless Application Protocol), reliés à distance à Internet.

11.1. LES ASSISTANTS PERSONNELS NUMERIQUES (PDA)

Deux familles de machines s’affrontent autour de la définition de l’assistant personnel numérique (Personal Digital Assistant – PDA) : ♦ d’un côté, les modèles à clavier, du type Psion ou "Windows CE", qui ambitionnent de se

substituer un jour au PC de bureau ; ♦ de l’autre, les produits à écran tactile, du type PalmPilot, se positionnent davantage comme

des périphériques pour les PC, y compris pour les modèles fonctionnant avec le système d’exploitation "Windows CE".

De fait, on voit mal comment un organiseur actuel peut rivaliser avec un PC portable muni d’un processeur de type Pentium III ou IV. Certes, les PDArécents possèdent désormais des écrans couleur, alimentés par des piles longue durée rechargeables.

Leur taille mémoire de quelque méga-octets leur permet aujourd’hui d’accueillir des logiciels ludiques et des applications bureautiques. Leurs claviers très compacts et rarement AZERTY ne facilitent toujours pas la saisie intensive de données.

En revanche, ces agendas électroniques évolués sont très pratiques pour taper des notes au vol ou pour organiser son emploi du temps et le synchroniser avec un PC de bureau.

11.2. LES TELEPHONES INTELLIGENTS ET LE WAP

Avec Internet, l’époque est marquée par la convergence entre informatique et les télécommunications. Le réseau offre de nouvelles possibilités grâce à l’utilisation de la voix, ce qui conduit les constructeurs de téléphones mobiles à intégrer progressivement les technologies de reconnaissance vocale dans leurs téléphones mobiles. Ils tentent notamment d’imposer le concept de "téléphones intelligents" (GSM par exemple) face aux PDA.

Les constructeurs et les opérateurs téléphoniques cherchent les moyens d’adapter les millions d’informations disponibles sur Internet à la téléphonie mobile.

Ne pouvant nier le pouvoir d’attraction de la téléphonie mobile, les industriels de l’informatique nomade tentent de se l’approprier en communiquant davantage sur sa composante Internet. Ils mettent en avant le transfert de données de type informatique au détriment de l’échange de voix à l’aide des téléphones intelligents.

Une standardisation des protocoles de connexion et de mise en forme des téléphones intelligents à Internet est déjà ébauchée : le Wap (Wireless application protocol).

Le Wap est un ensemble de plusieurs protocoles et de spécifications couvrant le fonctionnement des terminaux mobiles ainsi que le transport de données.

page 24 Toute reproduction même partielle interdite IGPDE

Page 25: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Le but de cette technologie est de permettre un accès à l’information en tenant compte des restrictions techniques : une bande passante limitée, des processeurs peu performants et une taille réduite des écrans. Le langage HTML ne satisfaisant pas à ces exigences, ce navigateur s’appuie sur un langage appelé WML (Wireless Markup Language) basé sur XML. Le réseau de son côté, ne fait transiter que des données compressées. Ainsi, les détenteurs de téléphones mobiles peuvent consulter leur courrier électronique et surfer sur Internet.

Pour les opérateurs téléphoniques, le Wap (également appelé W@p) constitue une aubaine pour attirer de nouveaux clients ou, encore mieux, pour grignoter quelques parts de marché à la concurrence.

Mais le véritable enjeu c’est le GPRS et l’UMTS.

Deux technologies qui vont permettre des débits plus importants afin de décliner l’offre de services créée pour le Wap : ♦ la norme GPRS (General Packet Radio Service) spécifie un nouveau support de transmission

de données en mode paquet sur GSM ; les débits théoriques sont compris entre 9 Kbps et 170 Kbps ;

♦ la norme UMTS (Universal Mobile Telecommunications System), avec des débits allant de 144 à 344 Kbps (2 Mbps à terme) devrait permettre de véhiculer de la vidéo, des applications, de la musique.

Ces technologies, coûteuses en terme de couverture du territoire, seront complémentaires : UMTS dans les grandes agglomérations et GPRS pour le reste du territoire ; les utilisateurs étant équipés de terminaux compatibles bi-modes.

12. ÉVOLUTION DES MICRO-ORDINATEURS ET DES MACHINES CENTRALES

Pendant longtemps, l’informatique était centralisée sur des sites régionaux ou nationaux disposants de fortes capacités de stockage de données et d’une grande puissance de calcul.

Actuellement, un redéploiement de cette capacité de stockage et de cette puissance de calcul semble s’opérer au profit d’une informatique plus locale, c’est-à-dire proche de ses utilisateurs.

Cependant, si la puissance des micro-ordinateurs augmente rapidement, l’activité des sites centraux ne diminue pas. Les deux types d’informatique deviennent complémentaires et permettent une amélioration du service rendu à l’utilisateur.

Les micro-ordinateurs, naguère peu considérés par les professionnels de l’informatique, deviennent des éléments clés dans la construction d’une architecture informatique. Ils apportent en effet une souplesse et une facilité d’utilisation appréciée du fait d’une puissance et d’une capacité de stockage croissante.

Les sites centraux continueront cependant à assurer leurs missions et à garantir la sécurité et la protection de grands volumes de données. Ils compléteront les activités réalisées sur les postes de travail locaux par des traitements de masse basés sur des mécanismes complexes de consolidation et de transferts de données.

12.1. LA GENERALISATION DES MICRO-ORDINATEURS

Construits autour d’un composant principal à forte valeur ajoutée, le microprocesseur, les micro-ordinateurs ont vu leur puissance augmenter jusqu’à rivaliser avec certains grands systèmes.

Toute reproduction même partielle interdite IGPDE page 25

Page 26: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Les bancs d’essais mesurant les performances de chaque type de machine (Dhrystone, Wetstone, CPUmark, Benchmark…) ne sont pourtant pas comparables car une instruction du logiciel système d’une machine centrale correspond à une centaine d’instruction du microcode d’un microprocesseur.

Il n’en demeure pas moins que les micro-ordinateurs actuels disposent d’une capacité de stockage importante et d’une puissance de calcul permettant de réaliser des calculs dont l’algorithmique est complexe (calculs fiscaux, statistiques…).

Le poste de travail sur micro-ordinateur est devenu le composant privilégié des architectures informatiques modernes, alliant les traitements réalisés sur les sites centraux aux traitements réalisés en local selon une stratégie de répartition des traitements et des données basée sur le modèle client/serveur.

L’intégration du traitement du son et de l’image aux fonctionnalités habituelles des applications nécessite des moyens informatiques puissants et conduisent à une évolution inéluctable des configurations matérielles et logicielles qui tendent à se rapprocher des machines centrales (moniteurs transactionnels, multitâches, monitoring du système…).

page 26 Toute reproduction même partielle interdite IGPDE

Page 27: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

12.2. LES TRAITEMENTS REALISES SUR LE SITE CENTRAL NE DISPARAISSENT PAS

Le déport d’une partie des applications, la partie cliente, sur les postes en local aurait pu libérer des ressources en espace de stockage et en puissance de calcul sur les sites centraux. En fait, les machines centrales offrent des caractéristiques difficiles à obtenir sur un poste local ou difficiles à assurer pour l’ensemble des postes : ♦ la sécurité des données est garantie par une protection matérielle (chaque site central est

isolé, surveillé et construit selon des normes strictes) et logicielle (les accès sont contrôlés et les données sauvegardées régulièrement),

♦ la charge peut être régulée entre les traitements transactionnels et batch en fonction de l’activité des utilisateurs. Certains travaux peuvent être réalisés la nuit de façon automatique et selon les normes de sécurité prescrites,

♦ la planification des travaux permet de gérer au mieux l’occupation des espaces de stockage et la puissance de calcul,

♦ les logiciels systèmes et applicatifs ne sont diffusés que sur le site central, ce qui limite les opérations de mise à jour en cas de diffusion d’une nouvelle version,

♦ les ressources du système de gestion du réseau permettent d’absorber le trafic d’informations "remontant" des machines locales pour être consolidées et synthétisées puis redistribuées sur les sites,

♦ l’exploitation d’une machine centrale est appuyée par une équipe chargée de la gestion du système d’exploitation qui assure un fonctionnement optimum et intervient en cas de problème ou pour les opérations de maintenance,

♦ les systèmes de gestion de fichiers sont optimisés pour traiter rapidement de grands volumes de données.

Le choix des traitements et des données à déporter sur le poste local (ou client) dépendra du type de traitement et du volume des données ainsi que de leur fréquence de "remontée" vers le site central. Il convient en effet de laisser sur le poste local les données dont la connaissance par les autres postes du système n’est pas impérative et peut se satisfaire d’un transfert par réseau de façon occasionnelle (liste des codes pour une application, fichier des clients locaux…). En revanche, les informations devant être tenue à jour en temps réel devront rester sur le site central.

Toute reproduction même partielle interdite IGPDE page 27

Page 28: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

LES GRANDES TENDANCES DE L'EVOLUTION DE L'INFORMATIQUE Au début des années 50, une étude de marché restée célèbre évaluait le marché mondial à une cinquantaine de machines. Aujourd'hui, les 200 millions d'ordinateurs installés démontrent qu'il serait inconcevable de s'en passer dans la civilisation industrielle contemporaine. Aujourd'hui, il se vend dans le monde plus de micro-ordinateurs que de téléviseurs.

La manière dont l'informatique a révolutionné l'activité intellectuelle et économique n'a pas d'équivalent dans d'autres domaines. Une description purement statique des techniques et des résultats est donc totalement insuffisante pour comprendre l'informatique. Une vision dynamique s'appuyant sur les grandes tendances de l'évolution est indispensable pour comprendre ce qui va se passer même à très court terme.

1. LES PROGRES DU "MATERIEL"

C'est l'évolution de la technologie des composants qui depuis plus de 40 ans joue un rôle moteur primordial dans le développement de l'informatique.

Lorsqu'il a été inventé, l'ordinateur était une curiosité de laboratoire. Et pourtant quelle comparaison possible entre le premier ordinateur ( 50 tonnes, 25 kilowatts, quelques milliers de positions de mémoire, une centaine d'instructions par seconde ) avec les microprocesseurs actuels (quelques grammes, 1,2 volt, 1500 millions d'instructions par seconde). Et tout laisse à penser que dans 10 ans les microprocesseurs actuels apparaîtront aussi démodé que le premier ordinateur.

Deux phénomènes presque simultanés se sont produits vers la fin des années 40 : ♦ l'invention en 1945 par John von Neumann du calculateur à programme enregistré ; ♦ et, en 1948, l'invention du transistor par trois chercheurs des Bell Laboratories.

La synergie entre un nouveau composant et une nouvelle application a provoqué une croissance explosive des deux. En effet, les systèmes numériques demandent un nombre très élevé de composants : une simple calculette a besoin de 100 fois plus de transistors qu'un téléviseur. Un microprocesseur actuel comporte plusieurs millions de transistors. La mémoire nécessaire pour les données en contient plusieurs centaines de millions. Avec un tel nombre de composants, le problème clé à résoudre a été celui du nombre et du coût des connexions.

L'évolution foudroyante des progrès technologiques du matériel s'est accompagnée d'une baisse constante des coûts.

1.1. L'AGE DU SILICIUM

Nous vivons la fin de l'âge du silicium qui, depuis les années 1960 a nourri la course à la miniaturisation et à la performance. La miniaturisation des circuits à conduit à mettre le maximum de composants et de connexions dans un circuit intégré pour diminuer les coûts.

Le nombre de composants par circuit est passé, de manière très régulière, de quelques composants à la fin des années 50 à plusieurs dizaine de millions aujourd'hui. Dès 1964, Gordon Moore, co-fondateur de la société Intel, fût le premier à prédire que le nombre de composants par circuit continuerait à doubler tous les deux ans comme cela avait été le cas au cours des 5 années précédentes. Il n'y a pas eu depuis 30 ans de déviation significative par rapport à cette prédiction.

page 28 Toute reproduction même partielle interdite IGPDE

Page 29: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

La surface d'un circuit intégré a peu évolué. L'accroissement du nombre de composants est obtenu principalement par une réduction de la taille des gravures sur les circuits (actuellement 0,13 micron, taille de gravure équivalente à une épaisseur environ 500 fois inférieure à celle d'un cheveu humain). Cette réduction entraîne deux conséquences sur les performances et sur les coûts : ♦ Les performances s'améliorent constamment. La vitesse maximum de fonctionnement d'un

transistor dépend du temps de transit des électrons à l'intérieur du transistor. Plus l'intégration augmente, plus la taille des transistors diminue et plus les performances s'améliorent.

♦ Le coût marginal de production d'un circuit est à peu près constant (quelques dizaines de francs). La matière première, le silicium est disponible en abondance partout. Le prix unitaire d'un circuit est donc fixé par l'amortissement des études et de l'usine de fabrication. A performances constantes, le coût d'un microprocesseur ou de la mémoire est divisé par 10 tous les 4 ans.

Avec les techniques technologies actuelles de gravure par lithographie optique, les fabricants de microprocesseurs, pour progresser, doivent affiner la gravure afin de créer les transistors et leurs connexions de plus en plus petits.

Plus denses, les futurs microprocesseurs présenteront, de surcroît, l'avantage considérable de fonctionner avec une tension d'alimentation plus faible. Or la puissance dissipée est proportionnelle au carré de cette tension. Tout en augmentant la puissance des processeurs, les fabricants réduisent ainsi leur encombrement et leurs besoins énergétiques.

La prochaine étape devrait permettre de passer à une gravure à 0,1 micron, le millième de l'épaisseur d'un cheveu.

1.2. LE PROCESSEUR DU FUTUR

Les techniques actuelles de gravure par lithographie optique resteront applicables jusqu'à 0,07 micron. Le milliard de transistors par circuit sera atteint vers 2010. Cela veut dire que le processus d'intégration que nous connaissons depuis 35 ans va se poursuivre jusqu'à cette date.

Passé cette date, les technologies actuelles buteront sur la limite ultime, celle de l'atome, d'un diamètre de l'ordre d'un dix millième de micron (0,0001). Pour des niveaux de miniaturisation plus bas, les nouvelles technologies à base de silicium pourraient rendre prohibitif les coûts de productions des microprocesseurs.

Franchir cette barrière signifiera l'abandon de la puce électronique au profit de solutions faisant appel à d'autres éléments tels que les molécules et les photons. La fin est proche pour "l'ère du silicium".

A moyen terme, les semi-conducteurs (les puces traditionnelles) resteront indispensables pour certaines tâches. Mais ils ne seront plus seuls. A quoi ressembleront les puces du futur ?

1.2.1. LE PROCESSEUR "BIOLOGIQUE"

Des chercheurs travaillent au remplacement des semi-conducteurs par des molécules sophistiquées. Le processeur "biologique" est bâti à partir de la brique de base, la molécule (de simples molécules d'origine minérale, organique, ou même biologique).

Après avoir découvert que, dans la nature, des molécules se comportent un peu comme des composants électroniques de base, les chimistes ont appris à les modifier, les façonner, pour leur donner exactement les fonctions désirées.

Toute reproduction même partielle interdite IGPDE page 29

Page 30: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Dès les années 1980, des expériences très spectaculaires ont révélé l'extraordinaire potentiel de cette "électronique moléculaire".

Hélas, la connexion de ces molécules pour les transformer en "puces" exploitables - problème trivial en apparence - fut, paradoxalement, plus difficile à réaliser.

La diversité des recherches portant sur tous ces domaines rend toute prévision aléatoire.

1.2.2. LE PROCESSEUR "OPTIQUE"

La première grande mutation a été déclenchée par l'invention des lasers, dans les années 1970.

Les très fins rayons de lumière cohérente (à longueur d'onde unique) qu'ils émettent ont ouvert la voie à la transmission optique des données au sein de "cheveux" de verre, les fibres optiques. Les caractéristiques propres aux ondes lumineuses permettent des débits d'informations beaucoup plus importants que ceux qu'autorise le courant électrique, mais il est nécessaire d'amplifier périodiquement le rayon lumineux.

Pour la transmission de données à haut débit, la photonique a détrôné l'électronique, mais reste à faire profiter l'ordinateur de cette technique.

1.2.3. LE PROCESSEUR DU FUTUR POURRAIT ETRE "HYBRIDE"

Des laboratoires de photonique quantique et moléculaire, nouvellement créés travaillent activement à la naissance de cette nouvelle "électronique". Le passage à l'optique permettait d'apporter des solutions : les molécules pouvant agir sur la lumière à distance, il n'est plus nécessaire de brancher des fils sur ces dernières.

Les chercheurs disposaient d'une panoplie de molécules adéquates. Des colorants pour la plupart. Mais, pour transformer une poignée de ces molécules en modulateur (un composant capable d'inscrire de l'information sur un train d'onde) il était nécessaire de les orienter toutes dans le même sens.

Une gageure quand on sait que cela ne se produit jamais dans des conditions naturelles, les molécules ayant plutôt tendance à se ranger tête-bêche. Elles peuvent, certes, se ranger dans le même sens sous l'influence d'un champ magnétique. Mais, dès que l'action de ce dernier cesse, le désordre revient. Les chercheurs ont imaginé d'effectuer cette opération sur des molécules en solution dans un polymère (matière plastique) à l'état liquide qu'ils solidifient ensuite, les piégeant ainsi dans la position désirée.

Ces polymères souples parfaitement intégrables aux fibres optiques sont, de surcroît, compatibles avec les semi-conducteurs, ce qui permet la réalisation de puces hybrides.

1.2.4. LES NANOTUBES : MATERIAU MIRACLE DU FUTUR

Découverts en 1991 par Nec, les nanotubes de carbone présentent des caractéristiques étonnantes. Ces minuscules cylindres ont un diamètre d'une dizaine d'atomes, soit moins de trois nanomètres. Par comparaison, la taille des transistors du Pentium 4 est quarante fois plus importante. Plusieurs dizaines de fois plus résistants que l'acier, les nanotubes de carbone sont aussi durs que le diamant et aussi bons conducteurs électriques que le cuivre.

Avec les nanotubes, les puces de silicium céderont alors la place à des puces de carbone dont les circuits seront fabriqués à partir de carbone pur. Bien que la densité des composants sur une tranche de silicium de 20 centimètres de diamètre (wafer) double tous les dix-huit mois, ces chiffres ne sont rien en comparaison de ce que les nanotubes permettraient.

page 30 Toute reproduction même partielle interdite IGPDE

Page 31: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Leur utilisation dans la fabrication de circuits électroniques laisse donc espérer une multiplication par cent du facteur de miniaturisation, d'autant que les premiers composants nécessaires à une nanoélectronique commence à faire leur apparition dans les laboratoires.

Du fait de leurs propriétés, ces nanotubes pourraient permettre la production de fils, de connexions et de composants électroniques beaucoup plus petits que ceux utilisés aujourd'hui et favoriser ainsi la miniaturisation de l'électronique. Ne mesurant que quelques nanomètres de diamètre, ils ont la taille de la molécule ADN qui porte notre patrimoine génétique.

Certains nanotubes de carbone conduisent l'électricité et assemblés peuvent constituer un transistor. Or, les transistors sont un des éléments-clés des principaux dispositifs de commande des circuits électroniques. Il convient à présent de trouver des méthodes permettant d'organiser les nanotubes de carbone en circuits. Le microscope à force atomique peut servir à ce type de manipulation.

1.3. LE STOCKAGE DES DONNEES

Les puissants ordinateurs de demain ne seront utiles que dans la mesure où ils auront à leur disposition des volumes de données plus importants et plus rapidement accessibles. L'évolution des mémoires de masse est donc aussi déterminante que celle des unités centrales.

Sur les supports magnétiques, le coût du stockage de 10.000 caractères a été divisé par un facteur de 15.000.000 entre 1955 et aujourd'hui. Comme pour la technologie des composants, la technologie de stockage des informations sous forme magnétique a fait des progrès fantastiques.

La densité des enregistrements magnétique atteint plusieurs millions de caractères par cm2. Comme pour les transistors, la diminution de la taille des zones magnétiques améliore non seulement la densité mais aussi la vitesse de lecture des données. A vitesse de lecture constante, le nombre de données lues est plus grand. En revanche, la diminution de la taille des zones magnétiques diminue l'intensité du champ magnétique à lire. Les limites de l'enregistrement magnétique seront bientôt atteintes.

Mais, une autre technologie prend le relais. C'est l'enregistrement optique. L'énergie nécessaire à la lecture n'est plus stockée dans le support. Un rayon laser extérieur lit les données repoussant ainsi les limites de la taille des informations stockées. Cette technologie a été utilisée pour le compact disc audio introduit en 1983.

Les progrès continus réalisés depuis plus de trente ans se traduisent par l'apparition du nouveau support, le DVD.

1.4. L'ESSOR DES TELECOMMUNICATIONS

Il n'y a pas si longtemps, le téléphone était le seul moyen de communication entre les personnes. Depuis le début des années 70, les ordinateurs aussi échangent des données entre eux ou avec des terminaux. Les 7 millions de Minitel en France, les dizaines de millions de micro-ordinateurs dans le monde qui utilisent les centaines de milliers de serveurs connectés à l'Internet ont provoqué une explosion des besoins en télécommunications. Les échanges de données entre ordinateurs nécessitent des capacités et des vitesses de transmission beaucoup plus élevées que pour le téléphone. Il faut donc augmenter considérablement les capacités des réseaux de télécommunications.

Après l'invention fondamentale du transistor en 1948, une autre invention a eu lieu en 1958. C'est celle du Laser. En utilisant Laser et fibres optiques, les électrons sont remplacés par les photons

Toute reproduction même partielle interdite IGPDE page 31

Page 32: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

pour transporter les bits d'information. Les progrès ont été très rapides et les fibres optiques ont rapidement supplanté le cuivre comme technologie des télécommunications. Le dernier câble transatlantique métallique posé en 1975 permettait l'établissement de 10 000 communications simultanées. Le premier câble transatlantique à fibre optique posé en 1988 a une capacité de 40 000 communications simultanées. Le développement de la technologie des fibres optiques est très rapide.

La technologie actuelle peut encore progresser d'un facteur supérieur à 1000 à comparer au facteur 200 des microprocesseurs. Il faudra sans doute 25 ans pour y arriver, ce qui donne des possibilités d'amélioration considérable des capacités et des débits jusqu'en 2020. En particulier, il devrait être possible de traverser l'Atlantique en fibre optique sans répéteur.

Comme pour les circuits électroniques, l'essentiel du coût de systèmes n'est pas dans le coût des composants mais dans les coûts d'interconnexion. Les ingénieurs accroissent le nombre de composants par circuit non pas comme un objectif en soi mais pour diminuer les coûts de connexions. De même les performances des lasers et fibres optiques sont améliorées pour réduire les coûts d'interconnexion de ce qui ne peut pas être miniaturisé.

1.4.1. LES AUTOROUTES DE L'INFORMATION

Le réseau Internet permet maintenant en moins d'une seconde et presque gratuitement d'accéder à n'importe laquelle des informations contenues dans des dizaines de millions d'ordinateurs répartis dans le monde entier. Autoroutes de l'information, Multimédia, Cyberspace, Global village sont les mots qui essayent de décrire un phénomène dont les conséquences modifieront si profondément notre civilisation que certains n'hésitent plus à parler d'âge de l'information.

Au début des années 80, la convergence des technologies de l'informatique et des télécommunications a produit les grands réseaux publics d'ordinateurs comme Transpac avec le Minitel en France. Avec la numérisation des sons depuis le Compact disc, des images grâce au CD-ROM et bientôt de la télévision, une nouvelle convergence avec les techniques de l'audiovisuel est en cours : c'est le multimédia et ses énormes volumes d'informations numériques. La métaphore des "Autoroutes de l'Information" , forgée par Al Gore vice-président des Etats-Unis, assimile la circulation de ces informations numériques à celles des voitures sur des voies rapides de circulation.

Figure 16. La convergence des technologies

D'un point de vue technique, les autoroutes de l'Information constituent plus une évolution continue qu'une révolution. Mais le changement d'échelle en change la nature.

page 32 Toute reproduction même partielle interdite IGPDE

Page 33: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

Le micro-ordinateur, le CD-ROM et Internet symbolisent cette évolution : avec cet équipement, on peut dès aujourd'hui se connecter à de multiples services d'information en ligne dispersés dans le monde, consulter les bases de données et de connaissances, se procurer les informations de son choix, rédiger de nouveaux documents, les diffuser sans obstacle de distance ou de temps.

L'accroissement des performances des ordinateurs permet maintenant de transformer sous forme numérique tout signal écrit, sonore, visuel ou autre que le cerveau humain est en mesure d'assimiler. D'un seul coup, les différences de manipulation et de distribution entre les supports traditionnels disparaissent : papier, film photographique, ondes radiophoniques, cassettes audio ou bandes vidéo peuvent désormais être numérisés, traités de manière interactive et transmis simultanément sur un même support dit Multimédia.

1.4.2. INTERNET

L'émergence des autoroutes est le prolongement naturel d'une diffusion large et rapide de ces technologies multimédia. Aujourd'hui, au moins 300 millions de personnes utilisent l'Internet en l'an 2000. Quelles sont les caractéristiques d'Internet et quelles seront les conséquences d'une meilleure exploitation des énormes gisements d'information et de savoir accumulés dans le monde dans cet espace tout électronique, ce "Cyberespace"?

Techniquement, Internet est un réseau mondial qui relie des réseaux d'ordinateurs entre eux. C'est en quelque sorte le réseau de tous les réseaux. Les ordinateurs de tout type peuvent communiquer et échanger des informations parce qu'ils utilisent un protocole de communication commun appelé TCP/IP (Transmission Control Protocol/Internet Protocol).

Internet peut être aussi décrit comme une communauté de communautés qui a généré ses propres règles. Dans la culture Internet, l'information est vue comme une ressource libre et gratuite qui ne doit pas supporter de contraintes. Chacun doit pouvoir dire ce qu'il veut en respectant une auto censure plutôt que des règles fixées par des autorités. En quelque sorte une démocratie électronique où chacun est libre et responsable.

Il y a quatre raisons principales au succès d'Internet : L'adresse unique, le protocole TCP/IP, des services de base universels et des coûts de communication très faibles.

1.4.2.1. DES SERVICES DE BASE UNIVERSELS

Les services de base fournis avec TCP/IP ont contribué au succès d'Internet. Le premier service est bien sûr le courrier électronique (Email) qui grâce à l'adresse unique (individu@lieu) permet de communiquer plus simplement qu'avec le téléphone. Les services les plus connus sont l'émulation de terminal (Telnet qui permet de se connecter à distance à tout type d'ordinateur), le transfert de fichier (FTP), les newsgroups (Usenet), l'internet relay chat (IRC).

1.4.2.2. DES COUTS DE COMMUNICATION TRES FAIBLES

Le réseau ne fournissant ni service ni facturation, son coût d'exploitation se résume à celui de l'installation de commutateurs appelés "routeurs" et des liaisons fixes entre ces routeurs. Les coûts fixes de l'infrastructure sont répartis entre les utilisateurs en fonction du débit d'accès demandé. Chaque utilisateur peut installer en fonction du niveau de service requis ses ordinateurs de supervision, de gestion des noms ou de contrôle d'accès. Cela explique la raison pour laquelle ce réseau peut supporter une croissance aussi rapide. Chaque utilisateur ajoute la capacité de traitement supplémentaire requise. Ce schéma, à l'opposé des pratiques habituelles des opérateurs de télécommunications, provoquera dans les années qui viennent des bouleversements considérables dans le monde des télécommunications.

Toute reproduction même partielle interdite IGPDE page 33

Page 34: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

1.4.2.3. LE WORLD WIDE WEB (WWW)

Avec cet ensemble mondial d'ordinateurs interconnectés et accessibles en moins d'une seconde, des chercheurs du CERN à Genève ont imaginé un système destiné à simplifier l'accès aux informations. Ils ont construit un système hypertexte permettant d'associer des données textes et des données multimédia utilisant l'ensemble des ordinateurs interconnectés comme une seule base de données universelle. Chaque document a une adresse mondiale unique (Universal Resource Locator URL) qui peut être référencée dans n'importe quel document. Le succès a été foudroyant. En 1996, il y avait déjà plus de 30 millions de pages publiques d'information référencées dans les systèmes de recherche comme Yahoo, Lycos ou Altavista.

L'élément déterminant du succès a été l'intégration de l'hypertexte, du multimédia et de tous les services existants dans un seul logiciel de présentation graphique utilisable simplement avec des "clics" de souris, le navigateur (Browser). Ce sont les liens entre tous les documents qui tissent une toile d'araignée mondiale qui a donc donné son nom au World Wide Web. Le succès de ces navigateurs (Mosaïc, Netscape,...) est indissociable du succès d'Internet et du World Wide Web. Ce succès va sans doute s'amplifier. En effet, le langage de présentation traduit par ces navigateurs, le HTML (Hyper Text Markup Language), dopé par le succès du World Wide Web a de bonnes chances de devenir rapidement le langage de présentation universel.

2. LES PROGRES DU "LOGICIEL"

Les progrès de la miniaturisation fixent le rythme d'évolution de la technologie du matériel mais c'est la vitesse de déploiement du logiciel qui est déterminante pour la pénétration des ordinateurs dans toutes les activités industrielles ou intellectuelles.

Si les progrès ont été foudroyants dans le domaine du matériel, ils ont été tout aussi impressionnant dans le domaine du logiciel. Après la définition de l'architecture des machines par Von Neuman en 1945, presque tout avait été inventé et les programmeurs attendaient déjà des machines plus puissantes pour progresser. Il suffit pour s'en convaincre de se souvenir des dates d'apparition des langages. Il en est de même pour les systèmes d'exploitation et les bases de données relationnelles (nées en 1970).

Contrairement au matériel, les progrès dans le logiciel ne viennent pas d'une seule technologie ou même d'une technologie dominante. Par exemple dans le domaine des langages, les progrès proviennent de meilleures structures de contrôle de programmes, de meilleurs environnements de programmation, d'outils de programmation plus puissants. L'évolution semble lente, mais il y a progrès. Après quelques années, ces progrès ne sont plus perçus comme des améliorations mais comme des nouveautés. Mais ce qui est surprenant, c'est que les vieilles techniques ne disparaissent pas. Certains continuent de programmer dans des langages qui datent de 30 ans comme FORTRAN ou même en écriture ancienne connue sous le nom d'assembleur alors que d'autres considèrent ces outils comme des fossiles vivants. Pour les hommes comme pour les machines, il n'y a pas de langage idéal.

2.1. LES PRINCIPALES TENDANCES DANS LA FABRICATION DU LOGICIEL

Le logiciel est le combustible invisible de l'informatique. Sans lui, ni les ordinateurs, ni les matériels de communications ne fonctionneraient. Au début, les coûts de développement du logiciel, la productivité des programmeurs ou le temps de développement des programmes n'étaient pas considérés comme critiques. Après tout, si une machine coûtait 10 millions de francs, quelle importance si le logiciel coûtait 1 million ? De même si la durée de vie du matériel était de 10 ans,

page 34 Toute reproduction même partielle interdite IGPDE

Page 35: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

quelle importance si le développement du logiciel prenait de 2 à 5 ans ? Mais le déferlement des P.C. a tout changé . La réduction considérable des coûts des matériels a placé le coût des logiciels en première ligne et surtout l'évolution du matériel a été si rapide que le développement du logiciel ne pouvait plus suivre. A la question : "est-ce que le logiciel suit le rythme de l'évolution du matériel, des techniques de télécommunications et de l'industrie informatique en général ?" la réponse est pour l'instant non.

La manière de mesurer la productivité du logiciel est une question très controversée. Si on utilise la méthode des points de fonction inventée par un chercheur d'IBM vers la fin des années 70, Allan Albrecht, on aboutit à la courbe suivante sur les 50 dernières années.

Figure 17. Évolution de la productivité depuis 50 ans.

Comme on le voit, la courbe d'apprentissage a été d'environ 80 % tous les 5 ans depuis 50 ans. Il y a donc peu de chances que la productivité progresse considérablement dans les années qui viennent. Les programmeurs ont produit 50 milliards de lignes en Cobol, ce qui représente 80% de l'ensemble du logiciel produit depuis 1960. Il y a encore au moins un million de programmeurs Cobol à temps plein dans le monde. Ces programmeurs sont trop occupés à maintenir la base installée de programmes Cobol pour innover.

La prochaine avancée dans le domaine du logiciel va donc venir de petits groupes de programmeurs qui n'utilisent pas Cobol. Le volume des besoins en logiciel va créer de nombreuses opportunités pour les nouvelles idées, les nouvelles approches de la programmation et le génie logiciel en général.

2.2. VERS L'ASSEMBLAGE DE COMPOSANTS

L'approche orientée objet n'a pas apporté les gains de productivité espérés. Cependant, elle va jouer un rôle de catalyseur dans les futures méthodes de développement du logiciel en permettant la réutilisation de composants. Un composant n'est pas forcément un objet mais un objet peut être un composant.

Les composants sont des modules qui encapsulent des fonctions et des données. Créer une nouvelle application consistera alors à sélectionner une structure existante et à en modifier le comportement par l'assemblage de composants. Pour que cette technologie s'impose, il faudra créer un marché des composants. En effet, personne n'utilisera des composants s'ils sont difficiles à trouver, cher et non fiables.

Ces composants sont aujourd'hui connus sous le nom d'ActiveX successeur des VBX et OCX, d'Applets ou de Plugins. Ils sont écrits en Visual Basic, C++ ou Java. La distribution électronique

Toute reproduction même partielle interdite IGPDE page 35

Page 36: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

des composants jouera sûrement un grand rôle dans le développement de ces techniques au fur et à mesure de la montée en puissance d'Internet comme outil de commerce électronique.

2.3. SYSTEMES OUVERTS – SYSTEMES PROPRIETAIRES

La concurrence entre les constructeurs différents qui fournissaient des systèmes complets incompatibles s'est progressivement transformée en une concurrence au niveau des composants sur les prix et les performances de systèmes interopérables.

La tendance actuelle va dans la direction des systèmes dits "ouverts", c'est-à-dire composés éléments normalisés provenant de différents constructeurs ce qui entraîne le remplacement progressif des systèmes dits "propriétaires" par des standards de fait mondiaux dits "systèmes ouverts".

Mais si la dépendance vis-à-vis de ces constructeurs est moindre, l'utilisateur en découvre de nouvelles vis-à-vis des fournisseurs de produits logiciels.

3. VERS L'AGE DE L'INFORMATION

L'augmentation régulière de la puissance des microprocesseurs, les progrès des développements du logiciel avec les techniques graphiques et orientées objets, la numérisation du son puis des images et les techniques de compression des signaux, le déploiement des réseaux accéléré par les fibres optiques et les satellites dessinaient les contours d'un nouveau paysage : la Société de l'Information. Cette société sera construite autour de voies électroniques ou réseaux chargés d'acheminer dans les foyers, les entreprise, les universités, les administrations, les écoles ou les hôpitaux une palette de services interactifs : messagerie, visiophonie, télé-enseignement, consultation de banques de données, télé-achat, télévision à la demande, médecine assistée à distance... bouleversant de manière radicale la vie des gens et des entreprises.

Les nouvelles technologies de l'information représentent aussi un bouleversement culturel des modes d'éducation et de communication dont les héritiers sont les enfants d'aujourd'hui. Accéder à des informations par l'intermédiaire d'un écran et d'un clavier est pour la jeune génération une deuxième nature alors que cette manipulation semble souvent difficile aux adultes. En matière d'éducation, les élèves utilisent de plus en plus souvent l'ordinateur comme un véritable assistant pédagogique qui leur permet de cultiver leurs connaissances à leur propre rythme dans toutes les disciplines.

Avec le multimédia se prépare sans doute la remise en cause de la communication écrite telle que nous la concevons depuis Gutenberg. Le terme n'est pas si loin où les lecteurs devront apprendre à naviguer dans un monde d'images et de textes, le simple "clic" sur un mot ou une image permettant un accès quasi instantané à n'importe laquelle des informations stockées dans l'un des ordinateurs de la Planète. Enfin, le développement des réseaux du futur va changer le fonctionnement même de la société, modifiant par exemple l'organisation du travail, l'accès des citoyens aux services de santé ou d'éducation, les relations administration/administré, voire les conditions d'exercice de la démocratie.

L'histoire enseigne que le progrès se propage par vagues. Il est donc raisonnable d'affirmer que la société du XXIème siècle sera façonnée par les technologies de l'Information. La large disponibilité d'ordinateurs à un nombre croissant d'utilisateurs augmentera la créativité qui sera génératrice de nouveaux progrès. Les ordinateurs actuels ne peuvent améliorer que des capacités mentales simples et relativement routinières mais un progrès continu est fait vers l'amélioration des

page 36 Toute reproduction même partielle interdite IGPDE

Page 37: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Les grandes tendances de l'évolution de l'Informatique

capacités d'analyse et d'inférence. De même que les machines capables d'améliorer les capacités physiques de l'homme ont crée la révolution industrielle, de même les ordinateurs par leur faculté d'étendre les capacités mentales de l'homme, sont le moteur de l'actuelle et improprement nommée révolution informatique.

Bien que bénéficiant de la concurrence et du progrès technologique, l'utilisateur est confronté à un choix très large et divers de produits offerts et à la difficulté qu'il rencontre dans l'intégration et l'évolution des éléments de son système. La durée de vie relativement courte des éléments matériels et logiciel n'est pas toujours conciliable avec les impératifs de continuité, fiabilité et stabilité de tout système informatique.

L'Odyssée informatique vient tout juste de commencer.

Toute reproduction même partielle interdite IGPDE page 37

Page 38: FASCICULE INFORMATIQUE GENERALE · Le présent fascicule traitera principalement des aspects technologiques de l'informatique propres aux deux derniers domaines. page 4 Toute reproduction

Institut de la Gestion Publique

et du Développement Economique 20, allée Georges Pompidou

94306 Vincennes cedex SERVEUR PEDAGOGIQUE INTRANET

http://alize.alize/crp/tic

2004