Vidéo
Proposé par Institut national de l’audiovisuel
Date de diffusion : 24 févr. 1966
En 1966, dans le centre de calcul de La Gaude (IBM), le directeur présente un ordinateur, machine de grande taille, qui permet d'effectuer des calculs et des opérations logiques de façon extrêmement rapide.
Niveaux et disciplines
Informations et crédits
- Type de ressource :
- Forme :
- Collection :
- Date de diffusion du média :
- 24 févr. 1966
- Production :
- INA
- Page publiée le :
- 2006
- Modifiée le :
- 29 juin 2023
- Référence :
- 00000000632
Contexte historique
L' " ordinateur " apparaît pour la première fois dans la langue française en 1956 : IBM dépose une appellation contrôlée pour une traduction de " Data Processing Machine ", machine pour le traitement de données. Cette traduction est significative d'un changement technologique : les ordinateurs, jusqu'alors machines fabriquées par de rares universités, deviennent des produits commercialisés à grande échelle. Plus que jamais toutefois, ils apparaissent comme des outils stratégiques, tout particulièrement dans le domaine militaire. Dans un contexte diplomatique marqué par la volonté du général De Gaulle de rejeter la domination des Etats-Unis, l'ordinateur représente bientôt un enjeu stratégique. En effet, pour pouvoir se doter de l'arme atomique, la France nécessite de recourir aux ordinateurs centraux (" mainframes ", ordinateurs de très grande puissance de traitement fonctionnant suivant un modèle centralisé) : en 1963, les Etats-Unis refusent leur vente à la France. Trois ans plus tard, le général de Gaulle commande un rapport à François-Xavier Ortoli sur l'indépendance en matière de traitements de données.
L'ordinateur, en anglais " computer ", est une machine qui constitue l'aboutissement de trois innovations. La première d'entre elles fut développée en Europe à partir du XVIIe siècle : il s'agit de la mécanisation des opérations de calcul, à partir de tables ou de machines simples, comme les bouliers. La seconde technique est la programmation, utilisée dès le Moyen-Âge et particulièrement développée pour l'animation des automates, puis, à la fin du XVIIIe siècle, pour la mise en marche des machines industrielles. Avec l'industrialisation, le besoin se fait sentir de machines qui facilitent les calculs, à la fois fiables et rapides. De nombreux projets voient le jour : le plus connu de ces " calculateurs " est celui de l'Anglais Charles Babbage (1792-1871), dans lequel l'Etat britannique investit massivement, sans succès. Dernier outil intellectuel : la notion d'algorithme, qui décrit de façon précise et systématique, l'ensemble déterminé et fini, des processus nécessaires à la résolution d'un problème donné. Les algorithmes, utilisés dès le IXe siècle avant JC en Perse, sont formalisés en mathématiques en 1936 par Alan Turing. Ce dernier invente une machine hypothétique, la " machine de Turing ", par laquelle il les met en oeuvre et démontre la validité d'un telle technique mathématique. Pour ce faire, il utilise le langage logique développé par le mathématicien George Boole (1815-1864) dans son ouvrage Les Lois de la pensée (1854), se fondant sur un système binaire pour formaliser toutes les opérations de sa machine. Avec succès, il peut faire équivaloir la logique et la mécanique, c'est-à-dire les décisions logiques et les interrupteurs électriques. Dès les années 1930, l'intérêt de la réalisation d'une " machine " électrique pour traiter les calculs est sensible : ceux-ci, devenus de plus en plus complexes, exigent la mise en oeuvre de véritables équipes humaines, en dépit de leur caractère répétitif.
La guerre, en raison des financements de l'armée, a toutefois un effet décisif sur les développements. La machine la plus connue de cette période est l'ENIAC, machine colossale par ses dimensions, conçue pour faciliter les calculs de balistique, en lien étroit avec l'armée. Elle fait usage des tubes à vide, débuts de l'électronique, ce qui accélère considérablement les calculs, en raison de l'absence de frottements des systèmes mécaniques qui étaient jusqu'alors privilégiés. Cette machine, encore fragile, permettait certes d'effectuer des milliers de calcul à la seconde, mais, à la manière d'un boulier, ne peut pas garder la trace d'une opération, si elle doit en effectuer une seconde. C'est ainsi que l'architecture de machine à calculer conçue en 1945 par le mathématicien Joseph von Neumann (1903-1957) constitue une révolution.
Aujourd'hui encore, tous les ordinateurs sont encore aujourd'hui conçus sur ce plan. Il y distingue (i) un organe de calcul, qui effectue les opérations, (ii) une mémoire qui sert à contenir les programmes décrivant la façon d'arriver aux résultats, et les données à traiter, (iii) des organes d'entrée-sortie ou périphériques, servant d'organes de communication avec l'environnement et avec l'homme et, enfin, (iv) une unité de commande permettant d'assurer un fonctionnement cohérent des autres éléments. Le plan de von Neumann s'inscrit dans un contexte où se développent les " théories de l'information ". Le mathématicien entend, en effet, fabriquer un " cerveau artificiel " en imitant moins la physiologie du cerveau humain que son comportement logique, en différents " états de pensée " : il crée ainsi l'EDVAC, le Calculateur Electronique à VAriables Discontinues. Son invention qu'il partage avec deux ingénieurs s'inscrit dans un contexte plus large d'étude de l'information et de la communication, entreprises par des psychologues et des mathématiciens. Dans le contexte de l'immédiat après-guerre, les travaux entendent rendre compte des problèmes de la transmission de l'information et du codage de celle-ci.
Parmi ces " théories de l'information ", la plus connue est celle que Norbert Wiener publie en 1948, Cybernetics, ou Contrôle et communication dans l'animal et la machine, où il établit une identité de forme entre les deux systèmes de communication. Dans la machine de von Neumann, la mémoire constituait une partie importante de l'appareil. Plusieurs technologies sont utilisées : les mémoires à tores de ferrite supplantent rapidement les autres technologies. Toutefois, leur coût a conduit à développer des mémoires secondaires ou auxiliaires, qui permettent le stockage d'une plus grande quantité d'information. C'est le stockage sur support magnétique (tambour, bandes, disques), qui ont été utilisés jusqu'à la fin des années 1990. Après 1959, apparaît une seconde génération d'ordinateurs, qui utilise la technologie du transistor, ce qui améliore les vitesses de traitement et provoque la miniaturisation des unités centrales (cf Les transistors et la miniaturisation de l'ordinateur).
Bibliographie :
Philippe Breton, Une Histoire de l'informatique, Paris, Le Seuil, 1990.
Christian Wurster, Le Computer : l'histoire illustrée des ordinateurs, Cologne, Taschen, 2002 (1e édition all., 2001).
Joseph von Neumann, L'Ordinateur et le cerveau, Paris, La Découverte, 1992 (1e éd. am., 1958).
Éclairage média
Dans le magazine " Visa pour l'avenir ", une des principales émissions de vulgarisation de l'ORTF entre 1962 et 1967, le réalisateur Jean Lallier propose une mise au point sur les ordinateurs et invite son émission dans le centre IBM de La Gaude. L'interview du directeur de laboratoire de recherches, Monsieur Marx, vise à expliquer le fonctionnement d'un ordinateur, explication complétée par de petites animations et des images de production des éléments électroniques. Dans ce documentaire, on peut remarquer le décalage du commentaire avec les images, décalage encore accentué par la musique. La fin de l'extrait montre des armoires de bobines, qui constituent la mémoire de l'ordinateur : le commentaire, pour autant, porte sur le caractère automatique de la machine. C'est sans doute la disparition des hommes de l'image, jusque là omniprésents pour la manipulation ou la production des éléments de l'ordinateur, qui souligne l'automatisation des opérations de l'ordinateur. Par rapport aux premières émissions sur la science, l'image n'est plus simple illustration du propos descriptif, mais discours propre.