Connexion
communautés / msMITIC 2019

Histoire de l'informatique et Culture Geek

Note : Cette compétence est issue de la formation msMitic 2018-2019 et a été élaborée par l'un de vos collègues (Amine Slim). Elle est reprise et complétée par mes soins pour msMitic 2019-2020. Des choix ont été faits. Vos enrichissements sont les bienvenues :-) GB

Pilule rouge ou pilule bleue ? - Si l'histoire de l'informatique vous effraie et que le mot CYBER vous donne la nausée, prenez la pilule bleue et tout redeviendra normal. - Si vous voulez rester au Pays des Merveilles et vous enfilez dans le terrier, alors prenez la pilule rouge et lisez ce qui suit...
MorpheusXL.png 114.34 KB
Nous ne pouvions démarrer cette compétence sans faire référence à cette scène culte film Matrix (1999). 10 ans après la naissance du WEB ( 1990 : mise au point du HTML (HyperText Markup Language) et du protocole HTTP (Hyper Text Transfer Protocol) ), ce film fait office de Star Wars d'une nouvelle génération et un des symboles forts de la cyberculture.

                                                             

L'INFORMATIQUE C'EST QUOI ?
Débutons par le rappel de quelques notions.
                                              Informatique = Information + Automatique
Bien qu'étymologiquement le mot « informatik » fût créé par l'ingénieur allemand Karl Steinbuch en 1957, le terme Informatique a été introduit en France par Philippe Dreyfus, mais il est plus répandu dans le monde, sous le terme de computer science.  

Selon le Larousse, l'informatique c'est :
  • La science du traitement automatique et rationnel de l'information considérée comme le support des connaissances et des communications.
  • L'ensemble des applications de cette science, mettant en œuvre des matériels (ordinateurs) et des logiciels.

L'informatique, c'est donc la science qui traite automatiquement l'information grâce à des programmes établis sur des ordinateurs.

Mais dans ce cas qu'est qu'un ordinateur ? Un ordinateur est un ensemble de dispositifs mécaniques, électroniques et logiciels capable de réceptionner, de traiter et d'émettre de l'information.

Ces deux concepts vont de pair, et on devine que l'histoire de l'informatique remonte à plusieurs milliers d'années.  La frise chronologique de Frédéric Gave de l'Université Paris 12 résume parfaitement la dimension millénaire de cette histoire.
Cours_histoire_info_F_Gava.pdf 2.65 MB

Dimension que l'on peut également retrouver via cette vidéo de l'INRIA (L'Institut national de recherche en informatique et en automatique)

                                                             

Ainsi au fil des années, l'informatique n'a cessé de se développer d'Aristote, en passant par al-Khwarizmi et sa classification des algorithmes existants,  sans oublier Léonard de Vinci et sa machine à calculer, à Blase Pascal et la PASCALINE, ancêtre de la calculatrice.

Mais son développement est freiné par les limites des machines qui ne reposent que sur des pièces mécaniques. L’électronique qui prend réellement naissance au début du 20e siècle va donner une autre dimension à l'informatique grâce à l'invention de la diode jusqu'à aboutir à la construction de l'ENIAC, une révolution en 1945.

Jusqu'à la fin des années 70, l'informatique est encore la chasse gardée des grandes entreprises, gouvernements ou universités.

L'ordinateur devient indispensable au monde et pour aller découvrir d'autres mondes. Il est au cœur de la conquête spatiale et inspire Stanley Kubrick et Arthur C. Clarke, pour le génialissime 2001 : L'Odyssée de l'espace. On y découvre  HAL 9000, ordinateur avancé doté d'une intelligence artificielle, capable de participer avec fluidité à une conversation via une interface de synthèse vocale optimisée sortie en 1968, 1 an avant que Niel ne pose un pied sur la Lune.

                                                               

Le 20e siècle est incontestablement le siècle de l'informatique, puisque le grand public découvre enfin le Personal Computer (PC) avec l'Apple II d'Apple en 77.

                                                             

Dès le début des années 80, l'univers de l'informatique prend une autre dimension et commence à fasciner le grand public qui le découvre par la même occasion sur grand écran Tron.
Tron est un film de science-fiction américain sorti en 1982. Le film traite du monde informatique et présente à la fois une plongée dans le monde virtuel et l'existence d'une intelligence artificielle, alors qu'à l'époque la souris à boule faisait à peine ses débuts.  

                                                             

Au fil des siècles, le développement de l'informatique est marqué par la guerre et la nécessité de crypter les informations. Du code de Jules César à la mise au point d'Enigma, en passant la création de l'Arpanet (Advanced Research Projects Agency- ministère de la Défense des États-Unis), l'informatique se situe au coeur des stratégies militaires.

Hollywood s'en inspire et est même précurseur avec le drame Wargames  sorti en 1983.
Le film suit David, un jeune pirate informatique qui accède involontairement à WOPR, un supercalculateur militaire des forces armées américaines, programmé pour prédire les résultats possibles d'une guerre nucléaire. David obtient de WOPR de lancer une simulation de guerre nucléaire, croyant initialement qu'il ne s'agit que d'un jeu informatique. 
La simulation cause une panique au niveau national et est près de déclencher la Troisième Guerre mondiale. 

                                                             

D'autres films suivront, avec plus ou moins de pertinences, comme Hackers (1995) ou Swordfish (2001) qui mettront en avant ces pirates de l’informatique ou Hackers.

Progressivement l'informatique et le PC vont occuper l'espace des préoccupations quotidiennes de l'homme. Ce développement s'est réalisé en à peine une décennie avec la guerre entre APPLE, IBM, Microsoft, des inventions comme le premier microprocesseur par Intel en 1971, le début des jeux vidéos...

Le reportage en 3 parties des ''cinglés de l'informatique'' résume assez bien cette période exceptionnelle où nous avons basculé dans une nouvelle dimension, celle du digital.

                                                             
                                                             
                                                             

                                                             

Un ouvrage met également à l'honneur cette période, Player One (titre original : Ready Player One) roman de science-fiction écrit par Ernest Cline en 2011. Le récit regorge de références à la culture geek des années 1980, avec de nombreux films, musiques, et jeux vidéo.  Une adaptation cinématographique réalisée par Steven Spielberg est sortie en 2018.

                                                             

Ressources complémentaires


Sources


4 tâches

  • Parcourir la frise chronologiques proposée dans les ressources complémentaires
  • Regarder la vidéo de l'INRIA
  • Lire le cours de F. Gava sur l'histoire de l'informatique
  • Regarder quelques bandes annonces des films Tron, Matrix, Ready player one, WarGames et 2001: L'odyssée