L'INVENTION DE L'ORDINATEUR

Publié le par Galaxien

 
L'invention de l'ordinateur, est un documentaire (0h50) de la série Les grandes découvertes de l'antiquité, qui s'intéresse particulièrement à l'histoire antique de cette invention, révolution du monde moderne, la machine électronique à calculs mathématiques binaire.


 

Depuis des milliers d’années, l'homme a créé et utilisé des outils l’aidant à calculer. Les plus anciens connus sont les os d'Ishango. Au départ, la plupart des sociétés utilisent sans doute la main, d'où le système décimal, ainsi que d’autres parties du corps, comme auxiliaires de calcul. Puis, apparaissent les entailles dans du bois, les entassements de cailloux, de coquillages ou d’osselets, d'où le mot calcul qui provient du mot latin calculi qui signifie cailloux. Le premier exemple d’outil plus complexe est l’abaque, qui connaît diverses formes, jusqu’au boulier toujours utilisé en Chine et en Russie.
Mohamed Moussa al-Khawarezmi passe pour être le père de la théorie des algorithmes ainsi que de l'algèbre. Les algorithmes les plus anciens sont attestés par des tables datant de l’époque d’Hammurabi, soit environ 1750 av. J.-C.
La machine d'Anticythère est le plus ancien calculateur connu. Daté de 87 av. J.-C., ce mécanisme à engrenages de bronze synthétise l'ensemble des connaissances astronomiques accumulées par les savants grecs permettant entre autre de prédire la date et l'heure des éclipses lunaires et solaires. Voir le documentaire ci-dessous.


Plus récemment, vers 1617, John Napier invente une sorte d’abaque perfectionné. Sa formulation des logarithmes démontre que la multiplication et la division peuvent se ramener à une série d'additions. Cela permet en 1625 à William Oughtred de développer la règle à calcul qui est utilisée par de nombreux ingénieurs jusqu’à l’apparition des calculatrices de poche. Ainsi, une grande partie des calculs nécessaires au programme Apollo ont été, dit-on, effectués avec des règles à calcul.
Blaise Pascal est le premier à présenter une machine arithmétique à des témoins dignes de foi, il est donc crédité de l'invention de la machine à calculer, la pascaline, en 1642. C'est la première machine qui peut effectuer les quatre opérations arithmétiques sans utiliser l'intelligence humaine, mais les multiplications et divisions sont effectuées par répétitions.
En 1673, Gottfried Leibniz en perfectionne le principe pour la rendre capable d’effectuer des multiplications, des divisions et même des racines carrées, le tout par une série d’additions.


Avant la Seconde Guerre mondiale, les ordinateurs analogiques, qu’ils fussent mécaniques ou électriques, étaient considérés comme le dernier cri de la technologie et beaucoup pensaient qu’ils seraient le futur de l’informatique, mais les ordinateurs numériques, plus faciles à programmer, remplacèrent ces ordinateurs analogiques.
Pendant la Seconde Guerre mondiale, le Royaume-Uni fit de grands efforts pour déchiffrer les codes des communications militaires allemands. Pour y parvenir, le professeur Max Newman et ses collègues développèrent Colossus. L’existence de cette machine a été tenue secrète jusque dans les années 1970, ce qui explique pourquoi de nombreuses histoires de l’informatique n’en font pas mention. Il a été dit que Winston Churchill a personnellement donné l’ordre de leur destruction en pièces de moins de vingt centimètres pour conserver le secret.
Si les premiers ordinateurs sont apparus après la Seconde Guerre mondiale, leur conception héritait de techniques bien plus anciennes comme les premières machines à calculer mécaniques du XVIIe siècle et les premières machines à tisser automatisées par la lecture de cartes et de rubans perforés du XVIIIe siècle.


Après l’ENIAC, un monstre de plus de 30 tonnes occupant 72 m², consommant 160 kW, tournant à 100 kHz, composé de 20 calculateurs fonctionnant en parallèle et pouvant effectuer 100 000 additions ou 357 multiplications par seconde, la deuxième génération d’ordinateurs est basée sur l’invention du transistor, en 1947. Cela permit de remplacer le fragile et encombrant tube électronique par un composant plus petit et fiable. Les ordinateurs composés de transistors ont dominé l’informatique dans la fin des années 1950 et le début des années 1960.
La troisième génération d’ordinateurs est celle des ordinateurs à circuit intégré. C’est à ce moment que l’utilisation de l’informatique a explosé.
Une définition non universellement acceptée associe le terme de quatrième génération à l’invention du microprocesseur par Marcian Hoff. En pratique et à la différence des autres changements de génération, celui-ci constitua plus une évolution qu’une révolution car les circuits s’étaient miniaturisés de plus en plus depuis l’invention du circuit intégré.


Les années 1990 ont été marquées par la correction du problème du bogue de l'an 2000, qui affectait presque tous les ordinateurs. En effet, la date système ne gérait que deux caractères pour l'année, soit 99 pour 1999, de sorte qu'au passage à l'an 2000, la date système allait revenir à 00 et être interprétée comme 1900. Ce défaut de conception systémique se manifestait également dans la plupart des logiciels.
Cette décennie a aussi été marquée bien sûr par le développement de l'Internet et l'apparition de la Toile. La convergence de l'informatique, de l'Internet, et des télécommunications a donné lieu à l'apparition d'une nouvelle expression, les TIC, Technologies de l'Information et de la Communication.



- Voir aussi :

LA FABULEUSE MACHINE D'ANTICYTHERE

LE MYSTERE DES NOMBRES PREMIERS

HISTOIRE DES MATHÉMATIQUES

L'ORIGINE DU CHIFFRE 1 ET DES MATHÉMATIQUES

FASCINANT CHIFFRE 7 

Publié dans Science

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article