Théorie de l'information

Pour comprendre les origines du média numérique, il faut se replacer à la fin des années 40 quand les travaux de deux mathématiciens, l'un britannique, l'autre américain, allaient pétrir le terreau de la communication numérique.

Le premier, Alain Turing, avait travaillé au décryptage de code Enigma des Nazis pendant la guerre. Plus tard il échafauda la théorie de la machine universelle que fut, en quelque sorte, à la base des calculateurs modernes. Turing connut un destin tragique mais nous y reviendrons.

Le second est l'américain Claude Shannon, souvent désigné comme le Père de l'âge numérique, qui, avec Waren Weaver fut co-auteur de la Théorie mathématique de la communication, en 1948. Cette théorie de l'information explique comment celle-ci peut être quantifiée avec une précision absolue sous forme de chiffres binaires.

L'autre concept important de cette théorie propose que tout canal de communication comporte une limite de vitesse absolue, exprimée en bits par seconde. Un aspect décourageant de cet énoncé, que personne avant Shannon n'avait pu décrire de manière empirique, c'est qu'au dessus de cette limite (d'ailleurs appelée limite de Shannon), il est mathématiquement impossible d'obtenir un communication sans erreur. Le bon côté, par contre, c'est qu'au dessous de cette limite, il est possible d'espérer une transmission parfaite, ce qui restait hors de portée des moyens analogiques.

Qu'est-ce que le BIT?

Le bit est une chiffre binaire à deux états, tel que l'un ou l'autre doit exister mais jamais les deux en même temps. Il peut se définir également comme la plus petite unité d'information. Ces deux états antagonistes peuvent prendre n'importe quelle forme au besoin:

Absence ou présence de courant;
illumination ou obscurité;
diffraction ou cohésion;
magnétisation ou pas;
crête ou creux;
O ou 5 volts;
impulsion ou pas;
noir ou blanc;
fréquence A ou B.

Toute information confiée à un système numérique se retrouve réduite à un représentation binaire: un nombre formé de zéros (0) et de uns (1).

0 = 000 4 = 100
1 = 001 5 = 101
2 = 010 6 = 110
3 = 011 7 = 111

Dans le langage des technologies numériques, les bits sont souvent exprimés par groupes de 8 appelés octets.