abdo4you
1-INTRODUCTION:
2-Présentation du binaire:
Le bit:
L'octet:
Les opérations en binaire:
L'addition en binaire:
La multiplication en binaire:
3-La base hexadécimale:
4-Le codage des informations
Qu'est-ce que le code ASCII ?
Table des caractères ASCII Etendue:
Le code EBCDIC:
Unicode:
5-Le contrôle d'erreurs:
6-La correction d'erreurs:
7-Le contrôle de parité:
8-Le contrôle de parité croisé:
9-Le contrôle de redondance cyclique:
1-INTRODUCTION
Ensemble de symboles qui, assemblés selon des règles précises, permettent d'écrire, de lire et de nommer des nombres. Depuis le début des temps, des dizaines de systèmes de numération ont été créés pour répondre à des besoins de mesures de quantité et de grandeur. On raconte, qu'avant l'avènement d'un Système de numération, un berger se servait de cailloux pour compter les moutons qui quittaient chaque matin pour le pâturage. À chaque fois qu'un mouton quittait, le berger déposait un caillou dans le creux d'un rocher. Le soir, au retour, il enlevait un caillou pour chaque mouton qui revenait au bercail. S'il restait des cailloux, c'est qu'il manquait un mouton pour chaque caillou non retiré. À ce moment, on ne connaissait pas les nombres, mais on essayait de trouver des moyens afin de contrôler la quantité de moutons. C'est à partir de besoin de cette nature que les système de numération on été inventés. Notre système de numération est dit décimal, car il comporte dix chiffres. Il a été inventé par les Hindous avant l'ère chrétienne. Les Arabes l'ont introduit en Europe il y a environ 800 ans. Ce système finit par supplanter la numération romaine
2-Présentation du binaire:
Vers la fin des années 30, Claude Shannon démontra qu'à l'aide de "contacteurs" (interrupteurs) fermés pour "vrai" et ouverts pour "faux" il était possible d'effectuer des opérations logiques en associant le nombre " 1 " pour "vrai" et "0" pour "faux".
Ce codage de l'information est nommé base binaire. C'est avec ce codage que fonctionnent les ordinateurs. Il consiste à utiliser deux états (représentés par les chiffres 0 et 1) pour coder les informations. L'homme travaille quant à lui avec 10 chiffres (0,1,2,3,4,5,6,7,8,9), on parle alors de base décimale.
Le bit:
Bit (noté b avec une minuscule dans les notations) signifie "binary digit", c'est-à-dire 0 ou 1 en numérotation binaire. C'est la plus petite unité d'information manipulable par une machine numérique.
Il est possible de représenter physiquement cette information binaire :
• par un signal électrique ou magnétique, qui, lorsqu'elle atteint une certaine valeur, correspond à la valeur 1.
• par des aspérités géométriques dans une surface.
• grâce à des bistables, c'est-à-dire des composants électroniques qui ont deux états d'équilibre (un correspond à l'état 1, l'autre à 0)
Avec un bit il est ainsi possible d'obtenir deux états: soit 1, soit 0.
2 bits rendent possible l'obtention de quatre états différents (2*2):
Pour un groupe de n bits, il est possible de représenter 2n valeurs.
L'octet:
L'octet (en anglais byte, noté B avec une majuscule dans les notations) est une unité d'information composée de 8 bits. Il permet de stocker un caractère, telle qu'une lettre, un chiffre ...
Ce regroupement de nombres par série de 8 permet une lisibilité plus grande, au même titre que l'on apprécie, en base décimale, de regrouper les nombres par trois pour pouvoir distinguer les milliers. Par exemple le nombre 1 256 245 est plus lisible que 1256245.
Une unité d'information composée de 16 bits est généralement appelée mot (en anglais word)
Une unité d'information de 32 bits de longueur est appelée double mot (en anglais double word, d'où l'appelation dword).
Pour un octet, le plus petit nombre est 0 (représenté par huit zéros 00000000), le plus grand est 255 (représenté par huit chiffre "un" 11111111), ce qui représente 256 possibilités de valeurs différentes.
Longtemps l'informatique s'est singularisée par l'utilisation de différentes valeurs pour les unités du système international. Ainsi beaucoup d'informaticiens ont appris que 1 kilooctet valait 1024 octets. Or, depuis décembre 1998, l'organisme international IEC a statué sur la question (http://physics.nist.gov./cuu/Units/binary.html). Voici donc les unités standardisées :
• Un kilooctet (ko ou kB) = 1000 octets
• Un Mégaoctet (Mo ou MB) = 1000 Ko = 1 000 000 octets
• Un Gigaoctet (Go ou GB) = 1000 Mo = 1 000 000 000 octets
• Un Téraoctet (To) = 1000 Go = 1 000 000 000 000 octets
L'IEC a également défini le kilo binaire (kibi), le méga binaire (Mébi), le giga binaire (Gibi), le tera binaire (Tebi).
Voici leurs définitions :
• Un kibioctet (kio ou kiB) vaut 210 = 1024 octets
• Un Mébioctet (Mio ou MiB)vaut 220 =1 048 576 octets
• Un Gibioctet (Gio ou GiB) vaut 230 =1 073 741 824 octets
• Un Tébioctet (Tio ou TiB) vaut 240 =1 099 511 627 776 octets
Il est également utile de noter que la communauté internationale dans son ensemble utilise préférentiellement le nom de "byte" plutôt que le terme "octet" purement francophone. Cela donne les notations suivantes pour kilo byte, méga byte, giga byte et terabyte : kB, MB, GB, TB
Les opérations en binaire:
Les opérations arithmétiques simples telles que l'addition, la soustraction et la multiplication sont faciles à effectuer en binaire.
L'addition en binaire:
L'addition en binaire se fait avec les mêmes règles qu'en décimale:
On commence à additionner les bits de poids faibles (les bits de droite) puis on a des retenues lorsque la somme de deux bits de mêmes poids dépasse la valeur de l'unité la plus grande (dans le cas du binaire: 1), cette retenue est reportée sur le bit de poids plus fort suivant... Par exemple:
0 1 1 0 1
+ 0 1 1 1 0
- - - - - -
1 1 0 1 1
La multiplication en binaire:
La table de multiplication en binaire est très simple:
• 0x0=0
• 0x1=0
• 1x0=0
• 1x1=1
La multiplication se fait en formant un produit partiel pour chaque digit du multiplieur (seul les bits non nuls donneront un résultat non nul). Lorsque le bit du multiplieur est nul, le produit partiel est nul, lorsqu'il vaut un, le produit partiel est constitué du multiplicande décalé du nombre de positions égal au poids du bit du multiplieur.
Par exemple:
0 1 0 1 multiplica
x 0 0 1 0 multiplieur
- - - - - -
0 0 0 0
0 1 0 1
0 0 0 0
- - - - - -
0 1 0 1 0
3-La base hexadécimale:
Les nombres binaires étant de plus en plus longs, il a fallu introduire une nouvelle base: la base hexadécimale.
La base hexadécimale consiste à compter sur une base 16, c'est pourquoi au-delà des 10 premiers chiffres on a décidé d'ajouter les 6 premières lettres : 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F.
Base décimale 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Base hexa - décimale 0 1 2 3 4 5 6 7 8 9 A B C D E F
Un exemple:
Le nombre 27 (en base 10) vaut en base 16 : 1*161 + 11*160= 1*161 + B*160
c'est-à-dire 1B en base 16.
Le nombre FB3 (en base 16) vaut en base 10 : F*162 + B*161 + 3*160=3840+176+3=4019
Pour convertir un octet en hexadécimale, on le partage en 2 groupes de 4 bits, qui correspondent chacun à un chiffre hexadécimal.
2 A D 5
0010 1010 1101 0101
4-Le codage des informations:
Le morse a été le premier codage a permettre une communication longue distance. C'est Samuel F.B.Morse qui l'a mis au point en 1844. Ce code est composé de points et de tirets (un codage binaire en quelque sorte...). Il permit d'effectuer des communications beaucoup plus rapides que le Pony Express. L'interpréteur était l'homme à l'époque, il fallait donc une bonne connaissance du code...
De nombreux codes furent inventés dont le code d'Émile Baudot (portant d'ailleurs le nom de code Baudot, les anglais l'appelaient Murray Code).
Le 10 mars 1876, le Dr Graham Bell met au point le téléphone, une invention révolutionnaire qui permet de faire circuler de l'information vocale dans des lignes métalliques. Pour l'anecdote, la Chambre des représentants a décidé que l'invention du téléphone revenait à Antonio Meucci. Ce dernier avait en effet déposé une demande de brevet en 1871, mais n'avait pas pu financer celle-ci au-delà de 1874.
Ces lignes permirent l'essor des télescripteurs, des machines permettant de coder et décoder des caractères grâce au code Baudot (Les caractères étaient alors codés sur 5 bits, il y avait donc 32 caractères uniquement...).
Dans les années 60, le code ASCII (American Standard Code for Information Interchange) est adopté comme standard. Il permet le codage de caractères sur 8 bits, soit 256 caractères possibles.
Qu'est-ce que le code ASCII ?
La mémoire de l'ordinateur conserve toutes les données sous forme numérique. Il n'existe pas de méthode pour stocker directement les caractères. Chaque caractère possède donc son équivalent en code numérique: c'est le code ASCII (American Standard Code for Information Interchange - traduisez " Code Americain Standard pour l'Echange d'Informations"). Le code ASCII de base représentait les caractères sur 7 bits (c'est-à-dire 128 caractères possibles, de 0 à 127).
• Les codes 0 à 31 ne sont pas des caractères. On les appelle caractères de contrôle car ils permettent de faire des actions telles que:
o retour à la ligne (CR)
o Bip sonore (BEL)
• Les codes 65 à 90 représentent les majuscules
• Les codes 97 à 122 représentent les minuscules
(il suffit de modifier le 6ème bit pour passer de majuscules à minuscules, c'est-à-dire ajouter 32 au code ASCII en base décimale)
Table des caractères ASCII Etendue:
Le code ASCII a été mis au point pour la langue anglaise, il ne contient donc pas de caractères accentués, ni de caractères spécifiques à une langue. Pour coder ce type de caractère il faut recourir à un autre code. Le code ASCII a donc été étendu à 8 bits (un octet) pour pouvoir coder plus de caractères (on parle d'ailleurs de code ASCII étendu...).
Ce code attribue les valeurs 0 à 255 (donc codées sur 8 bits, soit 1 octet) aux lettres majuscules et minuscules, aux chiffres, aux marques de ponctuation et aux autres symboles (caractères accentués dans le cas du code iso-latin1).
Le code EBCDIC:
Le code EBCDIC (Extended Binary-Coded Décimal Interchange Code), développé par IBM, permet de coder des caractères sur 8 bits. Bien que largement répandu sur les machines IBM, il n'a pas eu le succès qu'a connu le code ASCII.
Unicode:
Le code Unicode est un système de codage des caractères sur 16 bits mis au point en 1991. Le système Unicode permet de représenter n'importe quel caractère par un code sur 16 bits, indépendamment de tout système d'exploitation ou langage de programmation.
Il regroupe ainsi la quasi-totalité des alphabets existants (arabe, arménien, cyrillique, grec, hébreu, latin, ...) et est compatible avec le code ASCII.
L'ensemble des codes Unicode est disponible sur le site(http://www.unicode.org.)
5-Le contrôle d'erreurs:
Le codage binaire est très pratique pour une utilisation dans des appareils électroniques tels qu'un ordinateur, dans lesquels l'information peut être codée grâce à la présence ou non d'un signal électrique.
Cependant le signal électrique peut subir des perturbations (distortion, présence de bruit), notamment lors du transport des données sur un long trajet. Ainsi, le contrôle de la validité des données est nécessaire pour certaines applications (professionnelles, bancaires, industrielles, confidentielles, relatives à la sécurité, ...).
C'est pourquoi il existe des mécanismes permettant de garantir un certain niveau d'intégrité des données, c'est-à-dire de fournir au destinataire une assurance que les données reçues sont bien similaires aux données émises. La protection contre les erreurs peut se faire de deux façons:
• soit en fiabilisant le support de transmission, c'est-à-dire en se basant sur une protection physique. Une liaison conventionnelle a généralement un taux d'erreur compris entre 10-5 et 10-7.
• soit en mettant en place des mécanismes logiques de détection et de correction des erreurs.
La plupart des systèmes de contrôle d'erreur au niveau logique sont basés sur un ajout d'information (on parle de "redondance") permettant de vérifier la validité des données. On appelle somme de contrôle cette information supplémentaire.
6-La correction d'erreurs:
C'est ainsi que des systèmes de détection d'erreur plus perfectionnés ont été mis au point, ces codes sont appelées
• codes autocorrecteurs
• codes autovérificateurs
7-Le contrôle de parité:
Le contrôle de parité (appelé parfois VRC, pour Vertical Redundancy Check ou Vertical Redundancy Checking) est un des systèmes de contrôle les plus simples. Il consiste à ajouter un bit supplémentaire (appelé bit de parité) à un certain nombre de bits de données appelé mot de code (généralement 7 bits, pour former un octet avec le bit de parité) dont la valeur (0 ou 1) est telle que le nombre total de bits à 1 soit pair. Pour être plus explicite il consiste à ajouter un 1 si le nombre de bits du mot de code est impair, 0 dans le cas contraire. Prenons l'exemple suivant:
Dans cet exemple, le nombre de bit de données à 1 est pair, le bit de parité est donc positionné à 0. Dans l'exemple suivant, par contre, les bits de données étant en nombre impair, le bit de parité est à 1. :
Imaginons désormais qu'après transmission le bit de poids faible (le bit situé à droite) de l'octet précédent soit victime d'une interférence:
Le bit de parité ne correspond alors plus à la parité de l'octet: une erreur est détectée.
Toutefois, si deux bits (ou un nombre pair de bits) venaient à se modifier simultanément lors du transport de données, aucune erreur ne serait alors détectée...
Le système de contrôle de parité ne détectant que les erreurs en nombre impair, il ne permet donc de détecter que 50% des erreurs. Ce système de détection d'erreurs possède également l'inconvénient majeur de ne pas permettre de corriger les erreurs détectées (le seul moyen est d'exiger la retransmission de l'octet erroné, ...).
8-Le contrôle de parité croisé:
Le contrôle de parité croisé (aussi appelé contrôle de redondance longitudinale ou Longitudinal redundancy Check, noté LRC) consiste non pas à contrôler l'intégrité des données d'un caractère, mais à contrôler l'intégrité des bits de parité d'un bloc de caractères.
Soit "HELLO" le message à transmettre, en utilisant le code ASCII standard. Voici les données telles qu'elles seront transmises avec les codes de contrôle de parité croisé :
Lettre Code ASCII
(sur 7 bits) Bit de parité
(LRC)
H 1001000 0
E 1000101 1
L 1001100 1
L 1001100 1
0 1001111 1
VRC 1000010 0
9-Le contrôle de redondance cyclique:
Le contrôle de redondance cyclique (noté CRC, ou en anglais cyclic redundancy check) est un moyen de contrôle d'intégrité des données puissant et facile à mettre en oeuvre. Il représente la principale méthode de détection d'erreurs utilisée dans les télécommunications.