L’American Standards Association (ASA, désormais connue sous le nom d’ANSI pour American National Standards Institute) a approuvé l’American Standard Code for Information Interchange (ASCII) en 1963. Elle a ainsi mis en place des directives contraignantes sur la manière dont les appareils électroniques doivent reproduire les caractères. Étant donné qu’il s’agit d’une norme purement américaine, on l’appelle souvent US-ASCII.
On peut notamment considérer le code Morse comme son prédécesseur, ou encore les codages utilisés pour le télex : un code normalisé (par exemple, une séquence fixe de signaux acoustiques) est traduit en texte. Comme les ordinateurs ne peuvent pas gérer notre alphabet non plus puisque leurs processeurs internes sont basés sur un système binaire, ASCII a été introduit.
À ce jour, la norme de caractères n’a été que quelquefois modifiée afin de l’adapter aux nouvelles exigences. Ainsi, il existe des versions étendues qui utilisent un huitième Bit, de sorte que les caractères spécifiques nationaux, comme le « ç » ou les accents, soient affichés. La norme ISO 88591-1 Latin-1, toujours très populaire, est basée sur le code ASCII.
Un changement entre l’alphabet latin et, par exemple, les caractères arabes est impossible. C’est pourquoi les jeux de caractères basés sur Unicode tels que UTF-8 sont largement répandus : Unicode offre de l’espace pour plus d’un million de caractères différents. UTF-8 est également compatible avec ASCII, c’est-à-dire qu’il encode les 128 premiers caractères de la même façon.