¿Qué es el código estándar americano para el intercambio de información (ASCII)?

Marzo 21, 2024

El Código Estándar Americano para el Intercambio de Información (ASCII) es un estándar de codificación de caracteres utilizado en computadoras y dispositivos electrónicos para representar texto. Desarrollado a principios de la década de 1960, ASCII se diseñó inicialmente para equipos de telecomunicaciones. Posteriormente, se convirtió en uno de los estándares de codificación más utilizados para representar letras, números y códigos de control en computadoras y otros dispositivos digitales.

ASCII utiliza un código binario de 7 bits para representar 128 caracteres diferentes. Esto incluye 33 caracteres de control no imprimibles (que controlan cómo se procesa el texto) y 95 caracteres imprimibles, incluido el alfabeto inglés (letras mayúsculas y minúsculas), dígitos (0-9), signos de puntuación y algunos otros símbolos.

Una breve descripción histórica de ASCII

A principios de la década de 1960, un comité dirigido por Robert W. Bemer desarrolló ASCII para estandarizar la forma en que las computadoras representan letras, números y ciertos caracteres de control y facilitar la comunicación entre diferentes dispositivos y sistemas.

En 1963, la Asociación Estadounidense de Estándares (ahora ANSI, el Instituto Nacional Estadounidense de Estándares) publicó por primera vez ASCII como estándar para equipos informáticos y de telecomunicaciones. Cinco años más tarde, se lanzó una versión revisada, agregando letras minúsculas y más caracteres de control, expandiendo ASCII para volverlo más versátil y adecuado para una gama más amplia de aplicaciones.

En las décadas de 1970 y 1980, ASCII se adoptó ampliamente en diversas plataformas y tecnologías, estableciéndose como el estándar de facto para archivos de texto en computadoras e Internet. Su simplicidad y eficiencia lo hicieron ideal para los primeros sistemas informáticos, que tenían potencia de procesamiento y capacidad de almacenamiento limitadas. La Organización Internacional de Normalización (ISO) adoptó ASCII en 1986 como parte del estándar ISO/IEC 646, reforzando su estatus como estándar internacional.

Mientras que el 7-bit El diseño era suficiente para los caracteres en inglés, carecía de soporte para otros idiomas y símbolos especiales. Esta limitación llevó al desarrollo de ASCII extendido y otros esquemas de codificación, como ISO 8859-1 (Latin-1), para acomodar caracteres de otros idiomas. La llegada de la codificación Unicode y UTF-8 a principios de la década de 1990 abordó las limitaciones de ASCII al proporcionar un conjunto de caracteres universal que incluye todos los caracteres y símbolos conocidos de todos los sistemas de escritura del mundo y al mismo tiempo sigue siendo compatible con ASCII.

¿Por qué es importante ASCII?

ASCII tiene un papel fundamental en la informática y la comunicación digital por varias razones, entre ellas:

  • Codificación estandarizada. ASCII proporcionó una forma consistente de codificar caracteres, permitiendo una representación uniforme de datos en diferentes dispositivos y sistemas.
  • Eficiencia y sencillez. Con su diseño de 7 bits, ASCII era eficiente y simple, lo que lo hacía muy adecuado para las primeras computadoras, que tenían capacidad de procesamiento y almacenamiento limitados. Codificar caracteres de esta manera permitió el desarrollo de las primeras interfaces, lenguajes de programación y formatos de archivos basados ​​en texto.
  • Interoperabilidad. La adopción generalizada de ASCII lo convirtió en un lenguaje común para computadoras y dispositivos. Esta interoperabilidad fue crucial para el crecimiento de Internet y el intercambio de información entre diferentes plataformas y tecnologías.
  • Legado y compatibilidad. Muchos esquemas de codificación modernos, como UTF-8, son compatibles con versiones anteriores de ASCII. Los sistemas que utilizan estos estándares más nuevos aún pueden comprender y procesar datos codificados en ASCII, lo que garantiza la longevidad y usabilidad del contenido codificado en ASCII.
  • Base para un mayor desarrollo. ASCII allanó el camino para desarrollar estándares de codificación más completos como Unicode, que incluye una gama más amplia de caracteres para adaptarse a múltiples idiomas y símbolos. Unicode extiende la idea básica de ASCII a una escala global, permitiendo la representación de texto en prácticamente todos los idiomas escritos.
  • Valor educativo. Aprender sobre ASCII suele ser un punto de entrada para que los estudiantes y nuevos programadores comprendan más sobre la codificación de caracteres, la representación binaria de datos y la historia de la informática. Sienta las bases para temas más complejos de informática y tecnología de la información.

¿Cómo funciona ASCII?

ASCII funciona asignando un código binario único de 7 bits a cada carácter de su conjunto, lo que permite a las computadoras y dispositivos electrónicos representar y manipular texto utilizando datos binarios. Este esquema de 7 bits permite 128 combinaciones distintas (2^7) correspondientes a los 128 caracteres únicos del estándar ASCII. Estos caracteres incluyen 33 caracteres de control (no imprimibles), que gestionan el formato del texto y el control de transmisión, y 95 caracteres imprimibles, que abarcan el alfabeto inglés (en mayúsculas y minúsculas), dígitos (0-9), signos de puntuación y una selección de símbolos especiales.

Representar caracteres como números binarios permite el procesamiento, almacenamiento y transmisión eficiente de información textual en forma digital, asegurando uniformidad entre diferentes sistemas informáticos y de telecomunicaciones. Cuando un usuario presiona una tecla en un teclado, el código binario ASCII correspondiente se genera y se envía a la computadora, que luego lo procesa como el carácter designado. Este sistema sustenta la creación, visualización e intercambio de texto en la mayoría de los sistemas informáticos, formando la base para formatos de archivos, protocolos de transmisión de datos y lenguajes de programación.

Caracteres ASCII

ASCII define 128 caracteres, que se dividen en dos grupos principales: caracteres de control (no imprimibles) y caracteres imprimibles. Cada carácter está representado por un número de 7 bits, que va del 0 al 127. A continuación se muestra una lista simplificada y una explicación de estos caracteres:

Personajes de control (0–31 y 127)

Los caracteres de control no son imprimibles. Se utilizan para controlar el flujo o formato del texto en dispositivos y comunicaciones:

0 31-: Se utilizan varios códigos de control para formatear texto o controlar dispositivos. Ejemplos incluyen:

  • 0 (NUL, nulo): Utilizado como terminador de cadena en lenguajes de programación.
  • 7 (BEL, campana): Hace que el dispositivo emita una alerta audible.
  • 8 (BS, Retroceso): Mueve el cursor una posición hacia atrás.
  • 9 (TAB, pestaña horizontal): Mueve el cursor a la siguiente tabulación.
  • 10 (LF, avance de línea): Mueve el cursor hacia abajo a la siguiente línea.
  • 13 (CR, Retorno de Carro): Mueve el cursor al principio de la línea.
  • 27 (ESC, Escape): Se utiliza para iniciar secuencias de escape.

127 (BORRAR): Diseñado originalmente para indicar la eliminación de un personaje.

Caracteres imprimibles (32–126)

Los caracteres imprimibles incluyen letras, dígitos, signos de puntuación y algunos símbolos especiales:

  • 32 (Espacio): Un espacio en blanco en el texto.
  • 33 47-: Incluye puntuación y símbolos como !"#$%&'()*+,-./.
  • 48 57-: Representa dígitos 0 a 9.
  • 58 64-: Puntuación y símbolos adicionales que incluyen :;<=>?@.
  • 65 90-: Letras mayúsculas A a Z.
  • 91 96-: Incluye [\]^_, y acento grave `.
  • 97 122-: Letras minusculas a a z.
  • 123 126-: Símbolos {|}~.

Anastasia
Spasojevic
Anastazija es una escritora de contenido experimentada con conocimiento y pasión por cloud informática, tecnología de la información y seguridad en línea. En phoenixNAP, se centra en responder preguntas candentes sobre cómo garantizar la solidez y seguridad de los datos para todos los participantes en el panorama digital.