A través del programa, el ordenador desmenuza todas las tareas en sus componentes más
elementales.
Si todo esto le parece farragoso, está en lo cierto. Ha descubierto la primera y más importante
verdad de la informática. Un ordenador es una herramienta que sirve para realizar tareas
elementales y repetitivas a gran velocidad y con precisión absoluta. Así, BASIC interpreta las
instrucciones que se le dan por medio del programa y las traduce al lenguaje que la CPU (unidad
central de proceso) puede entender. La lógica del ordenador sólo distingue dos estados: sí y no;
en notación binaria, 1 y 0; en notación de Boole, 'verdadero' y 'falso'. No hay estados
intermedios del tipo 'quizá'.
El proceso de conmutación entre esos dos estados es la esencia del término 'digital'. En la
naturaleza casi todos los procesos evolucionan gradualmente de un estado 'estable' a otro. En
cambio, en la situación digital ideal, la transición de un estado a otro es instantánea. Sin embargo,
las leyes de la física de semiconductores imponen un pequeño retardo, el retardo de
propagación, que es el causante del tiempo que tarda el ordenador en procesar la información
antes de dar la respuesta.
En todo caso, el ordenador tiene que esperar hasta que concluya una tarea antes de poder
abordar la siguiente, lo que representa que siempre se le impone un retardo artificial. El proceso
digital es 'blanco' o 'negro', y las fases de transición por los diversos grados de 'gris' no tienen
ninguna importancia. En cambio, los procesos analógicos se realizan precisamente a través de
esas fases de 'gris'.
Si la respuesta final sólo puede ser 0 o 1, no es posible que el resultado sea 'casi' correcto. El
hecho de que los ordenadores cometan errores en ocasiones se debe a la limitación del tamaño
de los números que pueden procesar; los números con demasiados dígitos tienen que ser
'comprimidos' para que encajen en el espacio disponible, lo que conduce a errores de redondeo.
En un mundo en el que sólo existen los dígitos 0 y 1, ¿cómo se cuenta más allá de 1?
Bits y bytes
Estamos habituados a entender los números solamente cuando están expresados en el sistema
decimal, en el que el punto de referencia es el número 10 y en el que se dispone de 10 dígitos
(del 0 al 9) para representar los números. El sistema binario es conceptualmente análogo al
decimal, pero con sólo dos dígitos; las unidades con las que opera este sistema son los
Manual de Amstrad CPC 6128 (revisión 2008) - Página 328