COMPUTACIÓN Y BITS
La más pequeña unidad de información es el bit. Un bit sólo puede tener uno de dos valores, que para efectos prácticos representamos como 1 o 0, pero como bien apuntaron Claude Shannon, padre de la teoría de la información, y Warren Weaver en el libro Teoría Matemática de la Comunicación: “la información no debe confundirse con el significado”. La información sobre el resultado de la lotería para un número en particular puede representarse con un bit: 1 ganó, 0 no ganó, pero el significado de tal mensaje sería muy grande, y por otra parte una fotografía digital puede requerir una gran cantidad de bits pero tener un pobre significado. No debe por tanto asociarse cantidad de información con cantidad de significado.Dónde se almacena un bit de información es una cuestión mucho más práctica y que desde que las computadoras digitales empezaron a existir se convirtió en un factor clave de eficiencia energética, capacidad y velocidad de cómputo. Si para almacenar un bit se
requiere una gran cantidad de energía la computadora resultará anti-económica, como sucedía cuando se usaban bulbos al vacío y reveladores para almacenamiento; si almacena pocos bits su funcionalidad se reduce y si es lenta para acceder a cada bit entonces presentará resultados en lapsos inaceptables. Aún más importante es cómo se procesa cada bit, qué papel juega, si representa una entrada, una salida, un resultado intermedio, un indicador de proceso que sirve para realizar cálculos posteriores, etc. Aquí es cuando el bit se convierte en parte de una computación, de una operación o de un cálculo. Los bits están participando constantemente en nuevas computaciones que a su vez responden a procesos bien estructurados denominados algoritmos.
requiere una gran cantidad de energía la computadora resultará anti-económica, como sucedía cuando se usaban bulbos al vacío y reveladores para almacenamiento; si almacena pocos bits su funcionalidad se reduce y si es lenta para acceder a cada bit entonces presentará resultados en lapsos inaceptables. Aún más importante es cómo se procesa cada bit, qué papel juega, si representa una entrada, una salida, un resultado intermedio, un indicador de proceso que sirve para realizar cálculos posteriores, etc. Aquí es cuando el bit se convierte en parte de una computación, de una operación o de un cálculo. Los bits están participando constantemente en nuevas computaciones que a su vez responden a procesos bien estructurados denominados algoritmos.