¿Cómo sabemos? La información y su historia

El físico y matemático Freeman Dyson reseña para NYREV The Information: A History, a Theory, a Flood, de James Gleick (Pantheon).

El primer capítulo del volumen de James Gleick lleva por título de “Tambores parlantes”. Explica el concepto de información con un ejemplo sencillo. El ejemplo es el lenguaje de los tambores que se utiliza en una parte de la República Democrática del Congo, una zona en la que se habla el Kele. Los exploradores europeos fueron conscientes desde antiguo que los ritmos irregulares de los tambores africanos llevaban mensajes misteriosos a través de la selva. Los exploradores llegaron a pueblos donde ningún europeo había sido arribado antes y se encontraron con que los ancianos del pueblo estaban preparadas para hacerles frente.

Lamentablemente, solo un europeo comprendía y grabó el lenguaje de los tambores antes de que empezara a desaparecer. El europeo era John Carrington, un misionero inglés que pasó su vida en África y dominaba con fluidez en ambos idiomas, el Kele y el del tambor. Llegó a África en 1938 y publicó sus hallazgos en 1949 en un libro, The Talking Drums of Africa.  Antes de la llegada de los europeos con sus caminos y sus aparatos de radio, los africanos de habla Kele habían utilizado el lenguaje del tambor para una rápida comunicación de aldea a aldea en la selva tropical. Cada aldea tenía un experto en tambor y todos los aldeanos entendían lo que los tambores estaban diciendo. En el momento en que Carrington escribió su libro, el uso del lenguaje del tambor ya se estaba desvaneciendo y los escolares ya no lo aprendían. En los sesenta años que han pasado desde entonces, los teléfonos han hecho que ese lenguaje quedara obsoleto y han completado el proceso de extinción.

Carrington entendió de qué modo la estructura de la lengua Kele hacía posible el lenguaje del tambor. El Kele es una lengua tonal con dos tonos marcadamente distintos. Cada sílaba es baja o alta. El lenguaje del tambor es hablado por un par de tambores con los mismos dos tonos. Cada palabra Kele es hablada por los tambores como una secuencia de golpes bajos y altos. Al pasar del lenguaje humano Kele al tambor, toda la información contenida en las vocales y las consonantes se pierde. En una lengua europea, las consonantes y las vocales contienen toda la información, y si quitáramos esta información no quedaría nada. Pero en un lenguaje tonal como el Kele, hay información contenida  en los tonos y sobrevive a la transición desde el hablante humano a la percusión. La fracción de información que sobrevive en la palabra del tambor es pequeña, y las palabras pronunciadas por los tambores son correspondientemente ambiguas. Una sola secuencia de tonos puede tener cientos de significados dependiendo de las vocales y consonantes que falten. El lenguaje del tambor debe resolver la ambigüedad de las palabras individuales añadiendo más palabras. Cuando se añade un número suficiente de palabras redundantes, el significado del mensaje se convierte en único.

En 1954 un visitante de los Estados Unidos llegó a la escuela de la misión de Carrington. Carrington estaba dando un paseo por el bosque y su esposa quería llamarle  para el almuerzo. Le envió un mensaje con el tambor  y le explicó que había llegado el visitante. Para que le fuera inteligible, era necesario que el mensaje  se expresara con frases redundantes y repitió: “Espíritu del hombre blanco en el bosque, ven, ven a la casa de tejas altas por encima del espíritu del hombre blanco en el bosque. Mujer con ñame espera. Ven, ven”. Carrington escuchó el mensaje y volvió a casa. En promedio, se necesitan alrededor de ocho palabras del lenguaje del tambor para transmitir una palabra del lenguaje humano de forma inequívoca. Los matemáticos occidentales dicen que alrededor de una octava parte de la información en el lenguaje humano Kele pertenece a los tonos que se transmiten por el lenguaje del tambor. La redundancia de las frases del lenguaje del tambor compensa la pérdida de la información en las vocales y consonantes. Los tambores africanos no sabían nada de matemáticas occidentales, pero hallaron el nivel adecuado de redundancia para su lenguaje del tambor procediendo por ensayo y error. La esposa de Carrington había aprendido el lenguaje de los tambores y sabía cómo usarlo.

La historia de la lengua del tambor  muestra el dogma central de la teoría de la información. El dogma central dice: “El sentido es irrelevante”. La información es independiente del significado que expresa, y del lenguaje utilizado para expresarlo. La información es un concepto abstracto, que puede ser incorporada igual de bien en el habla humana,  por escrito o mediante tambores. Todo lo que se necesita para transferir información de un idioma a otro es un sistema de codificación. Un sistema de codificación puede ser simple o complicado. Si el código es simple, como lo es el lenguaje del tambor con sus dos tonos, una determinada cantidad de información requiere un mensaje más largo. Si el código es complicado, como lo es el lenguaje hablado, la misma cantidad de información puede ser transmitida en un mensaje más corto.

Otro ejemplo que ilustra el dogma central es el telégrafo óptico francés. Hasta el año 1793, el quinto año de la Revolución Francesa, los tambores africanos se adelantaron a los europeos en su capacidad de transmitir información rápidamente en distancias largas. En 1793, Claude Chappe, un ciudadano patriótico de Francia, deseoso de fortalecer la defensa del gobierno revolucionario contra los enemigos nacionales y extranjeros, inventó un dispositivo que llamó el telégrafo. El telégrafo era un sistema de comunicación óptica con estaciones que consistía en grandes punteros móviles montados en la parte superior de unas torres de sesenta pies . Cada estación era atendida por un operador que podía leer un mensaje transmitido por una estación vecina y transmitir el mismo mensaje a la siguiente estación en la línea de transmisión.

La distancia entre estaciones  era de unos siete kilómetros. A lo largo de las líneas de transmisión, los mensajes ópticos en Francia podrían viajar más rápido que los mensajes del tambor en África. Cuando Napoleón se hizo cargo de la República Francesa en 1799 ordenó instalar el sistema de telegrafía óptica para enlazar las principales ciudades de Francia, desde Calais y París a Toulon y de ahí a Milán. El telégrafo se convirtió, como Claude Chappe había previsto, en un importante instrumento de poder nacional. Napoleón se aseguró de que no estuviera disponible para usuarios privados.

A diferencia del lenguaje del tambor, que se basaba en el lenguaje hablado, el telégrafo óptico se basaba en el francés escrito. Chappe inventó un complejo sistema de codificación para traducir los mensajes escritos en señales ópticas. Chappe tuvo el problema opuesto al de los tambores. Los que usan el tambor tienen un sistema de transmisión rápida con mensajes ambiguos. Necesitaban ralentizar la transmisión para que los mensajes fueran  inequívocos. Chappe tenía una red de transporte muy lenta con mensajes redundantes. La lengua francesa, como la mayoría de las lenguas alfabéticas, es altamente redundante, con muchas más letras de las que se necesitan para transmitir el significado de un mensaje. El sistema de codificación Chappe permitió que los mensajes se transmitieran con mayor rapidez. Muchas frases comunes y nombres propios fueron codificados con sólo dos símbolos ópticos, con un aumento sustancial en la velocidad de transmisión. El compositor y el lector de un mensaje tenía un libro con la lista de los códigos de mensajes para ocho mil frases y nombres. Para Napoleón era una ventaja tener un código que estuviera realmente cifrado, manteniendo el contenido de los mensajes secreto, fueran del alcance de los ciudadanos, a lo largo de la ruta.

Tras estos dos ejemplos históricos de una rápida comunicación en África y Francia, el resto del libro de Gleick va sobre el desarrollo moderno de la tecnología de la información. La historia moderna está dominada por dos estadounidenses, Samuel Morse y Claude Shannon. Samuel Morse fue el inventor del código Morse. También fue uno de los pioneros que construyeron un sistema de telégrafo usando electricidad transportada a través de cables en lugar de punteros ópticos situados en torres. Morse lanzó su telégrafo eléctrico en 1838 y perfeccionó el código en 1844. Su código usa pulsaciones cortas y largas de la corriente eléctrica para representarlas  letras del alfabeto.

Morse estaba ideológicamente en el polo opuesto a Chappe. No estaba interesado en el secreto ni en la creación de un instrumento de poder gubernamental. El sistema de Morse fue diseñado para ser una empresa con fines de lucro, rápida, barata y disponible para todo el mundo. Al principio el precio de un mensaje era de un cuarto de centavo por letra. Los usuarios más importantes del sistema eran corresponsales de prensa que difundían noticias de eventos locales para los lectores de todo el mundo. El código Morse era bastante fácil de aprender para cualquier persona. El sistema no proporciona ningún secreto a los usuarios. Si los usuarios desean el secreto pueden inventar sus propios códigos secretos y cifrar sus propios mensajes. El precio de un mensaje cifrado era mayor que el  de un mensaje de texto sin formato, ya que los telegrafistas podían transcribir el texto más rápidamente. Era mucho más fácil corregir errores en texto sin formato que cifrado.

Claude Shannon fue el padre fundador de la teoría de la información. En los cien años posteriores al telégrafo eléctrico, otros sistemas de comunicación como el teléfono, la radio y la televisión fueron inventados y desarrollados por ingenieros, sin necesidad de matemáticas superiores. Entonces Shannon suministró la teoría para comprender todos estos sistemas juntos, definiendo la información como una cantidad abstracta inherente a un mensaje telefónico o a una imagen de televisión. Shannon introdujo las matemáticas superiores en el juego.

Cuando Shannon era un niño que crecía en una granja en Michigan, se construyó un sistema telegráfico casero utilizando el código Morse. Los mensajes eran transmitidos a sus amigos de las fincas de vecinos, usando el alambre de púas de sus cercas para conducir las señales eléctricas. Cuando comenzó la Primera Guerra Mundial II, Shannon se convirtió en uno de los pioneros de la criptografía científica, trabajando en el sistema telefónico cifrado de alto nivel que permitió a Roosevelt y Churchill hablar a través de un canal seguro. El amigo de Shannon, Alan Turing, también estaba trabajando como criptógrafo en el famoso proyecto británico Enigma, que descifró con éxito los códigos militares alemanes. Los dos pioneros se reunieron con frecuencia cuando Turing visitó Nueva York en 1943, pero pertenecían a mundos secretos separados y no podían intercambiar ideas acerca de la criptografía.

En 1945 Shannon escribió un artículo, “A Mathematical Theory of Cryptography”, que fue sellado como SECRETO y nunca vio la luz. Publicó en 1948 una versión expurgada con el título “A Mathematical Theory of Communication”. La versión de 1948 apareció en el Bell System Technical Journal , la revista interna de los Bell Telephone Laboratories, y se convirtió de inmediato en un clásico. Es el documento fundacional de la moderna ciencia de la información. Después de Shannon, la tecnología de la información siguió hacia adelante, con ordenadores electrónicos, cámaras digitales, internet y la World Wide Web.

Según Gleick, el impacto de la información sobre los asuntos humanos se produjo en tres entregas: en primer lugar, la historia, los miles de años durante los cuales la gente creó y se intercambió información sin que existiera el concepto de medición;  en segundo lugar, la teoría, formulada por primera vez por Shannon; en tercer lugar, la inundación, en la que ahora vivimos. La inundación comenzó en silencio. El acontecimiento que hizo claramente visible la inundación se produjo en 1965, cuando Gordon Moore estableció la Ley de Moore. Moore fue un ingeniero electrónico, fundador de Intel Corporation, una compañía que fabrica componentes para ordenadores y otros aparatos electrónicos. Su ley dice que el precio de los componentes electrónicos disminuiría y su número aumentaría por un factor de dos cada dieciocho meses. Esto implicaba que el precio se reduciría y el número aumentaría por un factor de cien en cada década. La predicción de Moore de continuo crecimiento ha resultado ser sorprendentemente exacta durante los cuarenta y cinco años transcurridos desde que la anunció. En estas cuatro décadas y media, el precio ha disminuido y su número se han incrementado por un factor de mil millones, nueve potencias de diez. Nueve potencias de diez son suficientes para convertir un goteo en una inundación.

Gordon Moore estaba en el negocio del hardware, en la fabricación de componentes de hardware para máquinas electrónicas, y propuso su ley como una ley de crecimiento para el hardware. Pero la ley también se aplica a la información que el hardware está diseñado para encarnar. El propósito del hardware es almacenar y procesar información. El almacenamiento de información se llama memoria y el procesamiento de la información se llama computación. La consecuencia de la Ley de Moore para la información es que el precio de la memoria y el procesamiento disminuye y la cantidad disponible de memoria y procesamiento aumenta en un factor de cien en cada década. La inundación de hardware se convierte en una avalancha de información.

En 1949, un año después de que Shannon publicara las reglas de la teoría de la información, elaboró una tabla de los diferentes almacenes de memoria que entonces existían. La tabla más grande de memoria estaba en la Biblioteca del Congreso, que él estimaba que contenía cien trillones de bits de información. Era  en aquel momento una conjetura razonable sobre la suma total del conocimiento humano registrado. Hoy en día una unidad de disco de memoria que almacena esa cantidad de información pesa unas pocas libras y se puede comprar por alrededor de mil dólares. La información, también conocida como datos, se vierte en memorias de ese tamaño o más grandes, en oficinas gubernamentales, empresas y laboratorios científicos de todo el mundo. Gleick cita al científico de la computación Jaron Lanier para describir el efecto de la inundación: “Es como si te arrodillas para plantar la semilla de un árbol y crece tan rápido que se traga el pueblo entero antes de que incluso puedas ponerte de pie”.

El 8 de diciembre de 2010, Gleick publicado en el blog de The New York Review un ensayo esclarecedor, “The Information Palace“. Lo escribió demasiado tarde para ser incluido en su libro. En él se describe la evolución histórica del significado de la palabra “información”, según consta en la última revisión trimestral en línea del Oxford English Dictionary. La palabra aparece por primera vez en 1386 en un informe parlamentario con el significado de “denuncia”. La historia termina con el uso moderno, el de “fatiga de la información”, definida como “la apatía, la indiferencia o el agotamiento mental derivados de la exposición a demasiada cantidad de información”.

Las consecuencias de la inundación de información no son del todo malas. Una de las empresas creativas que la inundación ha hecho posible es la Wikipedia,  iniciada hace diez años por Jimmy Wales. Entre mis amigos y conocidos, todo el mundo desconfía de la Wikipedia y todo el mundo la usa. La desconfianza y el uso productivo no son incompatibles. Wikipedia es el último repositorio de información abierto. Todo el mundo es libre de leerla y todos pueden escribir. Contiene artículos en 262 idiomas, escritos por varios millones de autores. La información que contiene no es totalmente fiable, pero sí sorprendente precisa. A menudo es poco fiable debido a que muchos de los autores son ignorantes o descuidados. Suele ser precisa porque los artículos son editados y corregidos por los lectores, que están mejor informados que los autores.

Cuando comenzó la Wikipedia, Jimmy Wales esperaba que la combinación de escritores voluntarios entusiastas con la tecnología de información de fuente abierta podría suponer una revolución en el acceso a los conocimientos humanos. La tasa de crecimiento de la Wikipedia superó sus sueños más salvajes. En diez años se ha convertido en el mayor almacén de información del planeta y en el más ruidoso campo de batalla de opiniones en conflicto. Ilustra la ley de Shannon de comunicación fiables. Esta ley dice que la transmisión precisa de información es posible en un sistema de comunicación con un alto nivel de ruido. Incluso en los sistemas más ruidosos, los errores pueden ser corregidos de forma fiable y la información exacta puede transmitirse, siempre que la transmisión sea suficientemente redundante. Es decir, tal y como funciona la Wikipedia.

La inundación de información también ha traído enormes beneficios a la ciencia. El público tiene una visión distorsionada de la ciencia, porque a los niños se les enseña en la escuela que la ciencia es una colección de verdades firmemente establecidas. De hecho, la ciencia no es una colección de verdades. Se trata de una continua exploración de misterios. Dondequiera que vayamos explorando en el mundo que nos rodea, nos encontramos con misterios. Nuestro planeta está cubierto por continentes y océanos, cuyo origen no se puede explicar. Nuestra atmósfera está agitada constantemente por perturbaciones mal entendidas que llamamos tiempo y clima. La materia visible en el universo se ve compensada por una cantidad mucho mayor de materia oscura invisible que no entendemos en absoluto. El origen de la vida es un misterio total, y también lo es la existencia de la conciencia humana. No tenemos ninguna idea clara de cómo las descargas eléctricas que ocurren en las células nerviosas del cerebro se conectan con nuestros sentimientos, deseos y acciones.

Incluso la física, la rama de la ciencia más exacta y más firmemente establecida, aún está llena de misterios. No sabemos qué parte de la teoría de la información de Shannon seguirá siendo válida cuando los dispositivos cuánticos reemplacen a los clásicos circuitos eléctricos como portadores de información. Los dispositivos cuánticos pueden estar hechos de átomos individuales o de microscópicos circuitos magnéticos. Todo lo que sabemos con certeza es que teóricamente puede hacer ciertos trabajos que estén fuera del alcance de los dispositivos clásicos. La computación cuántica es todavía un misterio inexplorado en la frontera de la teoría de la información. La ciencia es la suma total de una gran multitud de misterios. Es un argumento sin fin entre una gran multitud de voces. Se parece a la Wikipedia mucho más de lo que se asemeja a la Enciclopedia Británica.

El rápido crecimiento de la avalancha de información en los últimos diez años hizo posible la Wikipedia, y la inundación misma hizo posible la ciencia del siglo XXI.  La ciencia del siglo XXI está dominada por esos grandes almacenes de información que llamamos bases de datos. La inundación de la información ha hecho que sea fácil y barato construir bases de datos. Un ejemplo de una base de datos de nuestro siglo es la recopilación de secuencias del genoma de los seres vivos pertenecientes a especies diferentes, de microbios a seres humanos. Cada genoma contiene la información genética completa que dio forma a la criatura a la que pertenece. Los base de datos del genoma está creciendo rápidamente y está disponible para que científicos de todo el mundo la exploraen.  Su origen se remonta al año 1939, cuando Shannon escribió su tesis doctoral con el título de “An Algebra for Theoretical Genetics”.

Shannon era entonces un estudiante graduado en el departamento de matemáticas en el MIT . Era vagamente consciente de la posible realización física de la información genética. La verdadera encarnación física del genoma es la estructura de doble hélice de las moléculas del ADN, descubierta por Francis Crick y James Watson catorce años más tarde. En 1939 Shannon entendía que el fundamento de la genética debía ser la información, y que la información debía ser codificada en algún tipo de álgebra abstracta independiente de su forma física. Sin ningún conocimiento de la doble hélice, no podía esperar adivinar la estructura detallada del código genético. Sólo podía imaginar que en un futuro lejano la información genética podría ser decodificada y recogida en una base de datos gigante que definiría la diversidad total de los seres vivos. Sólo se necesitaron sesenta años para que su sueño se hiciera realidad.

En el siglo XX, los genomas de los humanos y de otras especies fueron descifrados laboriosamente y traducidos a secuencias de letras en memorias de ordenador. La decodificación y traducción se hicieron más baratas y más rápidas a medida que pasaba el tiempo, con precio decreciente y velocidad cada vez mayor según la Ley de Moore. El primer genoma humano tardó quince años en decodificarse y costó alrededor de mil millones de dólares. Ahora, un genoma humano puede ser descifrado en un par de semanas y cuesta unos cuantos miles de dólares. Alrededor del año 2000 se alcanzó un punto de inflexión, cuando se hizo más barato producir la información genética que entenderla. Ahora podemos pasar un trozo de ADN humano a través de una máquina y rápidamente lee la información genética, pero no podemos leer el significado de la información. No entenderemos plenamente la información hasta que entendamos en detalle los procesos del desarrollo embrionario que el ADN orquesta para hacer de nosotros lo que somos.

Un punto de inflexión similar llegó casi al mismo tiempo en la astronomía. Telescopios y naves espaciales han evolucionado lentamente, pero las cámaras y procesadores de datos ópticos se han desarrollado rápidamente. Los proyectos modernos de estudio del cielo recopilan datos de grandes áreas de cielo y producen bases de datos con información precisa acerca de miles de millones de objetos. Los astrónomos sin acceso a instrumentos de gran tamaño puede hacer descubrimientos explorando las bases de datos en lugar de observar el cielo. Las grandes bases de datos han causado revoluciones similares en otras ciencias como la bioquímica y la ecología.

El crecimiento explosivo de la información en nuestra sociedad humana es una parte del crecimiento más lento de estructuras ordenadas en la evolución de la vida en su conjunto. La vida ha estado evolucionando miles de millones de años con organismos y ecosistemas que contienen cantidades cada vez mayores de información. La evolución de la vida es una parte de la evolución del universo, que también evoluciona con cantidades crecientes de información integradas en estructuras ordenadas, galaxias,  estrellas y sistemas planetarios. En el mundo vivo y no vivo vemos un crecimiento del orden, desde el gas uniforme de los inicios del universo a la producción de la magnífica diversidad de objetos extraños que vemos en el cielo y en la selva tropical. En todas partes a nuestro alrededor, donde quiera que miremos, vemos indicios de creciente orden y de aumento de la información. La tecnología que surge de los descubrimientos de Shannon es sólo una aceleración local del crecimiento natural de la información.

El crecimiento visible de las estructuras ordenadas en el universo parecía paradójico para los científicos y los filósofos del siglo XIX, que creían en una doctrina denominada la muerte térmica. Lord Kelvin, uno de los más importantes físicos de la época, promovió el dogma de la muerte térmica, la predicción de que, desde el flujo de calor de los objetos más calientes a los más fríos se traduciría en una disminución de las diferencias de temperatura en todas partes, hasta que en última instancia todas las temperaturas se igualarían. La vida necesita diferencias de temperatura para evitar quedar sofocada por el exceso de calor. Así que la vida va a desaparecer.

Esta visión sombría del futuro está en sorprendente contraste con el crecimiento exuberante de la vida que vemos a nuestro alrededor. Gracias a los descubrimientos de los astrónomos en el siglo XX, ahora sabemos que la muerte térmica es un mito. La muerte térmica nunca puede pasar, y no hay ninguna paradoja. El mejor relato popular de la desaparición de la paradoja es un capítulo, “How Order Was Born of Chaos”, del libro Creation of the Universe, de Fang Lizhi y su esposa Li Shuxian. Fang Lizhi es doblemente famoso por ser uno de los principales astrónomos de China y como destacado disidente político. Ahora continua esa doble actividad desde la Universidad de Arizona.

La creencia en una muerte térmica se basa en una idea que yo llamo la regla de la cocción. La regla dice que un trozo de carne se calienta cuando lo ponemos en una parrilla caliente. De manera más general, la regla dice que cualquier objeto se calienta cuando se gana energía, y se enfría cuando se pierde energía. Los seres humanos han estado cocinando bistecs durante miles de años, y nadie vio que un filete se enfriara en contacto con el fuego. La regla de cocción es cierta para  objetos lo suficientemente pequeños como para que los podamos manejar. Si la regla de cocción es siempre cierta, entonces el argumento de Lord Kelvin de la muerte térmica es correcto.

Ahora sabemos que la regla de cocción no es cierta para objetos de tamaño astronómico, por lo que la gravitación es la forma dominante de energía. El sol es un ejemplo familiar. Cuando el sol pierde energía por radiación, se hace más caliente y no más frío. Dado que el sol está hecho de gas comprimible presionado por su propia gravitación, la pérdida de energía hace que se vuelva menor y más denso, y la compresión hace que se caliente. Casi todos los objetos astronómicos, en los que domina la gravedad, tienen el mismo comportamiento inesperado. La gravitación invierte la relación habitual entre energía y temperatura. En el ámbito de la astronomía, cuando el calor fluye de los objetos más calientes a los más fríos, los objetos calientes se calientan y los objetos fríos se enfrían. Como resultado, las diferencias de temperatura en el universo astronómico tienden a aumentar en vez de disminuir a medida que pasa el tiempo. No hay un estado final de temperatura uniforme, y no hay muerte térmica. La gravitación nos prporciona un universo hospitalario para la vida. La información y el orden pueden continuar creciendo durante miles de millones de años en el futuro, como lo han hecho evidentemente en el pasado.

La visión del futuro como un infinito campo de juegos, con una secuencia interminable de misterios a entender por una secuencia interminable de jugadores explorando una fuente interminable de informaciones, es una visión gloriosa para los científicos. Los científicos encuentran atractiva esa visión, ya que da un propósito a su existencia y un suministro interminable de puestos de trabajo. La visión es menos atractiva para artistas, escritores y gente común. La gente corriente está más interesada en sus amigos y familiares que en la ciencia. Para la gente común puede que no ea bienvenido un futuro consumido en nadar en una riada interminable de información. Una visión más oscura del universo dominado por la información fue descrita en un famoso cuento, “La Biblioteca de Babel”, de Jorge Luis Borges en 1941.   Borges imaginó su biblioteca, con una variedad infinita de libros, estantes y espejos, como una metáfora del universo.

El libro de Gleick tiene un epílogo titulado “El retorno del significado”, que expresa las preocupaciones de las personas que se sienten alienadas respecto de la cultura científica imperante. El enorme éxito de la teoría de la información provino de la decisión de Shannon de separar información de significado. Su dogma central, “El sentido es irrelevante”, declaraba que la información podía ser manipulada con mayor libertad si era tratada como una abstracción matemática independiente de significado. La consecuencia de esta libertad es el flujo de información en el que nos estamos ahogando. El inmenso tamaño de las bases de datos modernas nos dan una sensación de falta de sentido. Tsta información en tales cantidades nos recuerda a la biblioteca de Borges que se extiende infinitamente en todas direcciones. Es nuestra tarea como seres humanos dar sentido de nuevo a este yermo. Como seres finitos que piensan y sienten, podemos crear islas de significado en el mar de información. Gleick termina su libro con la imagen de Borges de la condición humana:

“recorremos  los pasillos, buscando los estantes y reordenándolos, buscando líneas de sentido en medio de asociaciones de cacofonía e incoherencia, leyendo  la historia del pasado y del futuro, recogiendo nuestros pensamientos y recogiendo los pensamientos de los demás, y de vez en cuando vislumbrando espejos, en los que podemos reconocer las criaturas de la información”.

Copyright © 1963-2011 NYREV, Inc. All rights reserved.

* Véase asimismo la reseña más crítica de Geoffrey Nunmberg

About these ads

3 Respuestas a “¿Cómo sabemos? La información y su historia

  1. Pingback: Los mejores libros del año 2011: historia « Clionauta: Blog de Historia·

  2. Pingback: ¿Cómo sabemos? La información y su historia | libros | Scoop.it·

Los comentarios están cerrados.