sábado, 3 de noviembre de 2012

"Superficiales. ¿Qué está haciendo Internet con nuestras mentes?", de Nicholas Carr (2011)

 "Superficiales. ¿Qué está haciendo Internet con nuestras mentes?", de  Nicholas Carr (2011)

http://newjournalismnow.blogspot.com/2012/11/superficiales-que-esta-haciendo.html

Sociología, teoría del conocimiento, psicología social, cambio social, Internet

Resumen, anotaciones y comentarios de E.V.Pita (2012), licenciado en Sociología y Derecho

Título: "Superficiales. ¿Qué está haciendo Internet con nuestras mentes?"
Título original: The Shallows: What The Internet is doing to our brains.

Autor: Nicholas Carr 
Fecha de publicación: 2011
Editorial: Taurus

Indice

Prologo. El perro guardián y el ladrón.

Capítulo 1. Hal y yo
2. Los caminos viales 
Disgresion sobre qué piensa el cerebro cuando piensa acerca de sí mismo
3. Las herramientas de la mente
4. La página personalizada 
Disgresión sobre Lee Forest y su increíble audión
5. Un medio de la audición general
6. La viva imagen del libro
7. Mentalidad de malabarista
Disgresión sobre el crecimiento de las puntuaciones en los test de inteligencia
8. La iglesia de Google
9. Busca memoria Disgresión sobre la escritura de este libro
10. Algo como yo.

Texto de la contraportada:
" Google nos vuelve estúpidos? Nicho las Carr condensó así, en el título de un celebre artículo, uno de los debates más importantes de nuestro tiempo: mientras disfrutamos de las bondades de la Red, estamos sacrificando nuestra capacidad de leer y pensar con profundidad? En este libro, Carr desarrolla sus argumentos para crear el más revelador análisis de las consecuencias intelectuales y culturales de Internet publicado hasta la fecha. Nuestro cerebro, como demuestran evidencias científicas e históricas, cambia en respuesta a nuestras experiencias, y la tecnología que usamos para encontrar, almacenar y compartir información puede, literalmente, alterar nuestros procesos neuronales. Además, cada tecnología de la informacion conlleva una ética intelectual. Así como el libro impreso servía para centrar nuestra atención, fomentando el pensamiento profundo y creativo, Internet fomenta el picoteo rápido y distraído de pequeños fragmentos de información de muchas fuentes. Su ética es una ética industrial, de la velocidad ya la eficiencia. La Red nos está reconfigurando a su propia imagen, volviéndonos más hábiles para manejar y ojear superficialmente la informacion pero menos capaces de concentración, contemplación y reflexión. Este libro cambiará para siempre nuestro modo de entender y aprovechar las nuevas tecnologías".

Resumen:

Resumen exprés: Siguiendo la tradicción de Sócrates y luego McLuhan, que estudió las diferencias entre la cultura oral, de lectura y audiovisual, JNicholas Carr dice que el modo de pensar cambia según el modelo cultural, ya sea cuando era oral, como en las culturas campesinas, como cuando era leído oralmente, en la Edad Media, o leído mediante voz interior, caso de la cultura industrial, o con aportaciones audiovisuales, caso de la cultura postindustrial. Por ello, Internet supone otro cambio de mentalidad que disminuye las áreas del cerebro ocupadas del pensamiento profundo para dedicar más espacio a las áreas de búsqueda, rastreo y reconocimiento de señales. Cuando alguien lee un texto en Internet no lo lee sino que lo "escanea" como cuando examinamos los tomos de una biblioteca para localizar los títulos y "ver lo que hay". También insiste en que diversos estudios señalan que el cerebro necesita tranquilidad (por ejemplo, caminar por un jardín) para organizar sus ideas y asentar la memoria. Las experiencias demuestran que cuando la atención se dispersa (por ejemplo, con un procesador de textos que tiene múltiples ayudas al navegante), el rendimiento es menor y la capacidad memorización empeora.
La idea de este libro es que Internet está cambiando nuestros cerebros para adaptarlos al multiproceso (atender a seis tareas o más a la vez) y la gestión rápida de montañas de información. Su temor es que nos convirtamos en máquinas porque aspectos humanos como la compasión o la empatía necesitan tiempo para reposar en la menta y la frenética marea de datos de Internet impide la memorización y el asentamiento y razonamiento.

Desde el punto de vista sociológico
Obviamente, las nuevas tecnologías suelen conllevar cambios sociales y su ejemplo más palpable fue la revolución industrial a la que siguió el ascenso al poder de la burguesía, así como el paradigma cultural (la cultura de masas). La pregunta es cómo afectará la comunicación y las redes a la estructura social actual y qué tipo de cultura surgirá. Un cambio de pensamiento (por ejemplo, cuando surgió la defensa de la igualdad) suele conllevar una restructuración social (división de los tres poderes, etc...).
Si se mira desde una mera cuestión tecnológica, lo que vemos es que Internet es una extensión del llamado Taylorismo (mayor eficiencia en los procesos de produción), ya que ahora la información está disponible en cuestión de milisegundos, así como las llamadas de teléfono o los avisos de correo instantáneo. Es evidente que la globalización no sería posible primero sin el teléfono y el telégrafo y después sin Internet. Todo esto reduce los costes y agiliza la gestión de la produción. Por su parte, las estructuras neuronales del cerebro de quienes usan Internet (que no deja de ser una herramienta) se amoldan para procesar más rápido montañas de datos y prestar atención a varios procesos simultáneamente. Pero, según Carr, el resultado dista de ser eficiente, según demuestran los test ya que Internet conlleva una pérdida de atención que a su vez impide retener el contenido que examinamos. En realidad, en Internet "escaneamos" información mediante búsquedas veloces. Pero no asimilamos nada, según los estudios realizados, o lo hacemos de forma menos eficiente que una persona que busca los mismos datos en una enciclopedia.
Hay quien tiene la tentación de comparar el cerebro con un ordenador dotado de CPU y memoria (que ahora contaría con una memoria externa en Internet) pero Carr dice que no es así porque la información grabada en un disco duro no cambia por mucho que se pase a un lápiz a otro mientras que el cerebro tiene plasticidad y reordena continuamente la memoria y la clasifica y cambia. Por tanto, el cerebro es algo más que un procesador mecánico. Otra cosa es que Internet convierta nuestras mentes en... mentes artificiales.

Nueva visión del mundo
Otra cuestión que debate el autor es que Internet nos ofrece una visión fragmentaria del mundo sin contextualizar. Pone por ejemplo la idea de Google de escanear millones de libros y subirlos a la Red a disposición de todo el mundo. Resulta que ahora los lectores e investigadores seleccionan párrafos de ese libro (que aparecen en las búsquedas) pero no leen el resto del libro por lo que carecen de la visión general. Otro problema es que las búsquedas están definidas por un algoritmo que selecciona las más populares por lo que los investigadores tenderán a buscar citas que van a encontrar los demás mientras que antes seleccionaban textos perdidos en revistas que consultaban y que nadie había visto, por lo que podían dar sorpresas. La conclusión de Carr es que los buscadores, que en definitica son máquinas que funcionan con algoritmos, al final nos están condicionando nuestro pensamiento y, se deduce que uniformándolo (no hay más que ver cuantos millones de personas consultan Wikipedia).

Introdución
Carr menciona a McLuhan quien en los años 60 enterró la tecnología impresa que surgió con Guttenberg para sustituirla por la cultura electrónica (radio, televisión, cine). Ahora viene Internet con sus podcast, vídeos, webs. Carr, en línea con McLuhan, dice que, a largo plazo, el contenido de un medio importa menos que el medio en sí mismo a la hora de influir en nuestros actos y pensamientos. Lo que cambia son los patrones de percepción. Internet, con su banquete de información, se convierte en el amo de nuestras mentes (según Carr).

Capítulo 1
La idea principal de Carr es que nos hallamos en un momento de transición en la que el viejo proceso lineal de pensamiento es sustituido por otra mente que discrimina información en estallidos cortos, descoordinados o solapados.
Carr arranca con una escena de Odisea 2001 en la que el astronauta desactiva a la computadora asesina y averiada HAL mientras el ordenador le suplica que se detenga. La máquina, a medida que sus circuitos de memoria se apagan, nota que algo está cambiando y tiene miedo.
El autor dice que desde que apareció Internet algo ha cambiado porque no piensa oomo antes, ya que su concentración se disipa y leer un artículo largo le supone un esfuerzo. Otros adquieren destrezas como leer a supervelocidad en varias fuentes online y trocea los post de más de cuatro párrafos para buscar información. Deben procesar y clasificar cientos de textos instantáneos que les llegan de feed, RSS, twitter, facebook y otros, además de las continuas consultas al email.
Leer un libro es anticuado.
En las siguientes párrafos, Carr cuenta cómo en los años 80 se compró un ordenador  hasta que en los 90 surgió Internet y en el 2005 la Web 2.0 y las redes sociales. En el 2007, ya se dio cuenta de que sus rutinas habían cambiado y dependía de los servicios de la Red. Tenía "mono" de mirar el correo o googlear. Internet lo había convertido en una especie de máquina de procesamiento de datos de alta velocidad, un HAL humano.
-
Capítulo 2
Arranca con una anécdota sobre Nietzsche, que cuando se compró una máquina de escribir, cambió su discurso. Luego, comenta los avances de Freud y los neurólogos que descubrieron las neuronas.

Carr critica  a Ramón y Cajal por decir en 1913 que "en los centros del cerebro adulto, las vías nerviosas son algo fijo, acabado, inmutable. Todo puede morir, nada puede regenerarse" aunque en su juventud tuvo sus dudas sobre ello. A partir de que nacemos, nuestro cerebro, un bloque de cemento congelado, se iría erosionando y degradando.
Pero estudios posteriores, como los de Merzenich, demostraron que el cerebro es plástico y no una máquina programada pese a que pronto se compararon las redes neuronales con los circuitos de una computadora y su cableado y el "hardware" y el "software" de fábrica y serie. Otros, como Olds, dijeron que el cerebro es capaz de reprogramarse y alterar la forma en la que funciona (la pista está en los enlaces sinapticos de las neuronas porque la experiencia hace que se refuercen o no [nota del lector: es como una especie de apagado o encendido, si es necesario usar mucho la vista, se activan más los circuitos de la memoria visual, o sea, que podría haber una especie de supervivencia evolutiva de unas sinapsis frente a otras por el mero uso]). Es lo que se denomina neuroplasticidad (capacidad de improvisación). Las experiencias dejan huella en la estructura cerebral.

Luego Carr reflexiona sobre lo que piensa el cerebro cuando piensa acerca de sí mismo con ideas de Aristóteles y Descartes sobre la función del cerebro.

Capítulo 3
Comenta la evolución de un niño que pinta su casa hasta el adulto que pinta un mapa para que sirva para la identificación y medición de fincas. A medida que progresó la cartografía, también cambio la visión del mundo. Lo mismo ocurrió con la medición del tiempo, cada vez más precisa, y que a su vez trasladó el trabajo en el campo a las fábricas [nota del lector: leer a Toffler y su idea del canon en "La tercera ola"]
Las tecnologías aumentan nuestras fuerza y destrezas (arado), amplían nuestros sentidos (contador Géiser, microscopio), sirven para remodelar la naturaleza (embalse) y amplían nuestra capacidad intelectual (reloj y mapa, así como periódico e Internet). Detrás de eso, algunos han visto un determinismo tecnológico (la invención del molino de agua creó sociedades feudales) frente a los que dicen que son artefactos neutrales (instrumentalismo). Carr se considera determinista (el progreso tiene su propia lógica que no es siempre coherente con los deseos de la gente).
En los siguientes párrafos describe la influencia del reloj o la escritura (y la famosa discusión de Sócrates porque escribir libros arruinaría la memoria de los jóvenes que antes recitaban oralmente los poemeas y la réplica de Platón, que ya era escritor). Mientras el mundo oral se caracterizaba por una profundidad emocional e intiutiva, la escrita y la alfabetización abrieron la mente e hicieron el pensamiento más profundo.

CAPÍTULO 4
Aborda los estudios de la imprenta.

CAPÍTULO 6
Compara las diferencias entre el libro y el lector electronico Kindle. Cree que el libro sobrevivirá.

CAPÍTULOS 7 Y 8
Describe las nuevas habilidades de los procesadores de textos y las webs que convierten al usuario en un experto malabarista multiproceso. También estudia los programas de búsqueda como Google (así como la historia de esta empresa y la idea de escanear todos los libros del mundo y ponerlos a disposición de todo el mundo en la Red [nota del lector: una loable idea si no eres el autor y el impresor del libro]).



lunes, 17 de septiembre de 2012

Por que Die Zeit disparó su tirada un 70% en plena crisis?

Por que Die Zeit disparó su tirada un 70%, la difusión creció un 60% y los beneficios se triplicaron en plena crisis de la prensa en el 2008?
Según Laura Lucchini, de El Pais, según explica el director Giovanni Di Lorenzo, el truco fue estudiar en detalle las necesidades de los lectores, ignorar todos lis consejos de los asesores de medios y seguir haciendo artículos largos, documentados, serios e incluso difíciles. El periodismo del futuro es de orientación y profundización. Internet es solo una de las causas de la crisis del papel. Hay otras: la falta de credibilidad y el abandono de la calidad.

La comodificación de la información

The "commodification of information" es un termino que hace alusión a las parcelas de Internet donde trabajan los blogueros o aparcelarios. En la edad media, los labradores (commons) sacaban fruto de las parcelas que les alquilaba el señor de la tierra. Con la industrialización, los señores industrializaron la tierra y echaron, por ley, a los aparceros, que emigraron a las ciudades.
En la era digital, un gran numero de corporaciones están ejerciendo sus derechos sobre la masiva colección de archivos digitales que adquieren con sus operaciones comerciales. En respuesta a esto, Creative Commons ofrece una solución al problema del "commons y derechos de autor en los nuevos media. Propone que los autores deberían decidir lo que interesa que ellos quieren retener en lo que ellos producen y lo que ellos están dispuestos a distribuir libremente.
1) Las copias digitales son esencialmente libres
2) Es un problema saber como apoyas el trabajo creativo en este nuevo mundo de colaboración.
3) Las leyes de copyright no son universalmente aplicables entre US y Europa.
4) la mayoría de los textos de Internet no son informacion sino entretenimiento, lo que sí es explotable económicamente por los costosos procesos de creación y puesta en escena.

Source, fuente: The Media Student's Book. Pp.256

Raymond Williams y el determinismo tecnológico

Marshall McLuhan defiende la idea de que las tecnologías de la comunicación han cambiado la percepción humana del mundo, unido por redes como una comunidad virtual.
Por contra, Raymond Williams dice que las mismas ideas, historias o imágenes son reconstruidas o reversionadas cada vez que surge una nueva tecnología (por ejemplo, versiones de la saga Star Wars en 2-D, 3-D, videojuego). Por eso no cree que la tecnología determine los cambios sociales. Es lo que llama Determinismo tecnológico. Dice que es imposible estudiar la tecnología si se piensa que está en una esfera separada de la vida social. Es parte del proceso de producción, diseño, marketing, etc...
"The media students Book", charter 8, new media in a new world. Pp. 244.

miércoles, 22 de agosto de 2012

"La información", de James Gleick (2011)

Resumen de "La información", de James Gleick (2011)


Sociología, sociología de la comunicación, teoría de la información

Resumen, comentarios y anotaciones por E.V.Pita, licenciado en Derecho y Sociología

Título: "La información"
subtitulo: Historia y realidad

Titulo original: "The information: a History, a Theory, a Flood"
Autor:James Gleick
Fecha de publicación: 2011

Indice:

1. Tambores que hablan
2. La persistencia de la palabra
3. Dos vocabularios
4. Volcar los poderes del pensamiento en un dispositivo mecánico
5. Un sistema nervioso para la Tierra
6. Nuevos cables, nueva lógica
7. La teoría de la información
8. El giro internacional
9. La entropía y sus demonios
10. El código de la vida
11. En el acervo de memes
12. El sentido de aletoriedad
13. La información es física
14. Tras el diluvio
15. Noticias nuevas todos los días

Texto de la contraportada:
"Vivimos en el mundo de la información y el conocimiento, pero, aunque manejamos cotidianamente móviles y ordenadores, no entendemos del todo lo que esto significa. En un libro ambicioso y apasionante, James Gleick comienza contándonos una historia que ha cambiado la naturaleza de la conciencia humana, desde los tambores africanos o la invención de la ordenación alfabética de las palabras hasta los avances mas recientes de la tecnología informática. Examina después como se desarrollaron las ideas en que se ha basado este avance llevándonos, dice el profesor Geoffrey Nunberg, " del demonio de Maxwell al teorema de Gödel, de los agujeros negros a los genes egoístas", explicando con claridad los más complejos principios e ilustrándolos con las vidas de sus protagonistas, de Charles Babbage a Alan Turing o a Claude Shannon. Y concluye analizando lo que representa para nuestras vidas la agobiadora inundación de informaciones que nos rodea. Como ha dicho Josh Rothman, este es "un libro bellamente escrito y muy documentado que consigue sorprendernos continuamente".




Introducción al autor: Gleick (Nueva York, 1954) es el autor de Caos, finalista del US National Book Award, traducido a 25 idiomas. También escribió las biografías de Richard Feynman e Isaac Newton, seleccionadas para el premio Pulitzer.

RESUMEN

Introducción
En las primeras páginas, Gleick menciona dos descubrimientos en los laboratorios de Bell que fueron trascendentales para la era del chip y la informática: el transistor y la definición de un "bit" como unidad mínima de información. La teoría de la informacion de Shannon dice que la información se puede medir como bits ( uno o cero). Esto daría lugar a la comprensión del ADN genético como un almacén de información, plantearía problemas sobre la mecanica cuantica y la teoría de partículas, el caos, la entropía y la fuga de información de un agujero negro, así como la transmisión cultural a través de memes (el equivalente cultural del gen). Gleick dice que, tras Shannon, el hombre empezó a sospechar que el universo funcionaba como un gigantesco procesador de información. [nota del lector: algunos físicos mencionan la posibilidad de que formemos parte de un videojuego a gran escala y con infinitas variedades y combinaciones].

CAPÍTULO 1
Gleick empieza su historia de la información con los tambores africanos que daban noticias a mayor rapidez antes de que el telégrafo funcionase en Europa. El tan-tan se basaba en los tonos de las palabras y para evitar confusiones o ruidos usaban la redundancia: para evitar confundir una palabra como Luna con otra los tambores decían: Luna que mira a la Tierra de forma que no quedase duda al oyente o receptor.

CAPÍTULO 2

Gleick examina las culturas orales y la irrupción de la escritura como "un trueno" en la historia. Empieza con la Ilíada, poema escrito con una estructura redundante para poder ser recordada oralmente, y su transcripción al papel. Gleick examina el cambio de mentalidad que supuso la escritura y sobre todo el alfabeto, que desarrolló con Aristóteles un sistema para clasificar todo en categorías y definiciones y después para estructurarlo en una lógica, lo que a su vez daría lugar a paradojas del lenguaje. Lo que viene a decir Gleick es que la escritura permitió acumular conocimientos a lo largo del tiempo como demuestran las tablillas cuneiformes sumerias de Uruk que contienen ecuaciones de segundo grado, algoritmos o números pitagóricos antes de Pitágoras.
Gleick también hace referencia a la idea de McLuhan de que la era electrónica es una era de cultura oral con múltiples canales de participación de los sentidos ( oído, vista) frente a los medios escritos, que son canales unifireccionales. Frente a esto, Hobbes decía que la cultura oral solo transmitía conocimientos obtenidos mediante prueba y ensayo, como las plantas medicinales, y nada más.
Tras este debate entre cultura oral y escrita, que empezó con Platón, surge la idea de que si a alguien le dicen que piense en una palabra busca algo cercano que tenga a la vista pero no va a buscar la palabra al diccionario.

CAPÍTULO 3

Gleick relata la evolución del diccionario en lengua inglesa desde que un sacerdote recopiló en 1604 una lista de 2.500 palabras hasta el gran diccionario OED que agrupa todas las palabras conocidas (que tengan una referencia bibliográfica)y actualiza los neologismos como "To Google".

CAPÍTULO 4
Este capítulo explica los esfuerzos de Charles Babbage y la condesa Ada Byron para construir una Máquina Analítica y luego Máquina Diferencial, la primera supercomputadora del siglo XIX que no pasó del papel.
Una de las claves son los libros de tablas de números triangulares (puede hallarse mediante este algoritmo: multiplicando n por n+1 y dividiendo por dos; por ejemplo, 6x7/2=21, número triangular de Joncourt 6) o los logaritmos de Napier (0,1,2,3,4,5 (logaritmos en base 2) y 1,2,4,8,16,32 (números naturales)) para facilitar los cálculos.
Entre las anécdotas de Barbbage está el haber fundado en la universidad de Cambridge el Club de Fantasmas, dedicado a reunir pruebas a favor y en contra de los espíritus ocultos. Con otro grupo fundó Los Extractores, para resolver las efusiones de sensatez o de cordura según una serie de acontecimientos. Y por último, la Sociedad Analítica (integrada por los matemáticos Babbage,Herschel y Peacok; estos alquilaban una habitación para leer artículos y publicar sus "Transacciones" y en el que Baggage pensó en hacer una máquina que calculase las tablas y ejecutase logaritmos "al vapor" (steam)).
La máquina diferencial (ideada entorno a 1820) se basa en cálcular las diferencias entre varios grupos de números y el siguiente y permite reducir cualquier función polinómica. La idea es que la máquina, en vez de sustracciones repetidas para hallar las diferencias, generará secuencias de números mediante una cascada de sumas mediante un sistema de ruedas de cifras marcadas con los números del 0 al 9 colocadas a lo largo del eje para representar los dígitos decimales de una cantidad: decenas, centenas,. El movimiento de la máquina transmitía información. El siguiente problema fue que la máquina calculase más deprisa que la mente humana mediante procesos paralelos para que las ruedas de numeros sumasen toda una fila a la vez, aunque esto dejaba un problema sin resolver: el acarreo (sería la primera máquina con memoria).
La Máquina Diferencial nunca llegó a ser construida (por problemas técnicos con la precisión de las piezas que standarizó el torno de Clement) pero fue un éxito a nivel teórico. En los planos, la máquina medía 60 cm de altura y luego más.
Para dar instrucciones a la máquina, Babbage inventó en 1826 una notación mecánica (lenguaje de signos).
En 1842, el gobierno de Robert Peel suspendió el proyecto que financiaba el Tesoro al entender que la máquina era inútil.
En los siguientes años, Barbbage, tras ver un telar de Jacquard que era programada con tarjetas perforadas, ideó la Máquina Analítica. En la programación le ayudó Ada Byron, condesa de Lovelace e hija del poeta Lord Byron, y matemática autodidacta. La Maquina Analítica se basaba en que si sumabna diferencias no podía computar cualquier clase de número ni resolver ningun problema matemático. Se trataba de codificar dibujos y pasarlos de un medio a otro. Extraía información de un sustrato físico y extraía grados más altos (variables en lugar de números que se almacenaban en niveles más altos). La informacion se almacenaba en tarjetas de variables y tarjetas de operaciones. La máquina encarnaba las leyes y las tarjetas comunicaban esas leyes. La creación de un lenguaje de símbolos en el que pudiera ser codificada la solución. Ada Byron jugaba al Solitario cuando descubrió que el juego tenía una solución formal. [Nota del lector: probablemente Ada no estaba muy bien de la cabeza, decía que tenía una misión matemática que cumplir y que tenía poderes y sentidos que otros no tenían y que estaban ocultos a ellos].
En todo caso, ambos programaron una máquina virtual que no solo calculaba sino que hacía operaciones (por ejemplo, composiciones musicales). No era una máquina de números sino una máquina de información. Una prueba de programación que ideó Ada fue la elaboración de los números de Bernoulli (la suma de cualquier número, desde 1 a n, elevado a potencias integrales, aunque no hay una fórmula directa que los genere. Pero el problema es caía en bucle, su algoritmo era recursivo y se repetía cíclicamente.
Otra idea de la máquina era la variable (componentes mecanicos o hardware, las columnas de discos de la máquina y tarjetas variables o software).
Gleick dice que nadie entendió la máquina, ni siquiera Barbbage, porque el verdadero objeto de la investigación era la información: el envío de mensajes, la codificación y el procesamiento.
POr ello, Barbbage inventó señales de códigos para faros, etc....y hasta una teoría sobre las tormentas. Por fin, empezó a hacer un uso práctico.
La máquina que calculaba tablas se quedó obsoleta y la analítica, olvidada por adelantarse a su tiempo. Ada Byron murió de un cancer soñando que dirigiría un "ejército de números" que desfilaban ante ella, su reina. Y añadió: "Pero ¿qué son esos números? Es un enigma". [Nota del lector: tras leer los fragmentos de cartas de Ada Byron que reproduce Gleick uno se pregunta si ella podría tener algún trastorno que sufren algunos expertos en matemáticas, por ejemplo, hay un joven que ve un árbol y en seguida saltan en su mente cifras, supongo que con datos de la altura del árbol, etc... Si le ponen a multiplicar dos números largos "ve" la solución en su mente y la escribe en menos de un segundo].

CAPÍTULO 5
En este capítulo, se abordan los intentos para crear un telégrafo y la primera red global. El primer ensayo fue les télégraphes, inventados por Chappe en la Revolucion Francesa. Luego, Napoleón adoptaría otro sistema mediante torres y señales y en 1799 ya enviaba mensajes por toda Francia en 12 minutos (la señal).
El siguiente intento fue con agujas movidas por señales eléctricas (galvanómetro) e inventaron un sistema de codificación con vocales hasta que Morse/Vail y Cooke/Wheatstone redujeron el alfabeto a dos únicos signos: encendido y apagado, punto y ralla. Vail redujo toda la maquinaria necesara a una palanca con muelle (tecla) para abrir y cerrar el circuito y en el otro extremo la corriente controlada y el electroimán. Enviaban mensajes a una velocidad de centenares por minuto. En 1844 empezaron a operar y fue un éxito a partir del segundo año. Además de la rapidez en las comunicaciones, el telégrafo eléctrico permitió comparar el tiempo en distintas zonas a la vez y descubrir los movimientos de masas (nubes, anticiclones...). Por primera vez, se comprendió que el mensaje era inmaterial y no un objeto físico. El otro cambio fue que el paisaje se llenó de postes e hilos y conformó una red global.
Otra de las curiosidades es que para ahorrar, el código Morse contaba con abreviaturas de palabras y luego de frases enteras; button: el mercado está tranquilo y los precios son más asequibles), que luego eran sustituidos por números (se publicaban en libros de códigos).
De aquí surge la moderna criptografía.
Wilkins en 1641 descubrió un código binario (a y b) para representar todas las letras del alfabeto en 5 posiciones (3 elevado a 3=27).
De Morgan, en 1840,( amigo de Barbbage y Ada Byron (su tutor) y catedrático del University College de Londres) trabajó junto a Boole en las proposiciones lógicas (matemáticas sin números, una versión simbólica con frases vaciadas de significado).

CAPÍTULO 6
Este capítulo está dedicado al teléfono y a Claude Shannon, el padre de la teoría de la información.
Como anécdota, cuando se inventó el teléfono, los granjeros usaron el alambre de espino de sus vallados como transmisor y formaron cooperativas para su disfrute gratuito.
Aquí se cita la novela de Edgar Allan Poe, Escarabajo de oro, establece un código para encontrar el tesoro y que hay que desencriptar.
En 1936, el MIT fichó a Shannon para trabajar en un Analizador Diferencial (de Bush y que no debía nada a los prototipos de Babbage). Esta máquina era analógica (y no digital) y no trabajaba con números sino con cantidades, generaba curvas para representar el futuro de un sistema dinámico. Resolvía ecuaciones diferenciales de segundo orden (que expresan índices de cambio: de posición a velocidad y a aceleración).
Funcionaba con relés que se abrían o cerraban en un circuito y eso, según vio Shannon, en su tesis doctoral, era traducible a signos en ecuaciones. Como había dicho Boole, solo se necesitan dos números: 0 (circuito cerrado) y 1 (abierto). Esta tesis doctoral dio paso a los circuitos lógicos y la aritmética binaria, que fue clave para la revolución informática. Incluso habló, por primera vez, de "formulas géneticas" para representar a una persona mediante las posiciones de cinco letras.
Añade que todos los sistemas de comunicación pueden incluirse en esta fórmula:
f1 (t) - T - F(t) - R - f2(t)
T y R son transmisor y receptor
f(t) es la función de tiempo
Lo demas es informacion a transmitir (input), la señal y el producto final.
Además hay ruido.
Gleick luego explica los trabajos de Russel y Whitehead sobre el racionalismo y la lógica, así como el simbolismo, con la idea de que la perfección del razonamiento podía llegar con la codificación perfecta del pensamiento. El problema eran las paradojas (p.e., lo que digo es falso) ahasta que Kurl Gödel propuso usar números para todos sus signos (cualquier fórmula dada, siguiendo las reglas,genera un número y cualquier número produce la fórmula). Símbolos que no constituyen una fórmula: "0====" ni son demostrables. Las afirmaciones paradógicas de Russel (las autorreferencias) existían pero eran indemostrables y estaban dentro de los PM (Principios matemáticos). POr tanto, según Gödel, un sistema formal coherente tenía que ser incompleto: no podía existir ningún sistema completo y coherente. Los números podían codificar todo el razonamiento y representar cualquier forma de conocimiento. John Von Neumann se dio cuenta de la importancia: la incompletud era real.
Tras este avance, Shannon empezó a trabajar en la comunicación de órdenes a los cañones antiaéreos automatizados para afinar el tiro y controlar el fuego. Shannon tenía que convertir ecuaciones diferenciales de segundo orden en movimiento mecánico.
Gleick hace un repaso del éxito del teléfono en 1880 y en 1914 ya tenía 10 millones de usuarios. Para eliminar el ruido, los matemáticos y físicos empezaron a estudiar la señal mientras otros se centraban en la conmutación, numeración y lógica (eso dio lugar a las centralitas y las guías telefónicas).
Como anécdota, cuenta que las primeras centralitas contrataban repartidores de telégrafo adolescentes pero estos perdían el tiempo en peleas o bromas, por lo que contrataron a mujeres, más serias.
El ruido se resolvió gracias al movimiento browniano de Einstein (movimiento aleatorio de partículas microscópicas suspendidas en un fluido descubiertas por Leeuwenhoek). Con Nyquist surgió el concepto de cantidad transmitida por un ancho de banda y la velocidad de transmisión de datos (intelligence). El teorema de Hartley amplía esta idea: la mayor cantidad de información que puede ser transmitida en un momento dado es proporcional a la gama de frecuencia disponible. Algunos símbolos transmitían más información que otros (un punto tiene menos información que una letra). Ecuación: H = nlogs; H es cantidad de información, n es el número de símbolos transmitidos y s la dimension del alfabeto.

CAPÍTULO 7
Este capítulo se dedica a la teoría de la información de Shannon.
Este y Alan Turing trabajaron en proyectos secretos para el gobierno durante la Segunda Guerra Mundial. Shannon encriptaba las conversaciones del presidente Roosevelt. Turing había trabajado en una teórica máquina computacional y luego desencriptó el código Enigma alemán.
Turing planteó en 1940 o antes si las máquinas pueden pensar.
Además, intentó contestar a las 3 preguntas de Hilbert:
1) ¿Son completas las matemáticas?
2)¿Son consistentes las matemáticas?
Gödel demostró que no podían ser completas y consistentes a la vez.
3)¿Son decidibles las matemáticas?
Turing hizo una cuarta pregunta:
4)¿Son computables todos los números?
Para ello ideó una máquina ideal que imprimía números en casillas en una cinta infinita. A su vez, la máquina de Turing (U, de Universal) podía ser representada con un número. Tanto datos como instrucciones eran números.
Y por tanto contesta a si todas las proposiciones son decidibles. Pues resulta que un número no computable es una proposición indecidible.
Cualquier procedimiento mecánico para generar fórmulas es en esencia una máquina de Turing y cualquier sistema formal debe tener proposiciones indecidibles. La incompletitud se produce por la incomputabilidad.
Turing trabajó en descifrar el código de la máquina Enigma alemana mediante una máquina desencriptadora llamada Bombe. Turing observo en los mensajes desencriptados que algunos hechos eran más probables que otros y los llamo "ban".
Mientras, Shannon estudió la redundancia en los mensajes y llegó al concepto de bit (el mínimo de información posible que representa una probabilidad entre dos: cara o cruz). Tambien desarrollo un diagrama de la comunicación encriptada y su cifrado cuyo objetivo era el mensaje. Creó un sstema para comprobar la seguridad de los mensajes. Descubrió que la redundancia ayudaba a identificar un idioma; por ejemplo, el inglés tenía el 25% de sus palabras y letras redundantes. Y la redundancia sirve para corregir errores. Vuelve al relé como almacenador de bits y pensó en la capacidad de almacenamiento de bits: Un disco de vinilo contenía 300.000 bits.


CAPÍTULO 8
Estudia las aportaciones de Weimar (gurú de la cibernética o de la unión de hombre y máquina) y Shannon a la teoría de la información a partir de 1948.
La teoría de la información abrió nuevas posibilidades a la teoría psicológica como la psicología cognitiva.
Shannon ideó un ratón electrónico (una varilla) que recorría un laberinto y memorizaba el recorrido y la salida. Sin embargo, si se alteraba el recorrido, el ratón se quedaba atascado o repetía el recorrido memorizado por sus relés. En definitiva, el ratón electrónico no "pensaba" sobre lo aprendido.

CAPÍTULO 9
Habla sobre la entropía entendida como aquella "no energía" o el "agotamiento de la energía disponible en un sistema" y que se evapora por el calor. Un experimento lo explica: una cámara doble contiene partículas frías y calientes; cuando se mezclan, la temperatura se uniformiza. De ahí surge el concepto del demonio de Maxwell, un pequeño ingenio mecánico que separa en dos cámaras las partículas frías de las calientes, a un tipo no las deja pasar y a otro sí, para que no se mezclan (si lo hacen, su temperatura tiende a unificarse y llegar a un estado térmico estable). Por tanto, para reducir la entropía hace falta información (saber qué partículas están calientes y cuales frías para que no se junten).

CAPÍTULO 10
En este capítulo se estudia el código genético como almacenamiento de información encapsulada en los genes y el ADN. Un teórico, tiempo antes de que Watson y Crick descubriesen el ADN, dedujo que el código de la vida debería tener como mínimo 10 elevado a 5 bits y como máximo 10 elevado a 12. Alguien supuso que esa información debería estar almacenada con la intervención de las proteínas, que eran estables.

`
(seguirá el resumen)

Valoración del lector: el libro, además de ameno y documentado, está muy bien escrito porque explica de forma clara cómo se ha avanzado paso a paso en la teoría de la información hasta llegar al concepto de bit o de las letras del código genético.


lunes, 20 de agosto de 2012

Las tres grandes leyes de la Informática y de internet

Fuente: La prensa sin Gutemberg (Jean-François Fogel y Bruño Patiño)

Hay tres leyes en Internet:

- La ley de Moore:
Predice la capacidad de tratamiento de los ordenadores y estipula que el numero de transistores de un chip de Sicilio se duplicará cada 18 meses hasta 2017 sin que por ello aumenten los costes de producción.

- la ley de Gilder

Predice la capacidad de envío de la banda de frecuencia o el canal por el que circula la informacion de la red. Asegura que a partir de 1997, la frecuencia de banda se triplicará cada año en la red durante los próximos 20 años. La capacidad de almacenaje ya no será una limitación.


- la ley de Metcalfe:

La utilidad de una red es proporcional al cuadrado del numero de sus usuarios.
Hablar dirigiéndose a dos personas es una comunicación el doble de útil que si se habla a una sola.

El crecimiento del numero de usuarios aumenta la utilidad de internet de una manera geométrica y no aritmética.

martes, 26 de junio de 2012

Lista de blogs de periodismo ciudadano (Citizen Journalism Think Tank)

A slideshow about collaboration between traditional media and online community hyperlocal media. http://t.co/ceeJdvav



Crítica en Twitter del libro The Data Journalism Handbook

Crítica en inglés en twitter del libro The Data Journalism Handbook: http://t.co/eoRw9u6x #journalism

sábado, 14 de enero de 2012

Procastinación o nuevas formas de perder el tiempo

Procastinación o nuevas formas de perder el tiempo.
Es una nueva palabra de moda en USA y que se refiere a perder el tiempo abriendo correos electrónicos en vez de trabajar o estudiar. Equivale al "ya lo haré mañana".