Nuevo positivismo digital (VII): El cuarto protocolo y la teoría de la evolución
Nuevo positivismo digital: I, II, III, IV
Nuevo positivismo digital (V): Los turoperadores del océano cibernético
Nuevo positivismo digital (VI): El enésimo tránsito a la modernez cultural
Hasta el 1 de abril de 2004 me parecía definitiva la siguiente teoría de Internet, basada en una idea y dos hitos tecnológicos: una idea que aspiraba a lograr el envío de información desde un punto a otro de una red de forma descentralizada y sin enrutamientos predeterminados, escogiendo el camino idóneo en función del estado del tráfico y de las comunicaciones, dividiendo la información en paquetes para aumentar la seguridad, minimizando el riesgo de intercepción, para finalmente recomponerse en destino de forma transparente para el destinatario. Y en segundo lugar, una infraestructura técnica que hace realidad todos esos requisitos: el protocolo de comunicaciones TCP/IP, un invento igual de crucial que el descubrimiento del ADN (con el que comparte algunas estrategias de supervivencia), que ha permitido el crecimiento exponencial de Internet sin colapsar las redes físicas de comunicación que la componen. Y en tercer lugar, un lenguaje representacional que se superpone al protocolo de comunicación y permite al usuario/consumidor interactuar con la red sin apenas conocimientos previos: el hipertexto o HTML.
Sobre esas tres premisas se ha tejido en un tiempo récord la telaraña mundial (también conocida como World Wide Web), que es el interfaz con el que los usuarios/consumidores identifican a Internet. Los expertos reniegan de esta identificación porque la consideran incompleta o inexacta; es posible que desde un punto de vista técnico sea cierto, pero creo que lo importante no es que los conceptos reflejen fielmente una realidad técnica para iniciados, sino el uso que la mayoría hace de ella.
De modo que, a pesar de las matizaciones que se empeñen en introducir las numerosas definiciones técnicas de Internet, desde la experiencia del usuario/consumidor, ésta se concibe como una gigantesca esfera hipertextual cuya facilidad de uso y autoaprendizaje por intuición son las claves de su enorme difusión en menos de una década. El resto de servicios que componen la infraestuctura técnica de Internet --FTP, ARP, Telnet, IRC; o lo que es lo mismo: transferencia de ficheros, resolución de direcciones, acceso remoto a equipos y chat-- quedan eclipsados por el éxito del servicio estrella, el HTTP (el protocolo que controla la navegación). Únicamente el servicio de correo electrónico --controlado por los protocolos SMTP y POP-- escapa a esta tendencia y se mantiene como una actividad en sí misma ya que el usuario/consumidor la distingue claramente de la navegación.
Esto es, en pocas palabras, Internet; definida con la jerga justa y sin perder de vista el uso real. Sobran esas historias --repetidas como un mantra cansino y vacío de contenido-- acerca de los orígenes militares de Internet en los años sesenta del siglo XX, la conversión libertaria que sufrió en las universidades estadounidenses durante los setenta, la formación de tribus vinculadas a todo tipo de credos cívicos, religiosos, políticos y sociales en los ochenta, la eclosión de la actividad empresarial en los noventa... bla, bla, bla. Todo eso no es más que cháchara anecdótica de relleno en una presentación para pardillos y novatos. Lo importante es saber cómo se usa Internet y recordar que detrás de cada protocolo suele haber un uso social no necesariamente previsto.
La Web 2.0, las redes sociales, el auge de la web interactiva... todos estos conceptos aparecen una y otra vez en los ensayos del pensamiento previsional de los expertos, y su éxito social --dicen ellos, y es cierto-- obliga a repensar el concepto que hasta ahora teníamos de Internet. Como en toda ciencia, si una teoría no explica todos los hechos hay que rehacer la teoría. Aquí sucede los mismo: a aquella idea crucial de red descentralizada sostenida por dos tecnologías fundamentales (TCP/IP y HTML) hay que añadir un cuarto pilar, sin el cual no se explican fenómenos como la blogosfera o las redes sociales: la tecnología AJAX.
AJAX (Asynchronous Javascript and XML): se ha convertido en el cuarto protocolo de Internet y es la base técnica que ha permitido el nacimiento de la Web 2.0. Lo empleó por primera vez Google en GMail --disponible desde el 1 de abril de 2004, de ahí la fecha de caducidad de mi teoría-- y era una tecnología conocida hace tiempo aunque desaprovechada por la mayoría de desarrolladores. Desde este punto de vista, la Web 2.0 es un desvío inesperado que sin duda está retrasando la llegada de la web semántica. Ésta, al ser parcialmente un proyecto público (como el genoma) tiene unos plazos mucho más dilatados. Esto demuestra que Internet como medio de comunicación es un proyecto abierto, y que al igual que la prensa escrita, la industria editorial o la del videojuego, experimenta cambios que son en realidad nuevos usos. Algunos son diseñados cuidadosamente, otros --como la Web 2.0-- son el resultado de una mutación imprevista en el desarrollo de servicios en Internet: el HTML tradicional no es un lenguaje que permita demasiada interactividad, así que las primeras páginas web fueron fundamentalmente estáticas, llenas de texto; después, cuando los formatos de compresión y el ancho de banda lo permitieron se extendieron las páginas dinámicas (porque en ellas se movían cosas). Finalmente --por el momento-- la tecnología AJAX facilitó la actualización en línea de páginas web: primero GMail, luego las páginas "wiki", algunas de las cuales acabaron mutando en blogs y en foros de todo tipo.
AJAX se ha implantado de forma rápida y no traumática porque no requería un cambio de plataforma, simplemente hubo que desempolvar viejos manuales de Javascript. En cambio, la web semántica, tal y como se anuncia, no requerirá una nueva plataforma tecnológica, pero sí el desarrollo de nuevos navegadores "inteligentes" (al fin y al cabo salen nuevas versiones cada relativamente poco). Así que Darwin y la teoría de la evolución nos dan una pista: un cambio drástico de plataforma sólo se producirá en caso de colapso de la existente, o por imposición de un agente muy poderoso del mercado (Google, Microsoft, IBM...). Dicho así no suena amenazador ni trascendente, pero sí plausible.
Nuevo positivismo digital (V): Los turoperadores del océano cibernético
Nuevo positivismo digital (VI): El enésimo tránsito a la modernez cultural
Hasta el 1 de abril de 2004 me parecía definitiva la siguiente teoría de Internet, basada en una idea y dos hitos tecnológicos: una idea que aspiraba a lograr el envío de información desde un punto a otro de una red de forma descentralizada y sin enrutamientos predeterminados, escogiendo el camino idóneo en función del estado del tráfico y de las comunicaciones, dividiendo la información en paquetes para aumentar la seguridad, minimizando el riesgo de intercepción, para finalmente recomponerse en destino de forma transparente para el destinatario. Y en segundo lugar, una infraestructura técnica que hace realidad todos esos requisitos: el protocolo de comunicaciones TCP/IP, un invento igual de crucial que el descubrimiento del ADN (con el que comparte algunas estrategias de supervivencia), que ha permitido el crecimiento exponencial de Internet sin colapsar las redes físicas de comunicación que la componen. Y en tercer lugar, un lenguaje representacional que se superpone al protocolo de comunicación y permite al usuario/consumidor interactuar con la red sin apenas conocimientos previos: el hipertexto o HTML.
Sobre esas tres premisas se ha tejido en un tiempo récord la telaraña mundial (también conocida como World Wide Web), que es el interfaz con el que los usuarios/consumidores identifican a Internet. Los expertos reniegan de esta identificación porque la consideran incompleta o inexacta; es posible que desde un punto de vista técnico sea cierto, pero creo que lo importante no es que los conceptos reflejen fielmente una realidad técnica para iniciados, sino el uso que la mayoría hace de ella.
De modo que, a pesar de las matizaciones que se empeñen en introducir las numerosas definiciones técnicas de Internet, desde la experiencia del usuario/consumidor, ésta se concibe como una gigantesca esfera hipertextual cuya facilidad de uso y autoaprendizaje por intuición son las claves de su enorme difusión en menos de una década. El resto de servicios que componen la infraestuctura técnica de Internet --FTP, ARP, Telnet, IRC; o lo que es lo mismo: transferencia de ficheros, resolución de direcciones, acceso remoto a equipos y chat-- quedan eclipsados por el éxito del servicio estrella, el HTTP (el protocolo que controla la navegación). Únicamente el servicio de correo electrónico --controlado por los protocolos SMTP y POP-- escapa a esta tendencia y se mantiene como una actividad en sí misma ya que el usuario/consumidor la distingue claramente de la navegación.
Esto es, en pocas palabras, Internet; definida con la jerga justa y sin perder de vista el uso real. Sobran esas historias --repetidas como un mantra cansino y vacío de contenido-- acerca de los orígenes militares de Internet en los años sesenta del siglo XX, la conversión libertaria que sufrió en las universidades estadounidenses durante los setenta, la formación de tribus vinculadas a todo tipo de credos cívicos, religiosos, políticos y sociales en los ochenta, la eclosión de la actividad empresarial en los noventa... bla, bla, bla. Todo eso no es más que cháchara anecdótica de relleno en una presentación para pardillos y novatos. Lo importante es saber cómo se usa Internet y recordar que detrás de cada protocolo suele haber un uso social no necesariamente previsto.
La Web 2.0, las redes sociales, el auge de la web interactiva... todos estos conceptos aparecen una y otra vez en los ensayos del pensamiento previsional de los expertos, y su éxito social --dicen ellos, y es cierto-- obliga a repensar el concepto que hasta ahora teníamos de Internet. Como en toda ciencia, si una teoría no explica todos los hechos hay que rehacer la teoría. Aquí sucede los mismo: a aquella idea crucial de red descentralizada sostenida por dos tecnologías fundamentales (TCP/IP y HTML) hay que añadir un cuarto pilar, sin el cual no se explican fenómenos como la blogosfera o las redes sociales: la tecnología AJAX.
AJAX (Asynchronous Javascript and XML): se ha convertido en el cuarto protocolo de Internet y es la base técnica que ha permitido el nacimiento de la Web 2.0. Lo empleó por primera vez Google en GMail --disponible desde el 1 de abril de 2004, de ahí la fecha de caducidad de mi teoría-- y era una tecnología conocida hace tiempo aunque desaprovechada por la mayoría de desarrolladores. Desde este punto de vista, la Web 2.0 es un desvío inesperado que sin duda está retrasando la llegada de la web semántica. Ésta, al ser parcialmente un proyecto público (como el genoma) tiene unos plazos mucho más dilatados. Esto demuestra que Internet como medio de comunicación es un proyecto abierto, y que al igual que la prensa escrita, la industria editorial o la del videojuego, experimenta cambios que son en realidad nuevos usos. Algunos son diseñados cuidadosamente, otros --como la Web 2.0-- son el resultado de una mutación imprevista en el desarrollo de servicios en Internet: el HTML tradicional no es un lenguaje que permita demasiada interactividad, así que las primeras páginas web fueron fundamentalmente estáticas, llenas de texto; después, cuando los formatos de compresión y el ancho de banda lo permitieron se extendieron las páginas dinámicas (porque en ellas se movían cosas). Finalmente --por el momento-- la tecnología AJAX facilitó la actualización en línea de páginas web: primero GMail, luego las páginas "wiki", algunas de las cuales acabaron mutando en blogs y en foros de todo tipo.
AJAX se ha implantado de forma rápida y no traumática porque no requería un cambio de plataforma, simplemente hubo que desempolvar viejos manuales de Javascript. En cambio, la web semántica, tal y como se anuncia, no requerirá una nueva plataforma tecnológica, pero sí el desarrollo de nuevos navegadores "inteligentes" (al fin y al cabo salen nuevas versiones cada relativamente poco). Así que Darwin y la teoría de la evolución nos dan una pista: un cambio drástico de plataforma sólo se producirá en caso de colapso de la existente, o por imposición de un agente muy poderoso del mercado (Google, Microsoft, IBM...). Dicho así no suena amenazador ni trascendente, pero sí plausible.
Comentarios