Translate

lunes, 24 de agosto de 2009

Nuevo positivismo digital (XII): Un pequeño paso para los navegadores, un gran salto para los sistemas operativos

Nuevo positivismo digital: I, II, III, IV, V, VI, VII, VIII, IX, X, XI


¿Alguien se acuerda de Tron (1982)? Es un filme alucinante, ingenuamente visionario y que puede considerarse un precedente juvenil de Matrix (1998). En ella el ordenador central es una superficie negra, completamente lisa y retroiluminada, en la que basta rozar las teclas para que se enciendan y se apaguen las ventanas --pantallas las llamábamos entonces-- que devolvían la información solicitada. Era un dispositivo combinado de entrada/salida fascinante que nos convenció de las ilimitadas posibilidades de la tecnología digital. El tiempo y la física demuestran cada día que esos límites existen, pero desde luego no son los que el filme daba a entender. En lo que respecta a Tron está claro que la realidad ha alcanzado a la ficción, y esa interfaz tan sugerentemente zen existe, y además tiene un tamaño que ni los creadores de la película pudieron imaginar: es el iPhone. Para 2010 está anunciada la secuela de este título crucial en la evolución del género, Tron legacy, con Jeff Bridges repitiendo papel y la colaboración de John Hurt y Olivia Wilde (chica House desde 2007). Veremos dónde sitúa este filme los nuevos límites y si la trilogía de los hermanos Wachowski ejerce lo que podríamos denominar una curiosa retroinfluencia.





El de Tron no es un caso único de ficción superada; sin embargo, más infrecuente resulta una utopía que se convierte en realidad de forma y mediante agentes del mercado no previstos, como ha sucedido con la materialización del sueño de cualquier defensor del software libre y gratuito. El cloud computing es hoy una realidad tecnológica pujante, aunque el usuario/consumidor todavía permanezca mayoritariamente aferrado a técnicas de almacenamiento en local propias de los años noventa del siglo XX. Las prospecciones de los gurús, no obstante, aseguran que esto cambiará en breve: de acuerdo con la evolución programada por el complejo industrial-tecnológico, y sin necesidad de que ningún meteorito impacte sobre la Tierra, los navegadores se convertirán en sistemas operativos, aunque por una mera cuestión práctica, y a pesar de que básicamente sean aplicaciones para navegar por internet, los seguiremos llamando Sistemas Operativos. La aparición de Chrome en septiembre de 2008 equivale, en términos evolutivos, a la primera criatura que abandonó el medio marino y se convirtió en anfibia. El diseño y la implementación de Chrome suponen un primer caso de aplicación híbrida capaz de respirar en ambos medios: sigue siendo un navegador, pero su ADN ya contiene los genes necesarios que le permitirán convertirse en Chrome OS, un navegador que, además, podrá realizar las funciones de un sistema operativo. Sin duda un gran hito en la historia de la informática, pero más importante aún en el imaginario del usuario/consumidor porque ambos son gratis total. De momento, Chrome OS se preinstalará en Netbooks y otros dispositivos móviles, pero será cuestión de tiempo el asalto a los grandes sistemas corporativos.

La aparición de este primer navegador anfibio supondrá unos cuantos cambios en el ecosistema digital del usuario/consumidor. Hace una década, el abaratamiento de los sistemas de almacenamiento dio por finalizada la era del tostado recurrente (todo se digitalizaba y luego se grababa en CD/DVD). La culminación de esta línea evolutiva ha sido el disco duro multimedia, que permite prescindir de la fase de tostado final (y pagar una única vez el canon por copia privada, reconozcámoslo). Como consecuencia de esta mutación de uso, los ordenadores domésticos y sus diversos periféricos se han convertido en vertederos de toda clase de información, con un preocupante aumento exponencial de tamaño: vídeos, fotos, documentos, música, películas, libros, curiosidades, chorradas... Todo cabe en estos repositorios magnéticos de capacidad creciente y tamaño menguante. Esta nueva funcionalidad ha eclipsado a la que tuvieron en el pasado como plataformas de ejecución de videojuegos: la enorme capacidad de proceso que éstos requieren hizo que surgiera una rama mucho más especializada de aparatos, denominados videoconsolas. Una vez liberados de ese cometido los ordenadores domésticos sobrevivieron a base de navegación y almacenamiento indiscriminados.

El cloud computing viene a liberarlos de la segunda tarea (y quizá también a provocar una mutación en la propia internet): ya no será necesario dejar caer en nuestros discos duros megas y megas sin control ni criterio, porque dispondremos de una nebulosa donde meter --al parecer sin límite de espacio-- lo que ahora simplemente nos obsesiona poseer. Y de la misma manera que no necesitaremos copias de películas ni de canciones (el fin de la pesadilla para las industrias culturales), nuestras fotos, películas domésticas y documentos personales encontrarán un lugar donde esperar a ser requeridos. Quizá sea el primer hito de un cambio de mentalidad más profundo para el usuario/consumidor, y para algunos expertos supondrá una reducción importante del flujo de descargas. En lugar de ver la red como un inmenso bosque por esquilmar donde quien llega primero se lleva el doble que el resto, y la navegación como una recolección indiscriminada de todo tipo de productos para nuestra despensa local, este cambio de tendencia propone un uso compartido que haga innecesaria la proliferación de copias, sostenibles determinados modelos de negocio y ahorre recursos de almacenamiento. Uso responsable, sostenibilidad, ahorro... ¿Hablamos de ecología o de hacer dinero con unos y ceros? Igual resulta que vale para ambas cosas.

Los navegadores anfibios estarán diseñados para trabajar en la nube digital y el usuario/consumidor lo notará enseguida: no habrá escritorio, porque la ventana del navegador ocupará su lugar. Tras ella no habrá nada, de modo que los botones de minimizar y maximizar perderán su utilidad actual, tal como sucedió con los pulgares oponibles cuando dejamos de trepar por los árboles. La Ventana Única del navegador --con capacidad para infinitas pestañas-- será la que nos permita asomarnos a la red y, en ocasiones, revisar las alacenas del mínimo disco duro, donde mantendremos una dotación mínima de información personal. Encender el ordenador perderá sentido como proceso inicial de arranque y conexión, ya que viviremos en un continuo conectado en el que se sucederán breves lapsos de mala cobertura, falta de disponibilidad del servicio o desconexiones programadas. Una de las primeras consecuencias de esta modificación del paisaje será la considerable pérdida de peso de los navegadores anfibios. A medida que se adapten al nuevo medio irán simplificando y mejorando su morfología. ¿Cómo responderá Microsoft a esta mutación radical de los sistemas operativos? Sin duda estos cambios trastocarán su sistema de licencias, la base de sus ingresos multibillonarios (sí, con "b"), así que algo tendrán que hacer. El día que se libere una versión cliente-servidor de Chrome OS (o de alguno de sus descendientes) se rasgará el velo de la sala de juntas de Microsoft y a más de uno le dará un tabardillo. En términos evolutivos será como si viéramos al primer homínido abandonar los árboles y comenzar a caminar sobre dos patas (luego piernas). Algo así no entraba ni en los mejores sueños de Richard Stallman.

De hecho, el software libre nació cuando se comprobó cómo determinados proyectos universitarios (surgidos en los setenta del siglo XX y extendidos con éxito a todo tipo de sectores económicos 30 años después) eran parcial o totalmente fagocitados por empresas alegando una serie de derechos adquiridos. Por otro lado, empresas como Microsoft establecieron una nueva pauta de funcionamiento del mercado a base de versiones "mejoradas" cada pocos años que (todavía hoy) impiden al usuario/consumidor amortizar sus costes y, debido a los perversos efectos de una agresiva política de patentes, provocaron una glaciación de la innovación tecnológica. Como respuesta a estos desafíos surgió el movimiento por el software libre, eso sin contar con la infinidad de pequeños programadores que se lanzaron a distribuir gratuitamente sus creaciones para los más diversos usos. Basta darse una vuelta por Softonic para comprobar que si uno paga por aplicaciones es porque quiere.

Hoy nos parece de tontos pagar por una cuenta de correo (que no es otra cosa que un depósito de mensajes), así que lo lógico será que, de entrada, nos ofrezcan almacenar el resto de nuestras cositas gratis. Pero poco a poco se irán añadiendo servicios y mejoras por las que estaremos dispuestos a soltar la pasta. Quizá la novedad no consista en la radicalidad de este cambio de costumbres del usuario/consumidor, sino en la audaz estrategia de Google: estandarizar, universalizar y garantizar acceso gratuito a la capa más básica de aplicaciones de software, de manera que cada cual pueda adaptarlo según sus necesidades. Sobre ese estrato común, una vez garantizada la compatibilidad y la interoperatividad (los dos principales obstáculos que impiden el deshielo de la innovación mediante la simplificación de numerosos procesos digitales, sean de ocio o de negocio), las empresas podrán levantar nuevas capas que hagan sostenibles modelos de negocio no esclavizados a una tecnología propietaria. El hecho de que la capa básica sea universal y gratuita restará importancia a si las aplicaciones que funcionen por encima sean propietarias o no, sino si son capaces de generar beneficios. Lo bueno de este modelo es que en él también tendrán cabida soluciones gratuitas, ya sean permanentes o para preparar el mercado de cara a introducir nuevos servicios de pago. El reto que propone Google en este momento (un reto que merece la pena apoyar) es conseguir que todo este entramado acabe con las guerras de protocolos de las tecnologías esclavas. El objetivo final debería ser que el usuario/consumidor elija con qué aplicaciones prefiere trabajar, y lo hará beneficiándose de un entorno de libre competencia basado en estándares realmente universales. Ahora parece que hablamos de derechos humanos. De momento estamos acotando el diseño de la capa básica, y si tenemos en cuenta que la evolución tecnológica tiene unos ciclos semejantes a los años de vida perrunos, es posible que en menos de una década tengamos más de la mitad del edificio construido.

Los servicios y aplicaciones universalizados a día de hoy (correo, suites ofimáticas, retoque digital, almacenamiento), esos que la mayoría tenemos en local y que, en versión cloud computing, aún son gratis. ¿Lo serán siempre? ¿Los mantendrán las empresas como parte de su estrategia de atracción de clientes? ¿El sector público acabará incluyendo como parte del Estado de Bienestar aquellos servicios digitales que no sean rentables? ¿Tendremos que admitir publicidad mientras editamos nuestras fotos o preparamos cualquier clase de documento? ¿No provocará esto un desplazamiento del péndulo hacia el lado opuesto y asistiremos, ante un mercado atrofiado por el pago por uso, a un nuevo auge del software en local? Que aplicaciones locales de segunda generación funcionen en los descendientes de los navegadores anfibios será un logro admirable. Otra pega: teniendo en cuenta que en internet, a día de hoy, la vida media de un enlace es de 58 días, ¿quién nos asegura que no solamente flotará en la nube aquello que a los titulares de los derechos de explotación les interese en cada momento, limitándose a productos de temporada, actualidad y/o éxito garantizado? Los agentes del lado de la oferta no son hermanitas de la caridad ni están por la labor de mantener archivos incrementales que suplan a nuestros desvanes de abuelito domésticos. Si el cloud computing se impone, ¿sobrevivirá la filosofía de la larga cola, la misma que hoy una elite empresarial se enorgullece de practicar? Demasiadas preguntas.

jueves, 13 de agosto de 2009

Nuevo positivismo digital (XI): Los políticos mutantes, el largo adiós de los intermediarios y el estigma de los 140 caracteres

Nuevo positivismo digital: I, II, III, IV, V, VI, VII, VIII, IX, X

En 1998 el caso Lewinsky supuso la consagración del uso de internet como nuevo canal de información. Gracias a la red, millones de personas pudieron descargarse el sumario donde se detallaban los escarceos sexuales del presidente de los EE UU con la famosa becaria, con un nivel de detalle que la prensa generalista nunca había podido ofrecer. Morbo aparte, el nuevo canal permitía al usuario/consumidor saltarse todos los filtros intermedios y acceder a las mismas fuentes de información que expertos y periodistas. Desde entonces, cualquier asunto de índole política o de relevancia social se ventila en internet de acuerdo con sus propias peculiaridades, obligando a los medios tradicionales a cambiar de estrategia o encontrar ideas que aporten valor añadido a su función de intermediarios/distribuidores. Desde ese año, las audiencias televisivas y las ventas de diarios no han dejado de descender.

En la era analógica, la cuidadosa dosificación de la información privilegiada y el encauzamiento de las polémicas mediante el sistema de réplicas y contrarréplicas eran las estrategias que determinaban la repercusión y la evolución de las exclusivas. Está claro que el reducido número de intermediarios de la información facilitaba su selección, distorsión y (llegado el caso) ocultación. En aquella época, el poder político lo tenía fácil para supervisar el tráfico de la información. Internet, como en los demás ámbitos en los que se la acusa de arramblar con lo bueno existente, no ha revolucionado nada como medio de información. Su desestructuración jerárquica y las capacidades de réplica que ofrece la tecnología informática son, en todo caso, las causas que han permitido su característico modelo de difusión, basado en la velocidad, la inevitable generación de toneladas de información no fiable o redundante y, por descontado, el desplazamiento de los administradores tradicionales (portavoces, boletines, jefes de prensa, agencias, diarios, televisiones....). No se trata de un nuevo modelo que amenaza al viejo, porque la calidad y la fiabilidad siguen siendo la ventaja competitiva de este último (en tanto que el volumen y la ubicuidad lo son del primero), el problema que se plantea es que cada usuario/consumidor es un potencial selector, emisor y/o transmisor de información, y quienes ejercen de receptores y se conforman con el acceso al primer nivel de información (la que aportan los titulares) pueden encontrar lo que buscan sin necesidad de abandonar la lista de resultados o en los diez primeros enlaces que devuelve Google. Los que desean profundizar un poco más recurren a su medio de referencia o contrastan entre diversas fuentes. Por extraño que resulte, el porcentaje de personas que hacen esto último no supera el 10% de la población mundial.

En 2003 la guerra del Iraq supuso un segundo mazazo en el desplazamiento de la centralidad de los medios tradicionales: fueron los usuarios/consumidores, desde sus blogs sin prestigio, quienes se atrevieron a publicar las fotos de los féretros de los soldados muertos, repatriados con total secretismo por la administración Bush. Cuando ya era imposible detener su difusión y resultaba evidente que se habían ocultado por motivos políticos, los diarios y cadenas de televisión reaccionaron tarde y mal apuntándose a un carro al que habían renunciado a subir. Y es que ellos, como tradicionales distribuidores de información, dispusieron antes que nadie de las fotos, pero antepusieron su sacrosanto derecho a la información (el mismo que tanto les gusta airear cuando son ellos quienes poseen una exclusiva) y se plegaron a las presiones de la Casa Blanca para no difundirlas. Prensa y televisión retrocedieron por este asunto otras quince casillas en el tablero.

El anticuado y orwelliano uso que hizo el gobierno de Bush --incompatible con la existencia misma de internet-- se encuentra en las antípodas del aprovechamiento de los mismos medios que hace su sucesor. Sin embargo, eso no ha supuesto una recuperación del prestigio perdido por parte de los medios tradicionales, sino que ha agrandado aún más la brecha entre ellos y los usuarios/consumidores. En todo caso éstos han confirmado que los usos que están haciendo de la tecnología a través de redes sociales, generando información o tejiendo redes propias, es útil y aporta beneficios a la comunidad (primer nivel de información, control del poder, propuesta de iniciativas...); es decir, la clásica actitud de ciudadano comprometido por la que los políticos han suspirado durante décadas (al parecer sin tomar en serio sus verdaderas consecuencias). Obama difundió sus mensajes durante la campaña presidencial a través de conocidas redes sociales como MySpace o Facebook, complementado con Twitter para compartir opiniones o distribuir enlaces a otros medios. Si el hombre más poderoso del mundo lo hace el resto no va a quedarse de brazos cruzados: cada vez más políticos de todos los países y ámbitos siguen su estela y esparcen sus oráculos por estos nuevos canales sin necesidad de recurrir a los intermediarios tradicionales (declaraciones, ruedas de prensa, debates). Los políticos, hartos de soportar preguntas en ruedas de prensa y asedios a la salida de actos (en definitiva, de someter sus propuestas y opiniones al debate público), prefieren lanzar sus dardos desde las trincheras. Hasta ahora lo máximo a que se había llegado era al envío de SMS a los móviles de los periodistas, que recibían pequeñas píldoras informativas sobre asuntos de actualidad (generalmente durante campañas electorales) como una forma de saltar a los titulares sin tener que organizar actos o convocar a los medios en sus sedes.

Los cambios en la política convencional que estas prácticas han provocado resultan palpables: ruedas de prensa sin opción a preguntas, vídeos institucionales que suplen a las comparecencias públicas, declaraciones difundidas directamente en internet. Recursos cada vez más habituales para ahorrarse respuestas a los críticos y matizaciones de dudosa convicción. Está claro que los intermediarios de la información tienen que reinventarse (y no desaparecer como los apocalípticos populistas se apresuran a vaticinar), porque no podemos prescindir de la información contrastada, fiable y de calidad. Políticos convencionales y demás parásitos del ecosistema: retrocedan otras quince casillas.

Resulta preocupante ver a los administradores del dinero público tan despistados ante cambios tan rápidos; sin embargo no nos parece tan grave que otros personajes públicos subviertan las bases sobre las que se asientan los ingresos que perciben directa o indirectamente por sus apariciones en los medios. Tras los políticos, los siguientes en la lista de los que desean filtrar a toda costa sus apariciones públicas (sin renunciar a sus beneficios, claro está) son los famosos: escritores, cantantes, actores, vividores, han descubierto en plataformas como Twitter, Tuenti, Facebook o MySpace un canal que les conecta directamente con sus fans, sin depender de ruedas de prensa, comunicados y, aún mejor, asesores que cuestan una pasta. Y además ganan en privacidad (algo de lo que suelen carecer), ya que pueden hacerlo sin salir de sus securizadas mansiones o desde sus móviles de cuarta generación.

Twitter es un servicio gratuito de microblogging que permite publicar mensajes de hasta 140 caracteres y que tus seguidores recibirán por correo, chat, incluso en su móvil. ¿A quién no le gustaría recibir una breve confesión pública de Scartlett Johansson en su móvil? Es como si te la enviara a ti solo. Lo curioso es que al principio el uso propuesto de la herramienta era que cada persona del planeta pudiera decir lo que estaba haciendo en cada minuto de su vida. Pero como siempre, es el usuario/consumidor quien determina qué uso hara de estas cosas, y al final resulta que quienes han establecido su utilidad mayoritaria son los famosos.

En abril de 2009 era aún un servicio emergente, del cual los periodistas apenas se hacían eco y usaban, pero cuatro meses más tarde Twitter se ha convertido en el modo preferido por los famosos para comunicarse con sus fans. La principal ventaja es que pueden puentear a la prensa, igual que los políticos. Además de usar Twitter, los famosos también han abierto su garito en Facebook, lo que les permite sumar seguidores y dar a conocer su agenda promocional de forma rápida y gratuita (fechas de conciertos, lanzamientos de líneas de ropa, singles). Los fans, por su parte, están encantados de estar enlazados con sus ídolos; aunque el exceso puede resultar contraproducente: por ejemplo, la página de Katy Perry en Facebook es especialmente prolífica, rozando el coñazo en la difusión de según qué eventos (casi estoy por darme de baja); o el Twitter de noticias de Pixar (upcomingpixar), que casi cada diez minutos lanza informaciones a cual más banal.



Dos botones de muestra dan una idea de lo que da de sí esta herramienta: Aston Kutcher --el marido de la actriz Demi Moore-- compartió con sus fans una foto que hizo a su mujer mientras planchaba en bragas. Ella se pilló un rebote considerable, y para conseguir su perdón pidió a sus seguidores que a la mañana siguiente le enviarán un "Te quiero" simultáneo, también por Twitter. Llegaron 3.600 y ella, claro, le perdonó. Otro actor --esta vez Hugh Jackman-- escribió: «Donaré 100.000 dólares a la ONG favorita de un usuario de Twitter. Por supuesto, debe convencerme en menos de 140 caracteres». Una historia pastel con final feliz (el género favorito del planeta Tierra) y un uso audaz que combina compromiso social y mercadotecnia.

En el mundillo del famoseo tampoco se puede asegurar que todo haya cambiado radicalmente con la irrupción de estas plataformas digitales: hasta entonces, bastaba que en un programa de TV, una película o una noticia se mencionara la existencia de un objeto, lugar, servicio o persona hasta entonces desconocido para que todo el mundo se lanzara a comprobar (=comprar) de qué se trataba. Ahora, cuando lo que se cita es una web, una aplicación o un servicio digital los beneficios de esta notoriedad sobrevenida son casi inmediatos, síntoma inequívoco de los tiempos que corren: incremento espectacular de tráfico, posicionamiento en buscadores, artículos y reportajes en medios tradicionales... Pero no sólo eso: cuando un suceso relacionado con famosos tiene lugar en esas plataformas el tráfico experimenta un subidón terrible, y las repercusiones y comentarios se expanden por infinidad de sitios similares. La misma pauta se repite cuando, de forma fortuita o no, algún usuario/consumidor salta del anonimato total a la fama planetaria (concursos, intervenciones televisivas, un éxito musical). La única variable que añade internet al mundo del famoseo tal y como lo conocemos es la velocidad y la inmediatez. Para todo lo demás, el gen del gregarismo.

Ya es hora de ir bajando el tono de las profecías y admitir que los nuevos canales digitales poco aportan a las formas de relación, de darse a conocer o de alcanzar un éxito fácil ya consagradas en el mundo analógico. Las cosas siguen más o menos como estaban: de entrada, desconocidas o no, las chicas jóvenes y monas con un punto de descaro tienen todos los números para triunfar, como Lyly Allen, Amy Winehouse, Paris Hilton o Lindsay Lohan.... El atractivo sexual es la gasolina que mueve la información (digital o no). Los hombres atractivos también se suben a este carro pero en menor medida, seguramente porque las mujeres no responden tan bien a estímulos tan bastos y básicos. A los demás seres humanos sólo nos queda la meritocracia, pagar por lograr notoriedad, regalar nuestras creaciones, o dar con el hit, la anécdota, el pelotazo o el momento fortuito que nos ponga en el candelero, como el extraordinario caso de Susan Boyle. No hemos evolucionado tanto como asegura más de un gurú, el sesgo testosterónico sigue determinando la cotización del mercado de los famosos.



Y para terminar una curiosa historia que viene de muy lejos y nos deja en el lugar más imprevisible. La legendaria decisión de Microsoft de diseñar su primer sistema operativo --el MS-DOS-- considerando que ocho bits serían suficientes para soportar el volumen de información que debía procesar cualquier software se reveló a los pocos años una decisión equivocada en extremo. Esta historia nos enseña que hasta los expertos supuestamente mejor preparados son capaces de meter la pata hasta el fondo, por muchos estudios superiores que acumulen. A continuación apalanco la metáfora de Carl Sagan sobre el funcionamiento del cerebro humano (en mi capítulo favorito de la serie Cosmos, La persistencia de la memoria) porque la necesito para mi razonamiento: el Puente de Brooklyn se construyó entre 1870 y 1883 justo donde estaba la estación de ferrys que unía Brooklyn y Manhattan. Décadas después, el primer túnel entre ambas orillas se perforó en el mismo emplazamiento del puente. La razón es que las principales vías de comunicación ya convergían allí desde los tiempos del embarcadero de ferrys, y se trataba de aprovechar lo ya existente. Pues el cerebro funciona igual: aprovecha las conexiones existentes, superpone capas de información una sobre otra, y para ello emplea vías y razonamientos conocidos con que levantar otros nuevos. La única diferencia es que nuestra mente funciona de un modo mucho más conservador, simultaneando las conexiones, mientras que los ingenieros cambian unas por otras (sustituyeron el embarcadero por el puente). El diseño de Twitter sigue la misma pauta: la limitación de 140 caracteres para sus mensajes no es un capricho, sino que se adapta a la red de telefonía móvil, de alcance mundial y con servicio SMS de serie. Al usar una red existente Twitter puede dar un salto cualitativo sin necesidad de generar él mismo los canales que necesitaría para crecer. Por eso asume la limitación de 140 caracteres, porque le interesa circular mediante SMS. La anécdota de Microsoft ilustra un caso de conexión fallida, mientras que Twitter parece haber aprendido de los errores de sus antepasados.

Quizás también te interese:

Plugin para WordPress, Blogger...

PrintPDF