Translate

lunes, 21 de diciembre de 2009

El oxímoron de las descargas

La opinión de una experta puede ayudarnos a entender el problema de las descargas, la copia privada y la viabilidad del negocio «cultural». Según la abogada Paloma Llaneza, la cosa está muy clara en términos jurídicos: «el P2P, cuando es de obras no sujetas al dominio público, o bajo licencia Creative Commons, o con la autorización de todo aquél que tenga derechos sobre la obra, es una infracción de las leyes civiles. Si los contenidos son ilícitos, las páginas que facilitan las pistas para acceder a ellos (los torrents) puede que no reciban una condena penal, pero pueden ser demandadas en los tribunales civiles con éxito y están obligados por la legislación vigente [...] a retirar los enlaces que tan sencillo hacen obtener esa película que acaban de estrenar». Está claro cuándo y dónde está hoy el delito: en los enlaces (otra cosa es que la eliminación de esas webs de torrents no impidan que las redes P2P sigan funcionando a tope. Aunque las cerraran con todos los argumentos del mundo las descargas continuarían). Eso sí, la señora abogada se cuida muy mucho de no tipificar la actividad del usuario/consumidor que recurre a ellos para sus descargas privadas sin ánimo de lucro. Está claro que van a por los suministradores de enlaces, pero aun así, en sus declaraciones, autores y legisladores son tan calculadamente ambiguos que dan a entender que también incluyen en el mismo lote al usuario/consumidor, a ver si a alguno le entra mala conciencia o miedo. Los usuarios/consumidores, por su parte, se han dado por aludidos, porque están indignados y han difundido un pomposo decálogo «En defensa de los derechos fundamentales en Internet».

El comodín de la copia privada ha perdido fuerza desde que en 2006 se reformó la Ley de Propiedad Intelectual, cuyo artículo 31.2 estipula que para hacer una copia privada se tiene que haber accedido legalmente a ella. Quienes defienden la ilegalidad de las redes P2P argumentan que ese artículo equivale a ilegalizar todas las descargas que a través de ellas se realizan; mientras que sus defensores siguen opinando que, en sí mismo, el P2P no es ilegal porque no incumple ninguno de los tres supuestos de vulneración (distribución, difusión y transformación; el cuarto, el de copia, sí lo haría, pero queda sin efecto porque es privada). ¿Se considera copia privada una copia de una copia privada hecha a partir de un original legal? El redactado actual del legislador, una vez más, no resuelve el contencioso, ya que cada parte sigue considerando que la suya es la interpretación correcta.

Lo que en ningún caso admito es el argumento de que cada descarga es una venta perdida, porque hay gente que no consume cultura bajo ninguna circunstancia, y si ahora lo hace es porque es gratis y no tiene que salir de casa para conseguirla. Si estos dos factores se eliminaran, esta legión de descargadores compulsivos se quedaría tan ancha, y el consumo de cultura de pago apenas aumentaría. Otra cosa muy distinta sería la reacción de los que hacen un uso alternativo a los canales de distribución (rarezas, antigüedades, obras no distribuidas en el país).

El problema al que se enfrentan todas las iniciativas legales contra las descargas es que para imputar al infractor hay que vulnerar derechos fundamentales, porque las operadoras deben facilitar (ley en mano) datos personales sin orden judicial, así como quebrantar el secreto de las comunicaciones. ¿Cómo se lo harán las autoridades para solventar este problema? Todas las leyes y disposiciones tropiezan con este oxímoron, impidiendo que el debate salga del callejón sin salida en el que nos encontramos. La vía legistalivo-punitiva es un esfuerzo ingente de escasos y dudosos resultados; es necesario asumir males menores y acabar con tanta cháchara estéril. Por todo esto, y porque estoy harto de tanta virgen ultrajada que se rasga las vestiduras porque «Su Cultura» se viene abajo, yo, igual que el escritor Luisgé Martín, me declaro un pirata arrepentido: «Yo pirateo por interés cultural y por tacañería. Para conseguir lo que no puedo conseguir de otro modo y para conseguir lo que podría comprar pagando. No se me ocurre, sin embargo, sentir orgullo ni convertir en noble lo que es solamente un fraude. No dejo de piratear, egoístamente, porque sé que la solución al problema no es el acto ético individual, sino la acción política, la regulación, la intervención del Estado para proteger los derechos vulnerados: los de los creadores y los de las empresas que han invertido en ellos y que esperan, con toda lógica, una rentabilidad. No dejo de piratear pero estoy deseando que me obliguen a dejar de piratear».

La solución --aunque haya algunos a los que ni siquiera se les puede mentar semejante opción-- vendrá en forma de un acuerdo precario para pagar un canon por el ADSL (igual que el que se paga por los dispositivos reproductores y los móviles), porque es imposible poner puertas al P2P; y de la misma manera que por el hilo de cobre nos meten la televisión, la voz y los datos, nos ofertarán las mejores aplicaciones para escuchar música incluidas en el precio. Gerd Leonhard (escritor, gurú, empresario, músico y orador motivacional) lo tenía clarísimo cuando declaraba hace un año: «...la Red es concebida como una autopista, si queremos circular por ella simplemente tenemos que pagar un impuesto de circulación. Una vez dentro, los límites de velocidad vienen marcados por el precio del billete que hemos adquirido: "¿Por qué no vendemos la música con la conexión y dejamos de perseguir gente por toda la Red? ¿Por qué las cosas no van en esa dirección? ¿Por qué no pagamos un poco más por el contenido?"».

Me parece que es preferible pagar más de lo que al final recibiremos, al menos se acabará este absurdo debate, y (esperemos) los lloriqueos de los titulares de derechos y los distribuidores, y podamos entonces hacer el uso del servicio que nos dé la gana sin que nos señalen como leprosos. Pagaremos todos, hasta los que no escuchan música, y no será necesario invertir en obsoletas tecnologías de seguridad ni legislar sobre lo imposible. Y puede que hasta los autores se animen a montar sus propias webs y a vender sus creaciones puenteando a unos distribuidores que se están ganando a pulso el ninguneo social. El audiovisual es otra historia que dejo para más adelante.

Quizá todo acabe siendo Como ahora (Millás dixit).

http://bajarsealbit.blogspot.com/2009/12/el-oximoron-de-las-descargas.html

martes, 24 de noviembre de 2009

Ficciones autobiográficas: icebergs ocultos bajo las aguas (Ni de Eva ni de Adán)

La adolescente mano que mece la literatura (Antichrista)

Es un recurso casi tan viejo como la literatura: usar --con más o menos ligeras variaciones-- la propia vida como principal materia prima para la ficción. Cuando alguien explota ese recurso de forma tan sistemática es porque en el proceso de creación hay algo de catarsis, ajuste de cuentas, liberación de fantasmas, deseo irrefrenable de compartir, incluso exhibicionismo. Cuando un diario íntimo no basta, cuando se escribe a escondidas pensando que otros lo leerán, cuando el autor se atrinchera en el burladero de la comunicación asíncrona que ofrece la novela, cuando la soledad creativa permite una cierta ausencia de implicación y de justificación (excepto en pleno circo mediático de las ruedas de prensa)... Cuando todo eso sucede ya no estamos hablando de literatura, hablamos de otra cosa que no sabemos qué es aunque también pueda merecer la pena.

¿Y qué pasa cuando todo lo anterior concurre de forma simultánea y, por si no fuera suficiente, la escritura es capaz de remontar más allá de la descripción rutinaria y previsible de acontecimientos cotidianos? Cuando escribimos sobre nuestras vidas, para nosotros o para los demás, consciente o inconscientemente, tendemos a colocar cada pieza en el sitio más adecuado para que el conjunto se parezca a una narración. No recuerdo quién dijo que necesitamos convertir nuestra vida en narración para hacérnosla comprensible, pero tenía toda la razón del mundo. Basta echar una ojeada al género autobiográfico más reciente para comprobar que cada vez se asemeja más al relato de vidas tamizadas por el cedazo de la ficción (orden, equilibrio, paradojas, excursos, significados ocultos, enlaces inesperados, tensión, dosificación de la información).

Si de pronto te encuentras con todo esto, expresado mediante una excelente simbiosis de experiencia vital y estilo ameno, es muy probable que tengas entre manos un libro de Amélie Nothomb.



Nothomb es una mujer excepcionalmente dotada para la narración. No se complica la vida por la sencilla razón de que habla de la suya. Sus genes, su entorno familiar, su bagaje cultural, aportan suficientes dosis de síntesis, estilo directo y realismo rebajado con ficción para hacer tan empáticas sus novelas. Javier Cercas presume en sus ficciones de haber dado con una mutación en la secuencia genética de la novela: la novela real. Una vez leído el resultado, se comprende que el hallazgo se limita a dos cosas: 1) alinear significativamente tres o cuatro acontecimientos biográficos para levantar un argumento y 2) situarse él mismo entre la nómina de personajes. Nothomb, en cambio, asume la etiqueta hasta sus verdaderas últimas consecuencias y convierte fragmentos completos de su vida en novelas, sin esconder nombres ni fechas, sin interponer vanguardismos narrativos que den la (falsa) impresión de distancia entre autor y personaje. Quizá falte a la verdad, mienta, manipule, exagere, omita o tome prestado, pero por lo menos no trata de ocultarse tras el relato como hace Cercas.

Así, Ni de Eva ni de Adán completa el círculo que comenzó a trazar Estupor y temblores, y ambos libros conforman su ajuste personal de cuentas con Japón, el país que la tuvo fascinada hasta los 23 años. Y, como si estuviera en una película de Kubrick, siente la necesidad de cerrar el círculo narrativo a base de repetir lo ya contado: el tiempo del relato que abarca Estupor y temblores está contenido en los dos últimos capítulos de Ni de Eva ni de Adán. Es curioso que en esta segunda obra accedamos a la vida de Nothomb fuera de su traumática experiencia en una multinacional japonesa, y más teniendo en cuenta que esa crisis sentimental sin duda afectaba a su actitud y comportamiento laborales. Al contrario, ha decidido disociar al máximo ambas historias, como si fueran dos personas distintas quienes las protagonizan. ¿Higiene mental, conveniencia editorial, deseo estético o innata capacidad para el proceso en paralelo? Una de las características de la timidez es que suele desembocar en múltiples personalidades estancas que se exhiben exclusivamente ante los respectivos públicos para las que fueron creadas; y la mera posibilidad de intercambiar unas y otros provoca auténtico pánico o inexplicable pudor. Esta (calculada) sinceridad o ausencia de complejos es una de las principales obsesiones de Nothomb, como si cada libro tuviese prohibido rebasar los límites de la parte de su vida que su autora ha decidido transcribir. De la misma manera, su obra se puede contemplar como una sucesión de compartimentos estancos que, vistos con la suficiente perspectiva, ofrecieran al lector el retrato planificado, proyectado, deseado, de su existencia.

Alejemos aún más la cámara: consideremos esa sucesión de compartimentos como la parte visible del inmenso iceberg que al parecer forma el conjunto de sus escritos (la mayoría inéditos) y preguntémonos: ¿La parte sumergida mantiene la coherencia con la publicada? ¿Existe alguna razón para que esas cuatro quintas partes permanezcan ocultas?

http://bajarsealbit.blogspot.com/2009/11/ficciones-autobiograficas-icebergs.html

martes, 3 de noviembre de 2009

Y 30 años después, resulta que IBM tenía razón...

Igual que en la trilogía aquella, la historia se convirtió en leyenda, y la leyenda en mito, y durante 30 años el sentido de aquel instante privilegiado pasó desapercibido, y ya no se sabe qué parte es cierta y qué parte inventada. Tanto da, lo importante es que existe una base real que se puede reconstruir en las hemerotecas y cualquier usuario/consumidor (lo suficientemente veterano) echar mano de su memoria personal y sacar conclusiones. Estoy hablando de la decisión crucial (con el tiempo se reveló crucial, en su momento pareció una nadería) tomada por IBM en 1981 y permitir que unos pelagatos rascacódigo que se autodenominaban Microsoft diseñaran el sistema operativo de la nueva arquitectura IBM PC, llamada a revolucionar la vida de los hogares y empresas en Occidente. Hay que reconocer que ahí Microsoft estuvo brillante y consiguió que, además de suministrar a IBM en exclusiva el sistema operativo (más conocido como IBM PC-DOS), les autorizaran a licenciar el producto para ser vendido a terceros (el MS-DOS). Desde el punto de vista de IBM, semejante decisión resultó de una miopía flagrante, en las antípodas de la dictadura de los monopolios tecnológicos que la misma Microsoft se encargó de instaurar pocos años después. Para acabar de redondear la paradoja, los de Redmond estuvieron igual de miopes al minusvalorar o despreciar el potencial de negocio de Internet, y para cuando quisieron reaccionar habían perdido la carrera. En cambio, para el usuario/consumidor, la estandarización y la compatibilidad en la capa básica (tarea que hoy asume casi en solitario Google por razones puramente estratégicas, y no sólo filantrópicas), esa misma decisión resultó ser un enorme acierto. La misma clase de acierto que supuso en su momento el bipedismo, el dominio del fuego o la adquisición del lenguaje: una increíble y fascinante cadena de casualidades fruto del azar que culminó con la aparición de la especie humana tal como la conocemos hoy.

Durante casi tres décadas las teorías de la historia de la informática se han construido sobre esta piedra angular: el error de bulto de IBM al considerar que el negocio estaba en el hardware y no en el software. Está claro que subestimaron la capacidad de Bill Gates para los negocios (que quizá él mismo descubrió a costa de asumir sus limitaciones como programador y diseñador de software), a pesar de que los productos que suministraba --por un inefable cúmulo de factores-- fueran reacciones tardías a tendencias generales de la competencia, inundando el mercado con aplicaciones llenas de errores azules e inesperados. Sin embargo, el estado actual de los usos de la tecnología parece indicar lo contrario: si hoy se reescribiera la prehistoria de la informática más de uno señalaría la visión preclara de los ejecutivos de IBM al despreciar el software como mercancía susceptible de beneficio, visto el éxito de tantos dispositivos propietarios y tecnologías esclavas. Treinta años no son nada en la evolución de la tecnología, así que quizá los historiadores de la tecnología se decanten dentro de poco por una visión ganadora de IBM. Ahora bien, desde el punto de vista de los negocios tres décadas son una vida; así que los mismos ejecutivos de IBM que podrían ser héroes en los libros de historia aparecen como idiotas a evitar en las escuelas de negocios de todo el mundo. ¿Cuánto dinero dejaron de ingresar los de Armonk por culpa de su mítico error? El mismo que ingresó Microsoft con su MS-DOS, incluyendo una complicada transición a la interfaz gráfica (obligada por la evidencia de sus ventajas de uso y aprendizaje) que convirtió a Windows en el sistema operativo favorito del mundo a finales del siglo XX.

La cosa se comenzó a torcer cuando los discípulos de Linus Torvalds convirtieron a Linux en una alternativa abierta, segura, estable y gratuita para todo tipo de arquitecturas: desde ordenadores de sobremesa hasta servidores web y todo tipo de dispositivos móviles. Cuando quisieron darse cuenta, resultó que cada versión de Windows se había convertido en el coche-escoba de las utilidades que otros sistemas operativos y/o empresas habían incorporado/rentabilizafo meses --incluso años-- antes. De poco les sirvió regalar el navegador Explorer, tratando de ganar cuota de mercado desesperadamente, y acabar con el predominio de Netscape, ya que el usuario/consumidor prefirió otros navegadores en cuanto pudo escoger. Aun así, Netscape logró reencarnarse en el código de Firefox y hoy, junto con Chrome, Safari y Opera, hacen que Explorer parezca un dinosaurio que se alimenta casi en exclusiva de sus acuerdos comerciales con las grandes sedes web.

El punto de inflexión definitivo en este cambio de perspectiva (el hardware gana, el software pierde) quizá sea responsabilidad de Google con Android (un sistema operativo para dispositivos móviles), Chrome (un navegador que mutará a sistema operativo) y su firme decisión de lograr una capa básica de aplicaciones universal y abierta, facilitando la interoperatividad y que cada cual monte sus propias aplicaciones (y negocios) sobre ellas. Es decir, la estrategia opuesta de Microsoft, empeñada en patentar y extender sus sistemas como soluciones cerradas y verticales. Ahí va una pequeña muestra de los «hitos tecnológicos made in Redmond»:

1. DirectX: una colección privada de API, nacida tras el éxito de interfaces como OpenGL y, sobre todo, Java EE, cuya versatilidad había quedado más que demostrada en infinidad de aplicaciones web.

2. Ecma Office Open XML: la versión propietaria de XML lanzada en 2005 y basada en el estándar Office Open XML, de cuyo fracaso da la medida el hecho de que Office 2010 será la primera versión de la famosa suite ofimática enteramente compatible con el estándar internacional libre y gratuito.

3. El lenguaje de programación .NET: la respuesta tardía al éxito de lenguajes independientes de dispositivo y de plataforma al estilo de Java.

4. La tecnología ASP: la respuesta propietaria e igualmente tardía al lenguaje PHP para la creación de páginas dinámicas.

5. El servidor web Internet Information Services (IIS): el intento fallido de arrebatar el liderazgo en ese segmento a Apache. Siempre tarde y peor.

Hoy día la mejor estrategia es invertir en dispositivos (consolas, móviles, lectores, portátiles o no) en los que el requisito consiste es adquirir el hardware: Nintendo DSi, PSP, PlayStation 3, iPhone, Kindle... Ya no es imprescindible lanzarlos con sistemas cerrados, propietarios y exclusivos, como hace Sony con su estándar UMD para las PSP. El aluvión de novedades no cederá ni disminuirá, porque en la adquisición del hardware está el beneficio. El software, los contenidos, el parcheo, es lo de menos, pues el usuario/consumidor ya ha pasado por caja.

Por el lado del software tampoco regalan nada: ahora que Android comienza a ser una realidad en el mercado de los móviles --Nokia y Apple son las únicas que se niegan a implantarlo-- queda claro el objetivo estratégico de este proyecto: garantizar a Google la disponibilidad de 4.000 millones de teléfonos móviles --en agosto de 2009-- para colocar su publicidad y sus servicios. Los fabricantes de terminales, asustados, se apresuran a añadir interfaces personalizados para diferenciar sus productos, aunque sea a costa de anular determinadas funcionalidades de Android. La pregunta que habrá que contestar dentro de 15 años (quizá menos) es: ¿Existirá negocio en las escasas grietas de mercado que deja Google? ¿Quedará margen para nuevas teorías de la historia de la informática?

domingo, 18 de octubre de 2009

La miseria de la tecnocracia: 3. La cultura humana

La miseria de la tecnocracia: 1. Los Señores del aire: Telépolis y el Tercer Entorno
La miseria de la tecnocracia: 2. La Galaxia Internet

Quería continuar la serie de miserias tecnócratas con un libro que incorporara el punto de vista de un humanista, y creía haberlo encontrado en La cultura humana (2009) de Jesús Mosterín. Pero no ha sido así. La obra es un mero compendio de actividades humanas al más puro estilo erudito-enciclopédico, algunos interesantes por desconocidos, curiosos otros, innecesarios a medida que se acumulan durante la lectura y cargantes hacia el final. La cultura humana es la típica obra de senectud de un filósofo de primerísima fila que, en la etapa final de su producción, aprovecha su inmenso bagaje de lector e investigador para exponer --en libros con clara vocación de manual-- todo tipo de temas en un tono divulgativo. Estoy convencido de que se trata de un texto escrito de corrido, sin prácticamente recurrir a bibliografía escrita para documentar determinados capítulos.

A pesar de la decepción inicial, para los tecnócratas resulta útil e interesante el primer capítulo --el mejor del libro con diferencia--, y luego continúen con el 2, 3, 7, 8, 9 y 10. Por su parte, los curiosos de la cotidianeidad sin más pretensiones disfrutarán con el 4, 5, 6 y del 10 en adelante, una síntesis para no iniciados de toda clase de cachivaches, técnicas y costumbres humanas: desde los tipos de alcoholes e infusiones hasta el turismo y la historia de la bicicleta. Y es que a partir del décimo capítulo --dedicado a la escritura-- la obra se desliza por la pendiente de la mera descripción etnográfica, incapaz de levantar cabeza con un poco de síntesis o de mínima teorización. No hay un atisbo de conclusiones, ni de balance, ni de nada parecido; es como si el autor sintiera que ha culminado su labor de puesta en orden del vasto campo de la cultura humana y ya pudiera dedicarse a su siguiente libro divulgativo.

Por ser mi especialidad universitaria, leí con gran interés el capítulo dedicado al desarrollo de la teoría antropológica: a pesar de la palpable y parcial influencia de la obra de Marvin Harris como manual de referencia, es curioso comprobar cómo la mayoría de debates, problemas y teorías que monopolizaron mis dos últimos años en la universidad han sido desmentidos por el conocimiento científico, revelando los equivocados planteamientos y explicaciones de los antropólogos, y de paso reduciendo nuestras polémicas y críticas a simple cháchara de pedantes ociosos sentados al margen de los caminos de la realidad: el tabú del incesto (pp. 142-143); la distorsionada investigación de Margaret Mead en Samoa para refrendar las tesis freudianas sobre la represión de los adolescentes estadounidenses (pp. 135-136); el historicismo empirista de Franz Boas; el neoevolucionismo a ultranza de Leslie White; la interpretación densa [subjetiva, incontrastable y pedante] de la cultura según Clifford Geertz; el materialismo cultural del propio Harris; el funcionalismo británico; Marshall Sahlins y su feroz y retrógrado negacionismo de los factores biológicos (sin embargo Mosterín no menciona del mismo autor su desmitificador estudio de la «sociedad opulenta primitiva»: La economía de la Edad de Piedra de 1983); el fracaso de las posturas relativistas, evolucionistas, ecologistas y demás «ismos» de la teoría antropológica; el giro de los boasianos hacia la interpretación textual de la cultura (una vez culminada la desaparición de la humanidad primitiva contemporánea y la falsedad e ineficacia de toooodas sus teorías); el tránsito con cara de circunstancias de la mayoría de «expertos» hacia disciplinas aplicadas (arqueología, genética, sociología, neurobiología....). Un completo repaso que culmina en el rechazo de la epistemología científica, es decir, la conversión de la antropología en pura charlatanería de gente apoltronada en cátedras universitarias, dedicada a pontificar sobre la naturaleza humana sin salir de sus gabinetes, recibiendo estupendos sueldos del erario público y escribiendo acerca de temas en las antípodas de los retos y problemas del mundo que les rodea (y encima se los publican). Al releer sus biografías no he visto que ninguno de ellos se significara por su activismo en pro de la igualdad, la crítica contra el Sistema ahí-donde-más-duele o los Derechos Humanos, lo cual no impedía que al final de cada artículo o libro se reivindicaran como paladines de la justicia y se les llenara la boca con grandes y universales deseos para la Humanidad. Siento que, aparte de mi flagrante equivocación, fui estafado por mis profesores, cómplices de esta gran mentira disciplinar que ha sido la antropología de los siglos XIX y XX. Que conste en acta.

En cambio, los capítulos séptimo y octavo, dedicados a la comparación intercultural, la polémica entre etnocentrismo y relativismo, los memes, el problema de su alcance y variabilidad según el contexto de investigación (en comparación con la monosemia de los genes) y los grupos culturales, desvelan el que debería haber sido el proyecto paradigmático de la investigación antropológica, la ciencia normal que no fue porque la mayoría la ignoró por comodidad o conveniencia. Apenas recuerdo unas pocas clases dedicadas a los Human Relations Area Files, una base de datos --creada por varias universidades estadounidenses en 1949, e inspirada por los trabajos de comparación intercultural realizados por George Peter Murdock-- que en la actualidad incluye información acerca de casi 400 sociedades (pasadas y presentes) con la que es posible poner a prueba hipótesis sobre la cultura humana. Entonces no supe calibrar su importancia, pues estaba totalmente enganchado a los estudios sobre cine y, por extensión, al cine etnográfico.

Si la cultura humana --como la define Mosterín-- es información transmitida por aprendizaje social, sólo se puede considerar cultura aquello que reside en los cerebros humanos y es transmitido desde allí a otros seres humanos; o en todo caso codificado en soportes ajenos al individuo para que otros seres humanos no coetáneos ni contemporáneos puedan conocerla. Consecuente con esta premisa, la piedra angular en este esquema enciclopédico es la escritura, la herramienta que permite a los cerebros humanos trascender los límites de su espacio y su tiempo en la transmisión de información. El problema es la superficialidad descriptiva que lo llena todo. De la escritura pasa a las enciclopedias, luego a los diccionarios, las bibliotecas, el mundo editorial... Ámbitos todos ellos que el autor conoce bien y sin duda admira como bibliófilo, para acabar con un corta/pega de noticias sobre el Kindle y el Sony Reader que en el que incluye capacidades y hasta ¡precios! (p. 240). De ahí da el salto al mundo digital --con unos conceptos e ideas que no pasan de usuario/consumidor semiavanzado-- y a Internet, a la que sitúa --como cualquier tecnócrata-- en la cúspide de la pirámide de la cultura, la forma más depurada, eficaz y universal de codificación y transmisión de información cultural. Resulta decepcionante que el autor no haga el menor asomo de crítica, ni de aporte filosófico a todo este tema, cuando su obra precedente demuestra que está perfectamente capacitado para hacerlo.

Los capítulos dedicados a la tecnología (13, 17 y 18) no contienen nada aprovechable: una sarta de siglas y lugares habituales en historias de la informática y de Internet, narrados desde el punto de vista del autor como un usuario/consumidor de a pie, no desde la óptica crítica del investigador. Lo que más he echado de menos es una breve valoración de toda esa serie de hitos expuestos sin más, como si su mención bastara para hacernos una idea de su importancia. El que quiera una buena introducción crítica que lea el libro de Castells. Es posible que Mosterín no sea un tecnócrata, pero posee suficientes conocimientos para valorar determinados descubrimientos y usos de la informática desde un punto de vista social, histórico o filosófico; pero renuncia a hacerlo, da la sensación de que sólo le preocupa exponer «ordenadamente» los aspectos fundamentales de la actividad humana sobre la Tierra; y disfrutar autolimitándose a un tono divulgativo que desciende muchos enteros respecto a lo que nos tiene acostumbrados.

Los humanistas no estamos tan cerca de la tecnocracia como creemos, aún está por llegar ese texto capaz de encarar sin mitificaciones ni exageraciones los constantes nuevos usos de la tecnología, quitar el IVA a las ensoñaciones de los expertos y determinar de forma verosímil el alcance de la variable tecnológica en una jerga comprensible por humanos. En este proceso de aproximación, el libro de Mosterín --dirigido casi en exclusiva a doctores y licenciados en filosofía y letras y humanidades-- es un rodeo innecesario.

domingo, 4 de octubre de 2009

Agoreros trascendentales (La sociedad de la ignorancia y otros ensayos)

He leído hace poco La sociedad de la ignorancia, compuesto por tres ensayos de Antoni Brey (tecnócrata humanista), Daniel Innerarity y Gonçal Mayos (ambos filósofos de la vieja escuela) en los que cada autor ofrece, desde su estilo y perspectiva, un panorama entre pesimista y admonitorio acerca de los peligros a los que nos abocamos por culpa de nuestras malas prácticas digitales. Además, cada uno propone su adjetivo para la definición de turno (los tecnócratas son casi tan prolíficos como los filósofos y humanistas en esto de etiquetar conceptos y teorías con nombres atractivos y chocantes): Brey habla de Ignorancia, Innerarity de Desconocimiento y Mayos de Incultura. Tanta similitud semántica puede hacer pensar que la coherencia temática es una de las preocupaciones primeras del libro, pero no es así: se trata de tres reflexiones superficiales que desembocan en el mismo punto --la denuncia de unos cuantos errores y algunas amenazas-- desde puntos de partida incomparables. Cada cual pone el acento en el concepto que le resulta más conocido, atractivo o útil, pero siempre sucumbiendo a ese tono de grave advertencia tan caro a todos los tecnócratas.



Imagino que la longitud de cada texto venía determinada de antemano por los editores, pero precisamente por eso uno espera algo más que una declaración de intenciones o una retahíla de posibles nefastas consecuencias ante nefastos peligros. Los tres ensayos son un aviso a navegantes escritos desde el implícito convencimiento de quienes están seguros de tener la razón a pesar de todas las apariencias en contra; mientras que los lectores, gobernantes y demás agentes del mercado digital están equivocados. Cuesta aceptar puntos de vista tan poco argumentados, y más teniendo en cuenta que el usuario/consumidor de a pie ignora avisos mucho más acuciantes en temas más cercanos, como por ejemplo el cambio climático (todavía hay quien cuestiona su existencia como consecuencia de una actividad humana poco respetuosa con el medio ambiente). Si esto es así qué caso harán en temas mucho abstractos, llenos de jerga neotécnica. Con las pocas ganas de leer que hay ahí fuera...

Como aperitivo, Brey propone una curiosa teoría de la historia en la que la variable informacional es el único elemento que cuenta:

1. Aparición del lenguaje
2. Aparición de la escritura
3. Aparición de la imprenta
4. Aparición de los medios de comunicación y de la cultura de masas


Un poco tendenciosamente simplificador ¿no? Para un consultor como Brey, es lógico que acontecimientos tales como la agricultura, las guerras de religión, la revoluciones sociales, las ideologías, los inventos, los descubrimientos y demás imprevistos sean meras fruslerías que en nada afectan a la evolución humana en la Tierra («rugosidades y ecos» las denomina). No es que carezca de coherencia interna, ni de utilidad para su razonamiento posterior, pero sobraba ese reduccionismo de toda la historia a un simple flujo informativo.

Sobre los ensayos, sus hilos argumentales resultan de sentido común: para Brey el crecimiento exponencial de la información nos provoca parálisis y rechazo ante la evidencia de no poder atenderla debidamente. Preferimos lo sencillo, la satifacción inmediata, y por eso --en la práctica-- nos volvemos más ignorantes. Brey olvida que no todo el mundo está igualmente capacitado --ni siquiera con la tecnología más moderna-- para hacer un uso avanzado de la información. La Sociedad del Conocimiento a la que aspira (como la gran mayoría de expertos) es una utopía (inalcanzable por definición), una meta siempre virtual que sirva de acicate para conseguir mejoras parciales. La Sociedad del Conocimiento nunca podrá encarnarse en una realidad sociohistórica. Que los poderes públicos, los agentes del mercado, la comunidad científica, la incorporen a su actividad es una tendencia deseable; pero a la inmensa mayoría de usuarios/consumidores les basta con el entretenimiento.

El texto de Innerarity es el más pedante de todos: para revestir de modernidad su jerga de filósofo, incorpora la tecnología y sus retos --hoy tema estrella del mundo intelectual-- a sus reflexiones, también muchos conceptos (reliable knowledge, science-based ignorance, unknown unknows) y gran cantidad de paradojas. Para Innerarity lo importante no es el saber (ni su calidad), que es lo que preocupa y denuncia a los falsos expertos, sino el no-saber. Este detalle tan sencillo y crucial (basta con darle la vuelta al calcetín), en el que sólo pensadores como él han reparado, es la clave del problema. Según este filósofo nos enfrentamos a graves problemas para gestionar el desconocimiento y a una seria amenzana democrática; pero no hay que preocuparse, no se trata de problemas «reales», ya que la solución es puramente epistemológica: «desarrollar una cultura de la inseguridad, que no perciba el no-saber como un ámbito exterior de lo todavía no investigado [...] sino como algo constitutivo del saber y de la ciencia» (p. 47). Menos mal, yo pensaba que los políticos y los tecnócratas tendrían que actuar. Creía que el no-saber es una realidad estrechamente relacionada con el fracaso escolar, con los insuficientes recursos públicos para educación, y que esas eran las causas del desconocimiento contra el que alerta. Pero no, todo se reduce a un cambio en la forma de percibir el entorno, en olvidarnos de las seguridades y en convivir con lo inseguro. En realidad es la típica metodología del intelectual analógico: abordar un probrema de moda, rellenarlo con citas de autores y títulos recientes, añadirle una pizca de lenguaje paradójico y luego dejarlo todo como está.

Mayos, por su parte, hace una recapitulación de las obviedades anteriores (es el único que cita a los otros dos), disponiendo los mismos conceptos de otra manera para que destaquen aún más: crecimiento «malthusiano» de la información, aumento del poder de los expertos y desinterés de la mayoría por todo lo que no sea descargar, gratis y sexo. Su principal preocupación es que la incultura generalizada que amenaza a la población empobrezca nuestras democracias, como si la baja calidad democrática que padecemos hace tiempo fuera una mala digestión de las tecnologías digitales, en lugar de una pauta visible desde mucho antes de la eclosión del fenómeno digital: abtencionismo electoral creciente, partidos políticos organizados de forma dictatorial, abandono de discursos accesibles, pérdida de vista de los problemas cotidianos, corrupción... ¿Hace falta que siga?. No, señor Mayos, tras el crecimiento exponencial de la información (es cierto, en su mayoría inútil y/o errónea) se encuentra el acceso del usuario/consumidor a los mismos canales de distribución informativa de los que antes gozaba en exclusiva la élite intelectual (hoy invadida por recién llegados sin prestigio) que se escandaliza ante el espectáculo indecente de la dilapidación de la información.

Recapitulemos: la información es la mercancía que manejan los consultores, asesores, gurús, expertos y demás tecnócratas, así que en sus reflexiones y teorías necesitan valorizarla al máximo para venderla a buen precio. Si la información abunda en exceso se devalúa su cotización en el mercado, y por eso están acojonados ante la posibilidad de que cualquiera pueda fabricarla. Buenos conocedores de los entresijos de la teoría de la escasez económica, no les precocupa la calidad, porque eso no influye en el valor final, sino la cantidad. Y por la misma razón, el momento actual --rebosante de una confianza ilimitada en las posibilidades de negocio de las novedades tecnológicas-- siempre lo describen como la culminación de un proceso que derivará (si les hacemos caso como expertos que son) en una nueva Edad de Oro de la Humanidad en la que la tecnología se pondrá al servicio de nuestras vidas para hacerlas más felices. Me sorprende esa tendencia --en personas tan doctas, políglotas y leídas-- a dejarse llevar por un estilo tan trascendente (y apocalíptico en ocasiones) cuando podrían ofrecer datos y tendencias estadísticas. Igual que se toman tantas molestias en poner límites en sus presentaciones de proyectos, llenos de cláusulas y contextos de validación, ¿no podrían hacer lo mismo con sus predicciones? ¿No podrían ser un poco más amenos y un poco menos agoreros?

martes, 22 de septiembre de 2009

Diario de un consultor (1)

Abro el correo y me encuentro con un mensaje informando de los nuevos términos del servicio Twitter: viene a decir que, a partir de ahora, permitirán la publicidad, emplearán las API de terceros existentes para generar contenido y bloquearán el spam. Pero lo que más me ha llamado la atención es que todo eso se lleva a cabo sin menoscabo del reconocimiento de la propiedad de los tweets de quien los genera, lo cual no impide que se reserven el derecho a usarlos, copiarlos, reproducirlos, procesarlos, adaptarlos, modificarlos, publicarlos, transmitirlos, mostrarlos y distribuirlos. Todo eso sin dejar de pertenecer a su autor, por supuesto.

Bajo semejantes condiciones, ¿qué significa ser propietario de unas cadenas de texto de apenas 140 caracteres? ¿Tiene algún sentido? ¿Posee algún valor una propiedad así estipulada? Y aun suponiendo que no hubieran cambiado, ¿tenían algún valor esos mismos tweets tal y como estaban establecidos? Tras esta construcción jurídica en la que uno se reserva a hacer lo que quiera con algo que no le pertenece, ¿no se encuentra acaso la misma actitud que los millones de usuarios/consumidores que no otorgan valor alguno a las copias que comparten y distribuyen? Si desde el lado de la oferta se demuestra tan poco valor por la propiedad, autores y titulares de derechos lo tienen jodido...

O puede que no. Quizá el problema esté precisamente en el engrudo que forman la propiedad y los derechos de explotación. ¿Por qué tienen que ir en el mismo lote? ¿Por qué no disociar los de autor y de propiedad intelectual de todos los demás y que sea el titular de los mismos quien se encargue de gestionarlos, cederlos, venderlos o revenderlos a quienes quiera/pueda? ¿Por qué no asumir que hoy, debido a los condicionantes tecnológicos, la explotación de derechos se ejerce en un entorno de copia libre, indiscrimidada e imparable? ¡¡Qué novedad!! ¡¡Si eso es precisamente lo que están haciendo en Creative Commons!!



Las licencias Creative Commons (CC) funcionan en esta línea desde 2002 y representan una alternativa nada desdeñable al Copyright tradicional. Las licencias CC permiten al autor seleccionar qué atributos de la propiedad decide mantener y cuáles libera públicamente: 1) la obligatoriedad o no de citar al autor, 2) si se puede hacer uso comercial o no del contenido licenciado, 3) si se debe mantener la integridad del trabajo o se pueden hacer obras derivadas y, en este último caso, 4) si los resultados deben distribuirse obligatoriamente bajo el mismo tipo de licencia. Estos atributos, a su vez, derivan de dos supuestos previos: el primero que la copia y la distribución están permitidas por un requisito funcional; el segundo que el contenido a licenciar se realiza en soportes digitales. A diferencia del Copyright tradicional, que se empeña en explotar derechos sin admitir estas dos evidencias, las licencias CC asumen que la copia es el ecosistema natural de los formatos digitales, y han sido creadas para universos digitales en los que la copia actúa como la ley de la gravedad y la capacidad de estar en dos sitios a la vez en el mundo físico: la primera está ahí y has de manejarte con ella te guste o no, mientras que la segunda actúa como un límite infranqueable al que todo debe plegarse sin excepciones.

La diferencia es clara: mientras el Copyright tradicional se orienta a la explotación comercial, las licencias CC establecen las condiciones en las que se desarrollarán la copia y la distribución, inevitables por definición. Y por si fuera poco, las unas no resultan incompatibles con las otras, de manera que es posible ejercer ambos con total garantía. La incógnita que queda por despejar es si seremos capaces de parir unos derechos de explotación útiles y justos derivados de las licencias CC.

Y ya puestos a plantear preguntas, aquí va una que no he sido capaz de calzar en toda esta reflexión: ¿por qué determinados derechos sólo se pueden ejercer a través de entidades de gestión?

lunes, 24 de agosto de 2009

Nuevo positivismo digital (XII): Un pequeño paso para los navegadores, un gran salto para los sistemas operativos

Nuevo positivismo digital: I, II, III, IV, V, VI, VII, VIII, IX, X, XI


¿Alguien se acuerda de Tron (1982)? Es un filme alucinante, ingenuamente visionario y que puede considerarse un precedente juvenil de Matrix (1998). En ella el ordenador central es una superficie negra, completamente lisa y retroiluminada, en la que basta rozar las teclas para que se enciendan y se apaguen las ventanas --pantallas las llamábamos entonces-- que devolvían la información solicitada. Era un dispositivo combinado de entrada/salida fascinante que nos convenció de las ilimitadas posibilidades de la tecnología digital. El tiempo y la física demuestran cada día que esos límites existen, pero desde luego no son los que el filme daba a entender. En lo que respecta a Tron está claro que la realidad ha alcanzado a la ficción, y esa interfaz tan sugerentemente zen existe, y además tiene un tamaño que ni los creadores de la película pudieron imaginar: es el iPhone. Para 2010 está anunciada la secuela de este título crucial en la evolución del género, Tron legacy, con Jeff Bridges repitiendo papel y la colaboración de John Hurt y Olivia Wilde (chica House desde 2007). Veremos dónde sitúa este filme los nuevos límites y si la trilogía de los hermanos Wachowski ejerce lo que podríamos denominar una curiosa retroinfluencia.





El de Tron no es un caso único de ficción superada; sin embargo, más infrecuente resulta una utopía que se convierte en realidad de forma y mediante agentes del mercado no previstos, como ha sucedido con la materialización del sueño de cualquier defensor del software libre y gratuito. El cloud computing es hoy una realidad tecnológica pujante, aunque el usuario/consumidor todavía permanezca mayoritariamente aferrado a técnicas de almacenamiento en local propias de los años noventa del siglo XX. Las prospecciones de los gurús, no obstante, aseguran que esto cambiará en breve: de acuerdo con la evolución programada por el complejo industrial-tecnológico, y sin necesidad de que ningún meteorito impacte sobre la Tierra, los navegadores se convertirán en sistemas operativos, aunque por una mera cuestión práctica, y a pesar de que básicamente sean aplicaciones para navegar por internet, los seguiremos llamando Sistemas Operativos. La aparición de Chrome en septiembre de 2008 equivale, en términos evolutivos, a la primera criatura que abandonó el medio marino y se convirtió en anfibia. El diseño y la implementación de Chrome suponen un primer caso de aplicación híbrida capaz de respirar en ambos medios: sigue siendo un navegador, pero su ADN ya contiene los genes necesarios que le permitirán convertirse en Chrome OS, un navegador que, además, podrá realizar las funciones de un sistema operativo. Sin duda un gran hito en la historia de la informática, pero más importante aún en el imaginario del usuario/consumidor porque ambos son gratis total. De momento, Chrome OS se preinstalará en Netbooks y otros dispositivos móviles, pero será cuestión de tiempo el asalto a los grandes sistemas corporativos.

La aparición de este primer navegador anfibio supondrá unos cuantos cambios en el ecosistema digital del usuario/consumidor. Hace una década, el abaratamiento de los sistemas de almacenamiento dio por finalizada la era del tostado recurrente (todo se digitalizaba y luego se grababa en CD/DVD). La culminación de esta línea evolutiva ha sido el disco duro multimedia, que permite prescindir de la fase de tostado final (y pagar una única vez el canon por copia privada, reconozcámoslo). Como consecuencia de esta mutación de uso, los ordenadores domésticos y sus diversos periféricos se han convertido en vertederos de toda clase de información, con un preocupante aumento exponencial de tamaño: vídeos, fotos, documentos, música, películas, libros, curiosidades, chorradas... Todo cabe en estos repositorios magnéticos de capacidad creciente y tamaño menguante. Esta nueva funcionalidad ha eclipsado a la que tuvieron en el pasado como plataformas de ejecución de videojuegos: la enorme capacidad de proceso que éstos requieren hizo que surgiera una rama mucho más especializada de aparatos, denominados videoconsolas. Una vez liberados de ese cometido los ordenadores domésticos sobrevivieron a base de navegación y almacenamiento indiscriminados.

El cloud computing viene a liberarlos de la segunda tarea (y quizá también a provocar una mutación en la propia internet): ya no será necesario dejar caer en nuestros discos duros megas y megas sin control ni criterio, porque dispondremos de una nebulosa donde meter --al parecer sin límite de espacio-- lo que ahora simplemente nos obsesiona poseer. Y de la misma manera que no necesitaremos copias de películas ni de canciones (el fin de la pesadilla para las industrias culturales), nuestras fotos, películas domésticas y documentos personales encontrarán un lugar donde esperar a ser requeridos. Quizá sea el primer hito de un cambio de mentalidad más profundo para el usuario/consumidor, y para algunos expertos supondrá una reducción importante del flujo de descargas. En lugar de ver la red como un inmenso bosque por esquilmar donde quien llega primero se lleva el doble que el resto, y la navegación como una recolección indiscriminada de todo tipo de productos para nuestra despensa local, este cambio de tendencia propone un uso compartido que haga innecesaria la proliferación de copias, sostenibles determinados modelos de negocio y ahorre recursos de almacenamiento. Uso responsable, sostenibilidad, ahorro... ¿Hablamos de ecología o de hacer dinero con unos y ceros? Igual resulta que vale para ambas cosas.

Los navegadores anfibios estarán diseñados para trabajar en la nube digital y el usuario/consumidor lo notará enseguida: no habrá escritorio, porque la ventana del navegador ocupará su lugar. Tras ella no habrá nada, de modo que los botones de minimizar y maximizar perderán su utilidad actual, tal como sucedió con los pulgares oponibles cuando dejamos de trepar por los árboles. La Ventana Única del navegador --con capacidad para infinitas pestañas-- será la que nos permita asomarnos a la red y, en ocasiones, revisar las alacenas del mínimo disco duro, donde mantendremos una dotación mínima de información personal. Encender el ordenador perderá sentido como proceso inicial de arranque y conexión, ya que viviremos en un continuo conectado en el que se sucederán breves lapsos de mala cobertura, falta de disponibilidad del servicio o desconexiones programadas. Una de las primeras consecuencias de esta modificación del paisaje será la considerable pérdida de peso de los navegadores anfibios. A medida que se adapten al nuevo medio irán simplificando y mejorando su morfología. ¿Cómo responderá Microsoft a esta mutación radical de los sistemas operativos? Sin duda estos cambios trastocarán su sistema de licencias, la base de sus ingresos multibillonarios (sí, con "b"), así que algo tendrán que hacer. El día que se libere una versión cliente-servidor de Chrome OS (o de alguno de sus descendientes) se rasgará el velo de la sala de juntas de Microsoft y a más de uno le dará un tabardillo. En términos evolutivos será como si viéramos al primer homínido abandonar los árboles y comenzar a caminar sobre dos patas (luego piernas). Algo así no entraba ni en los mejores sueños de Richard Stallman.

De hecho, el software libre nació cuando se comprobó cómo determinados proyectos universitarios (surgidos en los setenta del siglo XX y extendidos con éxito a todo tipo de sectores económicos 30 años después) eran parcial o totalmente fagocitados por empresas alegando una serie de derechos adquiridos. Por otro lado, empresas como Microsoft establecieron una nueva pauta de funcionamiento del mercado a base de versiones "mejoradas" cada pocos años que (todavía hoy) impiden al usuario/consumidor amortizar sus costes y, debido a los perversos efectos de una agresiva política de patentes, provocaron una glaciación de la innovación tecnológica. Como respuesta a estos desafíos surgió el movimiento por el software libre, eso sin contar con la infinidad de pequeños programadores que se lanzaron a distribuir gratuitamente sus creaciones para los más diversos usos. Basta darse una vuelta por Softonic para comprobar que si uno paga por aplicaciones es porque quiere.

Hoy nos parece de tontos pagar por una cuenta de correo (que no es otra cosa que un depósito de mensajes), así que lo lógico será que, de entrada, nos ofrezcan almacenar el resto de nuestras cositas gratis. Pero poco a poco se irán añadiendo servicios y mejoras por las que estaremos dispuestos a soltar la pasta. Quizá la novedad no consista en la radicalidad de este cambio de costumbres del usuario/consumidor, sino en la audaz estrategia de Google: estandarizar, universalizar y garantizar acceso gratuito a la capa más básica de aplicaciones de software, de manera que cada cual pueda adaptarlo según sus necesidades. Sobre ese estrato común, una vez garantizada la compatibilidad y la interoperatividad (los dos principales obstáculos que impiden el deshielo de la innovación mediante la simplificación de numerosos procesos digitales, sean de ocio o de negocio), las empresas podrán levantar nuevas capas que hagan sostenibles modelos de negocio no esclavizados a una tecnología propietaria. El hecho de que la capa básica sea universal y gratuita restará importancia a si las aplicaciones que funcionen por encima sean propietarias o no, sino si son capaces de generar beneficios. Lo bueno de este modelo es que en él también tendrán cabida soluciones gratuitas, ya sean permanentes o para preparar el mercado de cara a introducir nuevos servicios de pago. El reto que propone Google en este momento (un reto que merece la pena apoyar) es conseguir que todo este entramado acabe con las guerras de protocolos de las tecnologías esclavas. El objetivo final debería ser que el usuario/consumidor elija con qué aplicaciones prefiere trabajar, y lo hará beneficiándose de un entorno de libre competencia basado en estándares realmente universales. Ahora parece que hablamos de derechos humanos. De momento estamos acotando el diseño de la capa básica, y si tenemos en cuenta que la evolución tecnológica tiene unos ciclos semejantes a los años de vida perrunos, es posible que en menos de una década tengamos más de la mitad del edificio construido.

Los servicios y aplicaciones universalizados a día de hoy (correo, suites ofimáticas, retoque digital, almacenamiento), esos que la mayoría tenemos en local y que, en versión cloud computing, aún son gratis. ¿Lo serán siempre? ¿Los mantendrán las empresas como parte de su estrategia de atracción de clientes? ¿El sector público acabará incluyendo como parte del Estado de Bienestar aquellos servicios digitales que no sean rentables? ¿Tendremos que admitir publicidad mientras editamos nuestras fotos o preparamos cualquier clase de documento? ¿No provocará esto un desplazamiento del péndulo hacia el lado opuesto y asistiremos, ante un mercado atrofiado por el pago por uso, a un nuevo auge del software en local? Que aplicaciones locales de segunda generación funcionen en los descendientes de los navegadores anfibios será un logro admirable. Otra pega: teniendo en cuenta que en internet, a día de hoy, la vida media de un enlace es de 58 días, ¿quién nos asegura que no solamente flotará en la nube aquello que a los titulares de los derechos de explotación les interese en cada momento, limitándose a productos de temporada, actualidad y/o éxito garantizado? Los agentes del lado de la oferta no son hermanitas de la caridad ni están por la labor de mantener archivos incrementales que suplan a nuestros desvanes de abuelito domésticos. Si el cloud computing se impone, ¿sobrevivirá la filosofía de la larga cola, la misma que hoy una elite empresarial se enorgullece de practicar? Demasiadas preguntas.

jueves, 13 de agosto de 2009

Nuevo positivismo digital (XI): Los políticos mutantes, el largo adiós de los intermediarios y el estigma de los 140 caracteres

Nuevo positivismo digital: I, II, III, IV, V, VI, VII, VIII, IX, X

En 1998 el caso Lewinsky supuso la consagración del uso de internet como nuevo canal de información. Gracias a la red, millones de personas pudieron descargarse el sumario donde se detallaban los escarceos sexuales del presidente de los EE UU con la famosa becaria, con un nivel de detalle que la prensa generalista nunca había podido ofrecer. Morbo aparte, el nuevo canal permitía al usuario/consumidor saltarse todos los filtros intermedios y acceder a las mismas fuentes de información que expertos y periodistas. Desde entonces, cualquier asunto de índole política o de relevancia social se ventila en internet de acuerdo con sus propias peculiaridades, obligando a los medios tradicionales a cambiar de estrategia o encontrar ideas que aporten valor añadido a su función de intermediarios/distribuidores. Desde ese año, las audiencias televisivas y las ventas de diarios no han dejado de descender.

En la era analógica, la cuidadosa dosificación de la información privilegiada y el encauzamiento de las polémicas mediante el sistema de réplicas y contrarréplicas eran las estrategias que determinaban la repercusión y la evolución de las exclusivas. Está claro que el reducido número de intermediarios de la información facilitaba su selección, distorsión y (llegado el caso) ocultación. En aquella época, el poder político lo tenía fácil para supervisar el tráfico de la información. Internet, como en los demás ámbitos en los que se la acusa de arramblar con lo bueno existente, no ha revolucionado nada como medio de información. Su desestructuración jerárquica y las capacidades de réplica que ofrece la tecnología informática son, en todo caso, las causas que han permitido su característico modelo de difusión, basado en la velocidad, la inevitable generación de toneladas de información no fiable o redundante y, por descontado, el desplazamiento de los administradores tradicionales (portavoces, boletines, jefes de prensa, agencias, diarios, televisiones....). No se trata de un nuevo modelo que amenaza al viejo, porque la calidad y la fiabilidad siguen siendo la ventaja competitiva de este último (en tanto que el volumen y la ubicuidad lo son del primero), el problema que se plantea es que cada usuario/consumidor es un potencial selector, emisor y/o transmisor de información, y quienes ejercen de receptores y se conforman con el acceso al primer nivel de información (la que aportan los titulares) pueden encontrar lo que buscan sin necesidad de abandonar la lista de resultados o en los diez primeros enlaces que devuelve Google. Los que desean profundizar un poco más recurren a su medio de referencia o contrastan entre diversas fuentes. Por extraño que resulte, el porcentaje de personas que hacen esto último no supera el 10% de la población mundial.

En 2003 la guerra del Iraq supuso un segundo mazazo en el desplazamiento de la centralidad de los medios tradicionales: fueron los usuarios/consumidores, desde sus blogs sin prestigio, quienes se atrevieron a publicar las fotos de los féretros de los soldados muertos, repatriados con total secretismo por la administración Bush. Cuando ya era imposible detener su difusión y resultaba evidente que se habían ocultado por motivos políticos, los diarios y cadenas de televisión reaccionaron tarde y mal apuntándose a un carro al que habían renunciado a subir. Y es que ellos, como tradicionales distribuidores de información, dispusieron antes que nadie de las fotos, pero antepusieron su sacrosanto derecho a la información (el mismo que tanto les gusta airear cuando son ellos quienes poseen una exclusiva) y se plegaron a las presiones de la Casa Blanca para no difundirlas. Prensa y televisión retrocedieron por este asunto otras quince casillas en el tablero.

El anticuado y orwelliano uso que hizo el gobierno de Bush --incompatible con la existencia misma de internet-- se encuentra en las antípodas del aprovechamiento de los mismos medios que hace su sucesor. Sin embargo, eso no ha supuesto una recuperación del prestigio perdido por parte de los medios tradicionales, sino que ha agrandado aún más la brecha entre ellos y los usuarios/consumidores. En todo caso éstos han confirmado que los usos que están haciendo de la tecnología a través de redes sociales, generando información o tejiendo redes propias, es útil y aporta beneficios a la comunidad (primer nivel de información, control del poder, propuesta de iniciativas...); es decir, la clásica actitud de ciudadano comprometido por la que los políticos han suspirado durante décadas (al parecer sin tomar en serio sus verdaderas consecuencias). Obama difundió sus mensajes durante la campaña presidencial a través de conocidas redes sociales como MySpace o Facebook, complementado con Twitter para compartir opiniones o distribuir enlaces a otros medios. Si el hombre más poderoso del mundo lo hace el resto no va a quedarse de brazos cruzados: cada vez más políticos de todos los países y ámbitos siguen su estela y esparcen sus oráculos por estos nuevos canales sin necesidad de recurrir a los intermediarios tradicionales (declaraciones, ruedas de prensa, debates). Los políticos, hartos de soportar preguntas en ruedas de prensa y asedios a la salida de actos (en definitiva, de someter sus propuestas y opiniones al debate público), prefieren lanzar sus dardos desde las trincheras. Hasta ahora lo máximo a que se había llegado era al envío de SMS a los móviles de los periodistas, que recibían pequeñas píldoras informativas sobre asuntos de actualidad (generalmente durante campañas electorales) como una forma de saltar a los titulares sin tener que organizar actos o convocar a los medios en sus sedes.

Los cambios en la política convencional que estas prácticas han provocado resultan palpables: ruedas de prensa sin opción a preguntas, vídeos institucionales que suplen a las comparecencias públicas, declaraciones difundidas directamente en internet. Recursos cada vez más habituales para ahorrarse respuestas a los críticos y matizaciones de dudosa convicción. Está claro que los intermediarios de la información tienen que reinventarse (y no desaparecer como los apocalípticos populistas se apresuran a vaticinar), porque no podemos prescindir de la información contrastada, fiable y de calidad. Políticos convencionales y demás parásitos del ecosistema: retrocedan otras quince casillas.

Resulta preocupante ver a los administradores del dinero público tan despistados ante cambios tan rápidos; sin embargo no nos parece tan grave que otros personajes públicos subviertan las bases sobre las que se asientan los ingresos que perciben directa o indirectamente por sus apariciones en los medios. Tras los políticos, los siguientes en la lista de los que desean filtrar a toda costa sus apariciones públicas (sin renunciar a sus beneficios, claro está) son los famosos: escritores, cantantes, actores, vividores, han descubierto en plataformas como Twitter, Tuenti, Facebook o MySpace un canal que les conecta directamente con sus fans, sin depender de ruedas de prensa, comunicados y, aún mejor, asesores que cuestan una pasta. Y además ganan en privacidad (algo de lo que suelen carecer), ya que pueden hacerlo sin salir de sus securizadas mansiones o desde sus móviles de cuarta generación.

Twitter es un servicio gratuito de microblogging que permite publicar mensajes de hasta 140 caracteres y que tus seguidores recibirán por correo, chat, incluso en su móvil. ¿A quién no le gustaría recibir una breve confesión pública de Scartlett Johansson en su móvil? Es como si te la enviara a ti solo. Lo curioso es que al principio el uso propuesto de la herramienta era que cada persona del planeta pudiera decir lo que estaba haciendo en cada minuto de su vida. Pero como siempre, es el usuario/consumidor quien determina qué uso hara de estas cosas, y al final resulta que quienes han establecido su utilidad mayoritaria son los famosos.

En abril de 2009 era aún un servicio emergente, del cual los periodistas apenas se hacían eco y usaban, pero cuatro meses más tarde Twitter se ha convertido en el modo preferido por los famosos para comunicarse con sus fans. La principal ventaja es que pueden puentear a la prensa, igual que los políticos. Además de usar Twitter, los famosos también han abierto su garito en Facebook, lo que les permite sumar seguidores y dar a conocer su agenda promocional de forma rápida y gratuita (fechas de conciertos, lanzamientos de líneas de ropa, singles). Los fans, por su parte, están encantados de estar enlazados con sus ídolos; aunque el exceso puede resultar contraproducente: por ejemplo, la página de Katy Perry en Facebook es especialmente prolífica, rozando el coñazo en la difusión de según qué eventos (casi estoy por darme de baja); o el Twitter de noticias de Pixar (upcomingpixar), que casi cada diez minutos lanza informaciones a cual más banal.



Dos botones de muestra dan una idea de lo que da de sí esta herramienta: Aston Kutcher --el marido de la actriz Demi Moore-- compartió con sus fans una foto que hizo a su mujer mientras planchaba en bragas. Ella se pilló un rebote considerable, y para conseguir su perdón pidió a sus seguidores que a la mañana siguiente le enviarán un "Te quiero" simultáneo, también por Twitter. Llegaron 3.600 y ella, claro, le perdonó. Otro actor --esta vez Hugh Jackman-- escribió: «Donaré 100.000 dólares a la ONG favorita de un usuario de Twitter. Por supuesto, debe convencerme en menos de 140 caracteres». Una historia pastel con final feliz (el género favorito del planeta Tierra) y un uso audaz que combina compromiso social y mercadotecnia.

En el mundillo del famoseo tampoco se puede asegurar que todo haya cambiado radicalmente con la irrupción de estas plataformas digitales: hasta entonces, bastaba que en un programa de TV, una película o una noticia se mencionara la existencia de un objeto, lugar, servicio o persona hasta entonces desconocido para que todo el mundo se lanzara a comprobar (=comprar) de qué se trataba. Ahora, cuando lo que se cita es una web, una aplicación o un servicio digital los beneficios de esta notoriedad sobrevenida son casi inmediatos, síntoma inequívoco de los tiempos que corren: incremento espectacular de tráfico, posicionamiento en buscadores, artículos y reportajes en medios tradicionales... Pero no sólo eso: cuando un suceso relacionado con famosos tiene lugar en esas plataformas el tráfico experimenta un subidón terrible, y las repercusiones y comentarios se expanden por infinidad de sitios similares. La misma pauta se repite cuando, de forma fortuita o no, algún usuario/consumidor salta del anonimato total a la fama planetaria (concursos, intervenciones televisivas, un éxito musical). La única variable que añade internet al mundo del famoseo tal y como lo conocemos es la velocidad y la inmediatez. Para todo lo demás, el gen del gregarismo.

Ya es hora de ir bajando el tono de las profecías y admitir que los nuevos canales digitales poco aportan a las formas de relación, de darse a conocer o de alcanzar un éxito fácil ya consagradas en el mundo analógico. Las cosas siguen más o menos como estaban: de entrada, desconocidas o no, las chicas jóvenes y monas con un punto de descaro tienen todos los números para triunfar, como Lyly Allen, Amy Winehouse, Paris Hilton o Lindsay Lohan.... El atractivo sexual es la gasolina que mueve la información (digital o no). Los hombres atractivos también se suben a este carro pero en menor medida, seguramente porque las mujeres no responden tan bien a estímulos tan bastos y básicos. A los demás seres humanos sólo nos queda la meritocracia, pagar por lograr notoriedad, regalar nuestras creaciones, o dar con el hit, la anécdota, el pelotazo o el momento fortuito que nos ponga en el candelero, como el extraordinario caso de Susan Boyle. No hemos evolucionado tanto como asegura más de un gurú, el sesgo testosterónico sigue determinando la cotización del mercado de los famosos.



Y para terminar una curiosa historia que viene de muy lejos y nos deja en el lugar más imprevisible. La legendaria decisión de Microsoft de diseñar su primer sistema operativo --el MS-DOS-- considerando que ocho bits serían suficientes para soportar el volumen de información que debía procesar cualquier software se reveló a los pocos años una decisión equivocada en extremo. Esta historia nos enseña que hasta los expertos supuestamente mejor preparados son capaces de meter la pata hasta el fondo, por muchos estudios superiores que acumulen. A continuación apalanco la metáfora de Carl Sagan sobre el funcionamiento del cerebro humano (en mi capítulo favorito de la serie Cosmos, La persistencia de la memoria) porque la necesito para mi razonamiento: el Puente de Brooklyn se construyó entre 1870 y 1883 justo donde estaba la estación de ferrys que unía Brooklyn y Manhattan. Décadas después, el primer túnel entre ambas orillas se perforó en el mismo emplazamiento del puente. La razón es que las principales vías de comunicación ya convergían allí desde los tiempos del embarcadero de ferrys, y se trataba de aprovechar lo ya existente. Pues el cerebro funciona igual: aprovecha las conexiones existentes, superpone capas de información una sobre otra, y para ello emplea vías y razonamientos conocidos con que levantar otros nuevos. La única diferencia es que nuestra mente funciona de un modo mucho más conservador, simultaneando las conexiones, mientras que los ingenieros cambian unas por otras (sustituyeron el embarcadero por el puente). El diseño de Twitter sigue la misma pauta: la limitación de 140 caracteres para sus mensajes no es un capricho, sino que se adapta a la red de telefonía móvil, de alcance mundial y con servicio SMS de serie. Al usar una red existente Twitter puede dar un salto cualitativo sin necesidad de generar él mismo los canales que necesitaría para crecer. Por eso asume la limitación de 140 caracteres, porque le interesa circular mediante SMS. La anécdota de Microsoft ilustra un caso de conexión fallida, mientras que Twitter parece haber aprendido de los errores de sus antepasados.

sábado, 11 de julio de 2009

Avances de (mi) verano 2009

Todo indica que la llegada de las vacaciones es inminente; y como cada julio --y que sean muchos más-- abandono mi hábitat urbano para embarrancar durante unos días en la playa. Llegaré allí con unas pocas aunque (espero) intensas lecturas, entre ellas la del periódico de cada mañana, incluyendo el ritual de ir a por él.

Las lecturas escogidas para estos días son Hombres salmonela en el planeta porno, un libro de relatos del inclasificable Tsutsui Yasutaka y Bobos en el paraíso. Ni hippies ni yuppies: un retrato de la nueva clase triunfadora de David Brooks, un irónico ensayo sobre esos nuevos e ingenuos pijos que ha producido la sociedad de la información y que pasan de la política pero pretenden cambiar el mundo a base de cultura.

Mientras llega el momento de retomar el dispositivo analítico-crítico que caracteriza a este blog, os dejo este cóctel audiovisual hecho de Wes Anderson (Viaje a Darjeeling) y OneRepublic (Stop and stare), dos buenos ingredientes que combinados resultan aún mejores y que espero os espolee hacia nuevas y trascendentes reflexiones sobre la vida (y el amor también) como lo ha hecho conmigo:



Y para compensar tanta ansia trascendental, una breve recomendación para estos días de descanso que es también una filosofía de la vida:

Pequeñas decepciones que nos sacan de quicio:

1. Darse cuenta al despertar de que no es el día de la semana que uno cree.
2. Perder un metro/autobús/tren/tranvía por muy poco.
3. Que no haya grapas cuando vas a grapar.
4. Cuando abres un medicamento y aparece el prospecto.
5. Cuando se nos adelantan por dos metros al entrar a un cajero.
6. Despertarse dos minutos antes de que suene el despertador.
7. Que nos cuelguen el teléfono en mitad de una frase.
8. Cuando decides correr para cruzar en verde y el semáforo empieza a parpadear.
9. Tener que abrir una maleta/bolso/taquilla cuando acabas de cerrarlo.
10. Cuando el bocado que has reservado para el final no es el mejor.


Nos leeremos!!!!

miércoles, 1 de julio de 2009

Profetas, apóstatas, conversos, renegados, iluminados y herejes de la nueva mercadotecnia digital

El pasado mayo se celebró en Barcelona el Practicioner Web Analytics, al que asistió Avinash Kaushik (más conocido por ser el autor del influyente blog Occam's razor), quien aprovechó para adelantarnos un par de ideas-fuerza de la nueva doctrina que moldeará el inmediato futuro: la mercadotecnia digital (para darle mayor énfasis al nuevo descubrimiento a la práctica antigua se le llama «mercadotecnia tradicional»).

1. Para empezar, algo que ya intuíamos sin necesidad de que viniera este hombre a predicarlo: que la Web 2.0, etiquetada como «social», será superada y sustituida por la Web 3.0, que será (por fin) la web semántica, y los buscadores entenderán qué queremos buscar porque sabrán interpretar el lenguaje natural, con sus adverbios y y polisemias, y por serán capaces de encontrar «el viaje más barato a EE UU» o «reserva hora con mi dentista el primer día de la semana que viene que tenga un hueco». Bueno, quizá así de sencillo no sea, pero bastante más que ahora.

2. La mercadotecnia tradicional y los principales canales distribuidores de publicidad (TV, prensa, revistas...) han defendido machaconamente durante décadas ante sus clientes (así que la idea no es nueva) que los atributos personales eran la forma de predecir lo que el usuario/consumidor deseaba (en función de su edad, nivel de ingresos y/o estudios, necesidades profesionales, sentimentales...). Por lo visto, dice Kaushik, esta teoría es fiable en un 20%, mientras que la mercadotecnia digital (basada en datos) mide comportamientos y puede alcanzar un 80% de fiabilidad. Desde luego es más democrática porque no mira quién eres, sino lo que clicas.



Yo me pregunto entonces: ¿Hasta que no ha surgido un modelo mejorado y/o más poderoso nadie se había dado cuenta de que trabajando con datos las predicciones eran más fiables y los resultados se acercaban más a lo esperado? Es un recorrido muy parecido al de la historia de la ciencia: mientras no apareció el paradigma de la relatividad no se aceptaron las limitaciones de la mecánica clásica. Con la televisión sólo se podía preguntar si un programa se había visto o no y sumar resultados; con Internet podemos conocer el qué, el dónde, el cómo y el cuándo de cada recorrido en clics de cada sesión de navegación. Las nuevas posibilidades nos han hecho comprender que hemos vivido bajo la dictadura de la mercadotecnia tradicional, que a falta de competidores podía pedir 100.000 dólares por cada emisión de un spot (precio medio). ¿Un precio tan alto por sólo un 20% de eficacia? No me extraña que las agencias de publicidad rebosaran dinero (y prestigio social y profesional); con estas circunstancias tan favorables lo raro es que no pidieran el doble.

Lo más sorprendente es que los conversos del nuevo paradigma no dudan en anatemizar a sus predecesores en el sector para colocar su producto. Poco importa que dejen en evidencia las estrategias de las agencias de publicidad tradicionales (las cuales, con el tiempo, se convertirán a la nueva fe y renegarán de la antigua como si nada); al fin y al cabo se trata de colocar productos y servicios y ante un reto así no caben corporativismos ni coherencias que valgan; basta con adaptarse a lo que diga el cliente y, si es necesario, defender lo contrario de lo que hasta ahora se consideraba una verdad incuestionable. En según qué profesiones y contextos uno no se puede permitir el lujo de tener una ética, y mucho menos si hay grandes cantidades de dinero. Puntualizo: cuando uno necesita la pasta lo último que desea es anclarse a una ética. El dinero es una condición suficiente, no necesaria.

Quizás también te interese:

Plugin para WordPress, Blogger...

PrintPDF