Translate

jueves, 22 de enero de 2009

Materiales en un mundo espiritual

Hoy quiero hablar de fronteras físicas en Internet, algo así como si le diéramos la vuelta al título de aquella canción de The Police (Spirits in a material world).

Hace tiempo que se viene señalando la paradoja de una red universal en la que es muy complicado (por no decir imposible) establecer límites o fronteras que ayuden a gestionarla (y a controlarla, por supuesto). Aun así, algunas diferencias saltan a la vista: idiomáticas, de uso, estilo... Sin embargo, en lo que se refiere a los límites legislativos --claramente establecidos para el mundo real-- no se ha avanzado prácticamente nada, de manera que el ordenamiento de la actividad en Internet y la resolución de conflictos se hace a imagen y semejanza de lo existente para el mundo físico, olvidando que hay unos puntos de partida que determinan y exigen un nuevo punto de vista. En la práctica, cada país (básicamente los occidentales) se ha dotado de leyes que pretenden organizar su propia actividad interna por parte de las empresas que operan legalmente en el país (comercio, trámites, publicidad, información, ocio...), sobre las que tienen jurisdicción. Las incoherencias aparecen, por ejemplo, en materia de protección de datos personales: la legislación española establece al respecto que los servidores que alojen datos personales deben estar ubicados en territorio español. Parece una medida bienintencionada pero ¿qué pasa con el montón de datos que hemos facilitado a webs de vete-a-saber-de-dónde-son y que los guardan donde les parece? ¿Quién me protege en estos casos? ¿Cómo puedo saber a qué legislador nacional dirigirme? No está claro que los asesores habituales del usuario/consumidor --ni las instituciones oficiales-- sepan a qué atenerse en caso de que eso suceda, porque el laberinto de sociedades interpuestas y los cauces de comunicación oficiales establecidos por los legisladores de diferentes países retrasan, entorpecen y/o impiden actuar de forma reactiva (y mucho menos preventiva). Esto en el caso de datos personales, ya no hablemos en caso de fraude o reclamaciones comerciales.

El espacio es un concepto que únicamente tiene sentido en Internet para referirse al lugar desde el que accedo a la red: mi correo profesional está alojado en Madrid, mientras que yo trabajo con él desde Barcelona; mi correo personal está en EE UU (al menos eso creo, ya que desconozco si Google mantiene servidores fuera del territorio estadounidense), y los mismo pasa con mis blogs. Esto puede ser un problema en caso de que la justicia española tenga que intervenir, puesto que no tiene jurisdicción más allá de sus fronteras. Sí claro, hay mecanismos para salvar estas dificultades, pero complican estrepitosamente el proceso, perdiendo un tiempo que, en ocasiones, deja sin sentido las causas que lo pusieron en marcha.

De manera que, existe una única red que --en la práctica-- carece de fronteras y se resiste a dejarse parcelar. Ahora bien, lo que sí hay son otras redes actuando por debajo de la que conocemos, con sus flujos y sus nodos. A mi modo de ver, además de Internet, hay dos más por debajo:

1. En la superficie, el usuario/consumidor observa e interactúa sobre un continuo de páginas y servicios en el que no distingue naciones, tan sólo idiomas y direcciones. Navegar por ella es conocerla, pero es imposible abarcar sus límites, su densidad o sus accidentes.

2. Debajo de ésta se extiende la red legal de propietarios y titulares de derechos de marcas y sedes que aparecen en Internet, dibujando una telaraña que tiene sentido exclusivamente a nivel legal y jurídico (son esos rollazos sobre condiciones del servicio o de uso que nadie lee pero todo el mundo acepta). Es posible deducirla de forma limitada estudiando su contenido.

3. Debajo de la segunda red está la tercera y última, compuesta por las máquinas físicas que alojan los archivos y los ejecutables que dan vida a lo que el usuario/consumidor percibe en su pantalla y que tampoco tiene nada que ver con las otras dos. Es imposible deducirla porque no sabemos qué contiene cada máquina ni en qué parte del planeta está ubicada
.

Si tuviéramos un mapa de cada una veríamos que el diseño y el tráfico circulante no se parece en nada, pero al exponerlos uno sobre otro ante una bombilla (imaginemos que están hechos en papel cebolla y que somos Tintín en El secreto del Unicornio) los dos últimos compondrían --de forma milagrosa podría creer alguno-- un isótopo de la World Wide Web, la red que flota en la superficie. Siendo la tercera necesaria por definición, el problema consiste en poner orden en la segunda sin estorbar ni limitar las bondades de la primera y la tercera.

Las fronteras realmente existentes de la primera red son el idioma, el funcionamiento efectivo de las aplicaciones y la competencia del usuario/consumidor. Las de la segunda las legislaciones respectivamente nacionales. Las de la tercera el planeta Tierra, o ni siquiera eso, puesto que es posible que en un futuro no lejano los servidores estén alojados en el espacio. Mientras que para las dos primeras existe margen para la mejora y los cambios (el usuario/consumidor puede adquirir destreza, o aprender idiomas, y los legisladores ponerse de acuerdo para aprobar leyes de ámbito supranacional), para la tercera es imposible establecer límites más allá de la mínima infraestructura física (ordenador, unidad de almacenamiento, conexión a red), por lo que es una variable incontrolable, algo así como las actuales políticas de contención la natalidad en el Tercer Mundo.

Al fin y al cabo, el usuario/consumidor prefiere escoger en un mercado de alcance mundial, no necesariamente limitado a las fronteras geográficas, con la esperanza de dar con el mejor precio posible; y lo mismo sucede con los agentes del lado de la oferta: prefieren trabajar en un mercado sin trabas, que les permita sortear directivas y decretos laborales y financieros. Las innumerables fórmulas de alojamiento web facilitan enormemente este objetivo: housing, hosting, cloud computing... El propietario de la información es el responsable ante terceros, independientemente de dónde resida físicamente, el problema para el poder judicial reside en controlar a los proveedores que ofrecen espacio en/a sus máquinas para alojar todo tipo de contenidos que escapan a su control, ubicados en las antípodas del domicilio social de la empresa que paga. ¿Deberían estos clusters considerarse una especie de zona franca o deberían soportar una vigilancia exhaustiva y dotarse de un estatuto especial para prevenir fraudes y facilitar intervenciones rápidas? ¿Deberían los propietarios de la información declarar la ubicación exacta de los archivos y ejecutables, mantener una especie de mapa físico de sus sedes web, de modo que supiéramos que los datos están en Sevilla, el catálogo de productos en Vancouver y la administración en Delhi?

Poner fronteras a Internet no es una utopía propia de la ciencia-ficción, es cuestión de modificar ligeramente las puertas por donde pasa el tráfico de un país (por poner un ejemplo equivalente), de manera que sólo entre o salga lo que interesa. No es necesario filtrar por contenido ni por origen ni por destino de la información, se puede hacer a nivel protocolo: basta con obligar por decreto a las empresas de telecomunicaciones que si quieren operar en el país deberán modificar el protocolo de transporte para que los routers discriminen el tráfico interno, incluso bloqueen el saliente y/o impidan el entrante. China lleva tiempo planteándoselo, tan preocupada como está por la información a la que acceden sus habitantes sin supervisión gubernamental.

¿Un mundo tan etéreo necesitará leyes igual de etéreas? ¿Llegaremos a ver una especificación del protocolo TCP/IP auspiciada por el Parlamento Europeo? Creo que es cuestión de tiempo que se rompa la unidad primigenia de Internet y florezca una Babel de protocolos auspiciados por instituciones, gobiernos o grupos de interés.

lunes, 12 de enero de 2009

Nuevo positivismo digital (X): El sueño de Bradbury, la economía de la «Edad de la Copia» y el mito de la autogestión

Nuevo positivismo digital: I, II, III, IV, V, VI, VII, VIII, IX

Poco podía imaginar Ray Bradbury que su profecía acerca del colapso de la sociedad libresca --descrita en su novela más conocida Fahrenheit 451 (1953)-- resultaría tan poco atinada. Pero como los errores de bulto son la pauta mayoritaria en la ciencia ficción pues no sirve como síntoma ni indicio de nada. En el siglo XXI los libros siguen inundando el mercado y gozando de un prestigio social e institucional intacto (no así su modelo de negocio, aunque este aspecto de momento no resulta determinante). En lo que sí acertó Bradbury es a describir las consecuencias de un mundo que diera la espalda al usuario/consumidor (en este caso lector): si los libros están prohibidos siempre habrá quien se los aprenda de memoria para que no caigan en el olvido. El indudable romanticismo de esta imagen es sin duda una de las claves del éxito de la novela: seres humanos convertidos --por voluntad y convencimiento propios-- en el dispositivo viviente de salvaguarda y transmisión de textos tan fundamentales como Rojo y negro (1830), Madame Bovary (1857) o Guerra y Paz (1869). El efecto no sería el mismo si las obras en cuestión fueran clásicos populares del estilo ¿Por qué los hombres no escuchan y las mujeres no entienden los mapas? (2001), Cómo adelgazar follando (2003), Quién se ha llevado mi queso (2006) y otras sandeces similares. Es que no me imagino a nadie haciendo un esfuerzo para aprendérselos, igual que tampoco concibo que se pueda hacer lo mismo con algunos clásicos indiscutibles de casi mil páginas, como Moby Dick (1851). Aunque si hay personas con tiempo y ganas para aprenderse de memoria todas las alineaciones titulares de clubes de fútbol centenarios pues no seré yo quien cuestione semejante reto, que tiene que haber gente para todo.

Estamos a principios del siglo XXI y la cultura escrita no está prohibida, al contrario, conoce un auge promocional inédito que coincide con unos mínimos históricos en cuanto a porcentaje de lectores habituales (que desciende sin parar desde hace años). Por si fuera poco, este paradójico esplendor se ve cortocircuitado con una fuerte tendencia, desde el lado de la oferta, a la restricción de la copia no supervisada por los agentes del mercado. Las únicas copias que se consideran decentes son las que se obtienen a través de los canales establecidos por los antiguos propietarios del mercado cultural, una etiqueta que ellos mismos administran y adjudican a discreción [loc. adv. 2]. Toda la cultura obtenida fuera de esos canales es denostada, perseguida y condenada; no se le reconoce validez ni utilidad alguna, ya que su pecado está en su origen: no proceder de los canales sancionados por el mercado. Es irrelevante si aprovecha a quien la disfruta o genera un consumo adicional, para los agentes del mercado es ilegal y por tanto debe desaparecer por decreto. El espectacular auge de la tecnología de réplica digital ha provocado un intenso debate al respecto en el que todos teorizan, pontifican y/o arriman el ascua a su sardina: entre los usuarios/consumidores se extiende una esquizofrenia malsana según la cual todos acceden en privado a la cultura fuera de los canales establecidos por el mercado, pero no lo admiten en público; desde el lado de la oferta, por su parte, tratan de adelantarse a la debacle anunciada de sus oligopolios convirtiendo en delincuente a todo aquel que no consuma cultura tal y como ellos la conciben y la suministran.

La cultura no siempre ha sido un rehén del mercado; empezó a serlo cuando se inventaron los sistemas de replicado masivo (estamos hablando de principios del siglo XX), lo que permitió convertir la cultura tradicional, hecha a la medida de la capacidad de transmisión de los creadores, en cultura de masas, concebida para adaptarse a las necesidades de los medios de comunicación. Una cosa no se entiende sin la otra, y el cambio de costumbres que va de una a otra puede parecer inocuo pero explica muchos fenómenos actuales. Aun así, ni lo bueno ni lo malo duran eternamente: después de 100 años de calma en el mercado cultural parece que el usuario/consumidor ha encontrado una puerta no vigilada y amenaza con provocar un vuelco que devuelva la cultura a los tiempos anteriores a la economía de la Edad de la Copia. Antes de que el mérito de los creadores se midiera por el número de copias endosadas, éstos subsistían y adquirían fama a base de apariciones en público. La economía de la Edad de la Copia característica de la cultura de masas supuso una alternativa a ese estilo de vida: hubo quienes la adoptaron unilateralmente porque les liberaba de la servidumbre de la carretera, otros la rechazaron por completo porque perdían el contacto con su público, y otros trataron de encontrar un punto intermedio entre ambas. La primera postura es la que ha impuesto la cultura de masas, pero se ve amenazada por la pérdida de valor de las copias. ¿Qué pasará cuando la mayoría de usuarios/consumidores no esté dispuesta a dejar de consumir cultura pero sí a pagar por las copias? ¿Dejarán los creadores de producir cultura? Mal que les pese, tendrán de pasar por el aro y adaptarse. No es cierto --tal y como vaticinan las agoreras campañas gubernamentales-- que la cultura vaya a desaparecer, la que está en trance de desaparecer (más bien mutar) es una cultura de masas basada en la copia a la que estamos tan acostumbrados que parece inmutable y sagrada. Lo que no desaparecerá nunca es la emanación que lleva a los seres humanos a crear; otra cosa es que el contexto social (y tecnológico en este caso) determine la forma en que se manifiesta y sobrevive. Yo creo que la cosa irá por aquí: los artistas no consagrados y los que empiezan se verán obligados a regalar su música, sus textos, sus películas, incluso a pagar por publicarlos y distribuirlos; y sólo la minoría que consiga una masa crítica de seguidores estará en condiciones de acceder a la elite que cobra por lanzar sus productos. Los contratos de publicidad, las apariciones públicas y/o la mercadotecnia creativa, compensarán la parte que llega a los usuarios/consumidores de forma gratuita. La riqueza asociada a la fama y al mérito artístico vendrá a partir de entonces desde ámbitos no directamente relacionados con su actividad (Avril Lavigne, por ejemplo, ha lanzado su propia marca de ropa), y no creo que a ningún artista consagrado le importe, porque el resultado será el mismo: ingresos que compensan el descenso en la venta de copias. Puede que a los puristas les escandalicen semejantes apaños, pero los usuarios/consumidores no hacemos las normas, como último eslabón de la cadena que somos, únicamente las disfrutamos.

Ahora le toca al mito de la autogestión. Ya lo escribí en otra parte pero lo vuelvo a hacer: sin estructura y sin financiación cualquier comunidad libre, abierta, no profesional, no oficial, no institucional, no sancionada por ley, no formalmente representativa, se viene abajo, pierde fuerza, se desintegra cuando el tema o acontecimiento que las hace florecer pasa de moda. Las únicas con posibilidades reales de seguir adelante son las compuestas por una suma de individualidades cuyos intereses coinciden en la misma dirección y deciden coordinarse explícitamente en un centro de mando jerárquico. Resulta paradójico que sea la acumulación misma de iniciativas particulares lo que provoque visibilidad al fenómeno, y no los planteamientos iniciales ni las motivaciones personales. Aquí se aplica el mismo principio que en los documentales televisivos sobre fauna: cuanto más grande es el bicho más éxito tiene, lo de menos es el tratamiento interno de la información. Ahí están por ejemplo las analógicas comunidades okupas, perdiendo toda su fuerza más allá las paredes de la casa «okupada». En lo digital a la blogosfera le sucede exactamente lo mismo: una comunidad desestructurada de individuos que da salida a una emanación creativa, con infinitas motivaciones (terapéuticas, onanistas, comerciales, profesionales, de ocio...). La pasión creadora y --en casi todos-- el deseo de darse a conocer es la gasolina que la alimenta. La acumulación ingente de blogs es lo que otorga visibilidad al fenómeno, puesto que apenas un 1% genera información de retorno y posee influencia más allá de su ámbito inmediato (gurús, famosos, casos extremos/curiosos...). En eso consiste el mito de la autogestión: cuando se contempla desde dentro parece que la fuerza de la comunidad reside en su interior, cuando en realidad es el fruto de la espontaneidad y la acumulación de iniciativas paralelas. La renuncia o resistencia a estructurarse por definición es la causa principal de su escasísima capacidad para provocar cambios más allá de breves estados de opinión. No hay más que situarse fuera de ellas para comprobar que es una triste verdad.

En cambio, las comunidades que se dotan de una elite gestora/administradora --no elegida, sino erigida por implicación, involucración, conocimientos y/o antigüedad-- que supervisa al resto tienen mayores posibilidades de escapar a la maldición entrópica de las comunidades asamblearias. A diferencia de las anteriores, esta incipiente estructura sí supone una amenaza directa al statu quo, y en ese sentido se pueden considerar subversivas. Este tipo de comunidades encuentran resistencias para desarrollar su actividad (o como mínimo provocan consecuencias en los ámbitos en los que se desenvuelven), puesto que su existencia misma produce cambios no deseados ni previstos que afectan al conjunto de vicios privados y virtudes públicas establecido por correlación de fuerzas en el sector. El ejemplo canónico de comunidad analógica de este tipo son las doctrinas alternativas surgidas frente a los principios de la fe establecidos por el catolicismo apostólico-romano (vulgarmente conocidas como «herejías»), reprimidas a sangre y fuego durante siglos por su amenaza al monopolio espiritual e institucional establecido por Roma. Pero no nos vayamos tan lejos en el tiempo y ciñámonos a lo digital: Wikipedia ha supuesto la sentencia de muerte para el sector de las enciclopedias en papel, esas que nadie se libraba de adquirir en un momento u otro de su vida, provocando de paso que todas se convirtieran a las ediciones en línea de la noche a la mañana. Pero no sólo eso, Wikipedia ha acabado con uno de los mitos más arraigados del saber enciclopédico: el de la minoría selecta de expertos como la única capacitada para establecer conocimiento autorizado; ha evidenciado el sesgo elitista en la distribución y filtrado de contenidos en las enciclopedias clásicas y, finalmente, ha universalizado la gratuidad en el acceso a la información, la cultura y el conocimiento humanos. Hoy día, gracias a todas las enciclopedias surgidas tras el Big Bang de Wikipedia, no hay una sola que se plantee el acceso de pago o restringido, esté abierta a todo tipo de materias, hechos y personajes y, por último, admita la posibilidad (limitada o no) de aportaciones individuales. Si no fuera por Wikipedia, el saber enciclopédico todavía seguiría bajo la dictadura de los eruditos.

No se vayan todavía, que aún hay más: las redes P2P son presentadas, desde el lado de la oferta de pago que sufre su competencia, como auténticas herejías cuyo objetivo es devastar La Cultura (ele mayúscula, ce mayúscula) y traer calamidades sin término a la Civilización Occidental (ce mayúscula, o mayúscula). Sin embargo, a pesar de estar tan extendido su uso entre la comunidad de usuarios/consumidores, todavía no se conoce ninguna industria cultural multinacional que haya entrado en números rojos, o de algún artista consagrado que haya quedado en la indigencia debido al descenso del número de copias vendidas (otra cosa es que éstos dilapiden sus fortunas por ineptitud propia). Aquí sucede igual que con la blogosfera y los consultores y analistas que se sienten amenazados ante el crecimiento de una competencia de advenedizos y recién llegados: la pataleta de los que dominaban el mercado antes del boom es inevitable. Los consultores y las industrias culturales deberían mirar más allá y ver que el principio de los vasos comunicantes impondrá su ley en esta polémica artificial sobre «buenos» y «malos».

Y para terminar, un caso más: la comunidad libre que trabaja para su propio beneficio pero cuyos resultados van más allá de sus objetivos inicialmente previstos. Estoy hablando de los subtituladores: fans de series de éxito que no se resignan a esperar a que las televisiones de sus respectivos países las doblen y las emitan en condiciones aceptables. La tecnología y sus conocimientos de lenguas extranjeras --en ocasiones como práctica-- les llevan a puentear los canales de distribución establecidos y disponer, apenas tres días después de la emisión original de cada capítulo (básicamente en EE UU), de los correspondientes subtítulos. En esta historia las únicas que salen perdiendo son las televisiones y su prehistórico convencimiento de que todavía es posible ignorar la mayoría de edad de las audiencias. Puede que Internet no haya generado una comunidad realmente subversiva, pero sí muchas otras capaces de modificar sustancialmente el mercado que hemos conocido durante décadas.

El surgimiento de comunidades de aficionados sin ánimo de lucro se produce en Internet como reacción a un servicio que cuaja entre los usuarios/consumidores o como alternativa mimética y gratuita a la que propone el mercado de pago. La existencia misma de canales ajenos lleva a los gurús del lado de la oferta a un doble convencimiento: 1) que es imposible dar con un modelo de negocio rentable sobre plataformas abiertas y 2) las tecnologías esclavas son las únicas que pueden generar beneficios. El futuro tiene toda la pinta de un mundo al revés, entre la herejía y la boutade: pagaremos por colocar nuestras creaciones en Internet (Lulu). De momento ya estamos pagando para que nos suministren espacio, medios y/o visibilidad a nuestras iniciativas individuales.

Quizás también te interese:

Plugin para WordPress, Blogger...

PrintPDF