Translate

jueves, 28 de junio de 2007

¿Para qué queremos la información si no la usamos?

La realidad parece empeñada en dar la razón a la vieja idea estructuralista (hoy totalmente superada y desmentida) de que nuestra mente trabaja más cómoda a base de oposiciones binarias, las cuales nos sirven para simplificar (grave error), ordenar y comprender el mundo. En lecturas recientes he encontrado algunos conceptos que me he entretenido en agrupar así... Ahí van algunos ejemplos: obediencia crítica/desobediencia civil; pobre relativo/mileurista. Pero es la de nativo digital/inmigrante analógico, establecida explícitamente por Juan Cueto, a propósito de la brecha digital que se establece inevitablemente entre generaciones, la que más me llama la atención. Y lo hace porque creo que define perfectamente el concepto de bisagra entre lo analógico y lo digital que representamos esta generación que no es enteramente X ni Y, sino algo así como una Generación PDS (Puro Darwinismo Supervivencial) en la que la adaptación a los constantes cambios es la única pauta destacable. Aseguramos no casarnos con nadie ni creemos sinceramente en nada, pero nos apuntamos a todo con tal de no parecer unos anticuados carrozones. Somos adultos empeñados en imitar los modelos juveniles, lo cual desorienta a los mismos jóvenes y les hace creer (erróneamente) que son ellos quienes deben tirar del carro. Como dice Joan Barril, somos adultos que hemos crecido sin hacernos mayores. Y como añado yo: esta paradoja no modifica el hecho fundamental de que seguimos ocupando, como adultos, todo el espacio disponible, de manera que no dejamos de comportarnos como si fuéramos jóvenes pero tampoco dejando que los que vienen detrás ocupen ámbitos que, por edad y actitud, les pertenecerían. Lo queremos todo, lo queremos ya y lo queremos por siempre. No me extraña que haya tanto desbarajuste social si en lo individual estamos tan desorientados.

Esta sensación de desbarajuste se extiende incluso a cosas que, en condiciones normales, nos parecerían de sentido común: como esos reportajes sobre empresas emergentes y de moda (casi siempre tecnológicas) en las que se hace hincapié en lo informal del atuendo de los trabajadores, la flexibilidad de los horarios, las instalaciones dotadas de tentadoras zonas de ocio... En fin, lo contrario a todos los elementos que han caracterizado siempre la cultura del trabajo durante décadas: uniformidad, rigidez, austeridad... Algún ingenuo creerá que esas empresas son la avanzadilla de lo que será el ambiente laboral en los próximos años, o la prueba fehaciente de los nuevos aires que soplan para la gestión de los recursos humanos que acabarán afectando (afortunadamente) a la empresa que les contrata. La triste verdad es que estos trabajos en plan parque temático sólo se pueden ver en sectores muy concretos (tecnología o servicios), cuyos ingresos sean tan astronómicos como para permitir tales dispendios extras. Francamente, no me imagino una pista de deportes para solaz de estresadas mentes pensantes (como la que aparecía en una foto de la sede de Google) en, pongamos por caso, una empresa de transportes. Volvamos al planeta Tierra y asumamos que para el resto de mortales siguen vigentes las normas de toda la vida.

Todos esos ambientes distendidos y flexibles son el vivero en el que crecen las ideas, ideas que se espera produzcan mucho dinero, de ahí el dispendio y la flexibilidad. Nunca se muestra el reverso de la moneda: la exigencia no escrita de disponibilidad permanente y las jornadas laborales de 14 o más horas; como tampoco se mencionan las premisas que debe asumir cada cual para aspirar a un estilo de vida tan "libertario": la responsabilidad en la distribución del tiempo y la eficacia en la gestión de las tareas. En versión para el usuario/consumidor: sin horarios no hay manera de distinguir entre tiempo de ocio y de trabajo, y en un contexto así la opción por defecto es que cualquier tiempo es, por definición, de trabajo. Esa es la cara oculta que desvela Microsiervos, la novela de Douglas Coupland, en la que, formando parte del paisaje en el que se desarrolla la historia, aparecen las enormes contrapartidas vitales que exige trabajar en Microsoft, la empresa paradigma de la modernidad a la que muchos no dejan de aspirar.

viernes, 22 de junio de 2007

Nuevo positivismo digital (IV)

Nuevo positivismo digital (I)
Nuevo positivismo digital (II)
Nuevo positivismo digital (III)

No son pocos los que señalan la paradoja que supone hablar de una sociedad de la información que genera demasiada información. A comienzos del siglo XXI se estimaba que Internet estaba compuesta de unos 4.000 millones de páginas y crecía a un ritmo de 7 millones al día; que se intercambiaban diariamente cerca de 8.000 millones de correos electrónicos; y que cada hombre mujer o niño en edad y con capacidades mínimas para manejar un ordenador generaba anualmente alrededor de 250 Mb de información personal (el equivalente a unos 500 libros de longitud media). Este último dato, teniendo en cuenta el auge experimentado por las redes de intercambio de ficheros, seguro que habría que revisarlo muy al alza.

En estas condiciones, ¿cuál debe ser nuestra respuesta como usuarios/consumidores? Evidentemente, filtrar, desmenuzar y/o rebuscar entre todo el aluvión de datos, normalmente descontextualizados y sin sentido, que se nos viene encima desde todas partes. Aunque la industria del software tiene su propia estrategia para resolver el problema: partiendo de la premisa (sacada de sus informes de expertos) de que tan sólo el 15% de la información está estructurada y que ésa es la que nos resulta realmente útil, propone diseñar sistemas que permitan etiquetar (el primer nivel de la estructuración de la información), aunque sea mínimamente, el 85% restante. Es decir: si antes debíamos revisar una parte pequeña de nuestras búsquedas (porque su bajo porcentaje respecto al total nos permitía extraer más fácilmente conclusiones), si hacemos caso de las nuevas aplicaciones, ahora deberemos hacer lo mismo con una cantidad mayor de datos. Es decir, la paradoja del exceso de información se resolvería ampliando el universo de datos a tener en cuenta. Me pregunto si realmente el negocio de los gestores de información no se encuentra en la saturación misma, no en sus capacidades como gestores.

Otros en cambio, renuncian a dar con algoritmos cada vez más sofisticados de filtrado y ordenación de los resultados y prefieren que ese trabajo lo realicen los usuarios/consumidores. Una de las causas del éxito de la Web 2.0 es que cede la iniciativa de la estructuración a las personas, que son quienes establecen los límites al territorio de sus búsquedas. La experiencia dice que la mayoría se centran en lo cercano conocido y en lo escaso conocido (Francis Pisani dixit): a pesar de las distorsiones coyunturales y los errores de concepto, está claro que los beneficios son claramente superiores a los inconvenientes. La gente es el mejor y más barato algoritmo que existe.

La cosa es que, tanto desde la estrategia de los algoritmos de búsqueda como la del crowdsourcing, el error de fondo es el mismo: creer que una productividad y una racionalidad de la comunicación basadas exclusivamente en parámetros tecnológicos suponen un progreso social y cultural. Al contrario, cuanto más próximos estamos unos a otros más evidentes se hacen las diferencias y más necesario garantizar la coexistencia: “¿Por qué esta ingenua idea, según la cual la omnipresencia del ordenador y de la televisión cambiará radicalmente las relaciones humanas y sociales, se ha impuesto de un modo tan fuerte y tan atractivo? ¿Por qué asistimos a esta tecnificación de la comunicación y de la sociedad?” se preguntaba Dominique Wolton en su obra Internet ¿y después (1999). Hay que ser un ingenuo –-escribe Wolton–- para creer que el auge de las tecnologías llevarán a la sociedad y a la cultura a adaptarse a los cambios, cuando desde siempre ha sido al revés: la tecnología es la que va detrás de los cambios sociales y culturales, encontrando su lugar en los cambios que se producen.

Quizá una de las razones de esta inversión sea que a partir de Einstein y de Heisenberg la ciencia abandonó definitivamente el campo de lo discernible en las categorías y ámbitos que los no iniciados podíamos asimilar. Hasta entonces, a los profanos en física nos bastaba con comprender el entramado teórico y argumental de las teorías propuestas para –-sin entrar en los detalles de la demostración matemática-– poder seguir al día en los avances de este campo. Pero desde la teoría de la relatividad especial (1905) y el principio de indeterminación (1927), la física parte de premisas que a un no iniciado le resultan difíciles de seguir sin una buena base previa: es necesario asumir la inexistencia de marcos de referencia absolutos tal y como hasta entonces se conocían (el espacio y el tiempo), la unidad esencial entre materia y energía, la imposibilidad de medir simultáneamente la posición y el ‘momento lineal’ de una partícula... Se trata de supuestos que plantean una inseguridad inicial, un relativismo en cuanto a los principios básicos que resquebrajan nuestro edificio de seguridades físicas hecho de absolutos cotidianos. Desde entonces los científicos han ido avanzando en sus descubrimientos, pero también han aumentado la distancia a la que el resto de la sociedad podíamos seguirles. Sólo alcanzamos a comprender parcialmente sus esfuerzos cuando sus descubrimientos se plasman en alguna utilidad práctica; es decir, cuando la investigación básica se convierte en investigación aplicada y accede al mercado. Esto vale también para todo lo que tiene que ver con la informática: por ejemplo, sigo siendo incapaz de comprender cómo es posible generar entornos gráficos tan perfectos a partir de unos y ceros, de cargas eléctricas positivas y negativas. Como usuarios/consumidores que somos, únicamente se espera de nosotros que seamos parte del proceso de decisión (de compra).

Para valorar la revolución que se ha producido en los últimos 25 años (estoy pensando en 1982, el año de la aparición del ordenador personal) habría que rehacer toda la historia reciente de la tecnología informática; porque, como suele decirse, los árboles no dejan ver el bosque. Desde que la ciencia es patrimonio de las grandes corporaciones (las únicas que pueden costear las investigaciones de la era subatómica), desde que las universidades y los pioneros han quedado difuminados en los grandes proyectos de esas mismas corporaciones, lo único que podemos ver son logros parciales convenientemente disfrazados de productos dirigidos al usuario/consumidor. Los investigadores ya no son personas con nombre y apellidos, son empresas que protegen sus hallazgos como si de secretos de Estado se tratara. Desde fuera resulta imposible hacer una valoración del camino recorrido, porque desconocemos los hitos técnicos intermedios que han posibilitado los mismos productos que se comercializan de forma masiva. Para seguir escribiendo la historia de la ciencia, al menos en los términos a los que estamos acostumbrados desde Newton, es necesario apartar todo el marketing empresarial y aislar los logros científicos. La presión comercial y la avidez de los beneficios han eclipsado por completo el proceso en términos de avance científico y lo han sustituido por otro de lanzamiento de productos.

Por desgracia, los medios de comunicación no contribuyen mucho a enderezar esta distorsión; se hacen eco del discurso de las multinacionales en los momentos clave, adoptando una postura acrítica, lo contrario de lo que harían por principio ante cualquier otro acontecimiento (especialmente político o social). Los medios de comunicación, lo mismo que los políticos, precisamente porque es un tema que desconocen o en el que se sienten inseguros y temen ser acusados de retrógrados si no lo publicitan como un avance, se limitan muchas veces a hacer de caja de resonancia y a repetir lo que dice la nota de prensa.

Mientras tanto, los escritores, los ensayistas, los filósofos y los científicos sociales, un tanto ajenos a las transformaciones de toda esta evolución, o bien se aproximan a este futuro tecnológico todavía bajo el síndrome de 1984 (la novela), vaticinando el enésimo y definitivo declive de la cultura; o bien adoptan también una postura acrítica respecto a las tecnologías de la información, como si fueran la solución a todos los problemas derivados de la desigualdad social, en un tono muy parecido al que usaron algunos antecesores suyos con las posibilidades reformadoras del comunismo en los años veinte del siglo XX.

Internet ha generado en la ciencia social un discurso inexacto de igualdad, una imagen de mercado ideal en el que todo aquel que se conecta a la red está en disposición de competir sin interferencias, de expresar su opinión (incluso de influir en los que se conectan), y de un cambio sin precedentes en la cultura del trabajo. El inmovilismo legislativo de Occidente en temas como el teletrabajo y la conciliación de horarios es la mejor prueba de la prácticamente nula repercusión de estos cambios en el mundo real. Tomemos un ejemplo: el concepto de sociedad red, acuñado por Manuel Castells, no es un paradigma inédito para explicar las nuevas relaciones económicas, ni es un concepto privativo de la era digital, sino que ha existido siempre. Las instituciones, las empresas, la sociedad civil, siempre han funcionado a base de relaciones, tendiendo circuitos, potenciando flujos, estableciendo canales, adaptándose a las facilidades que proporcionaban las relaciones entre individuos o instituciones estratégicamente situados ("estratégicamente", esta es la palabra clave, el modelo tecnológico es coyuntural). Internet ha potenciado al máximo esta forma de organización gracias a la anulación de distancias y hasta de tiempos; pero esas redes se pueden encontrar en la historia de todos los imperios que han existido sobre el planeta.

La ubicuidad de la tecnología digital (en prácticamente todos los ámbitos) tiende a hacer creer que se trata de un proceso que se impone de forma natural, mediante una especie de voluntad propia; como si una vez sentadas las bases tecnológicas el propio proceso estableciese sus estrategias de perpetuación y expansión. Vicente Verdú considera que Internet "actúa como una fuerza autónoma que se impone con la misma ley fatal de la naturaleza y también reproduciendo la tendencia de nuestro presente proclive al poder autónomo de las cosas. Al poder autónomo del Virus, de Internet o del Mercado". Y en parte es cierto, es como si nuestra cultura prefiriera otorgar capacidades autónomas a fenómenos que se nos escapan por su vastedad o complejidad. Pero, vista en su contexto, la realidad es que ni el mercado ni Internet son fenómenos ajenos al ser humano, son entidades diseñadas y fomentadas por y desde instituciones con intereses bien definidos, aunque quizá no siempre explicitados. No estoy hablando de conspiraciones ni de que nos escamoteen la realidad, sino de que si Internet nos rodea por todas partes es porque hay gente que ve en ella un potencial de beneficio, no siempre ni necesariamente de progreso.

Si la realidad digital se está haciendo tan compleja es porque la ciencia que hay detrás de ella se ha vuelto tan opaca que nuestra primera reacción ha sido dimitir en el intento de comprender el mundo; la segunda aceptar con alegría o resignación nuestro papel de usuarios/consumidores y pasar de ser audiencia televisiva para convertirnos en tráfico de Internet.

(continuará)

viernes, 15 de junio de 2007

Ordenadores sensorialmente discapacitados

Puede que cuando los ordenadores hayan superado la mayoría de sus actuales barreras sensoriales nos parezca que crecimos con una informática increíblemente limitada y, de la misma forma que hoy nos sorprende que pudiéramos cursar la enseñanza obligatoria y hacer trabajos sin Internet, nos parecerá que el paradigma dominado por la informática léxica en la que estamos atrapados fue como un mal sueño del que por suerte salimos vivos.

De momento ya nos hemos habituado a la versión cotidiana del test Voigt-Kumpf para reconocer replicantes que aparecía en Blade runner (1982): se trata de esos caracteres en forma gráfica (un poco deformados, un poco ambiguos) que se colocan en los más diversos sitios para evitar que las aplicaciones de spam u otros códigos maliciosos, bombardeen o se aprovechen de servicios reservados a las personas (crear cuentas de correo, de usuario...). Sin ir más lejos, para poder dejar un comentario a este texto tendrás que demostrar a Blogger que eres una persona y no un software. La informática da un pequeñísimo paso y ya nos parece que supera a la ficción.

La verdad es que estos logros son un grano de arena en el desierto: los ordenadores, por el momento, son básicamente ciegos, y las búsquedas de imágenes que son capaces de hacer se basan en los nombres de archivo que las contienen, no en las imágenes mismas. Conseguir eso será una revolución (de momento constantemente intuida y permanentemente aplazada), ya que a día de hoy basta con renombrar la foto de una vaca para que los buscadores crean que contiene una foto del presidente de los Estados Unidos.

No obstante, poco a poco, los ordenadores abren los ojos, y lo primero que distinguen son cosas pequeñas y con mucho contraste, como por ejemplo las matrículas de los coches. Es el Reconocimiento automático de matrículas (ANPR). También se esfuerzan por aprender a reconocer rostros, huellas dactilares, el iris de los ojos (son los sistemas biométricos), o las firmas de las personas que sellan con ellas importantes contratos. También están aprendiendo a oír, y se esfuerzan por reconocer lo que les dicen las personas (son los sistemas de reconocimiento del habla, a los que por cierto mi hermano ha dedicado y dedica muchas horas de investigación).

Por si el reto no fuera suficientemente titánico, la web semántica, además, debe conseguir que esos mismos ordenadores aprendan a pensar, o por lo menos a adquirir un discernimiento de bajo nivel que les permita diferenciar significados, polisemias y contextos. Mientras todo eso llega, en esa agotadora labor de personas trabajando para que los ordenadores puedan ver, oír y hablar se hace más cierto que nunca aquello de que enseñar sólo lo pueden hacer los seres humanos.

miércoles, 6 de junio de 2007

Tecnologías que esclavizan

En 1995, el DVD Forum, que agrupaba a los inventores del estándar DVD (Philips, Sony y Toshiba), acordó que dividiría el mundo en seis zonas (más una universal, la 0; otra para uso futuro, la 7; y otra para aviones y cruceros, la 8) que casualmente dejaban en cada una de ellas a los tres grandes centros de poder económico y tecnológico de Occidente: EE UU, Europa y Asia; de manera que los DVD fabricados y comercializados en una zona no pudieran reproducirse en otra... a menos que se dispusiera de otro reproductor fabricado en la misma zona que el DVD.

En 1998 (coincidiendo con el lanzamiento de Windows 98) Microsoft diseñó Windows Update (que el año 2001 se convirtió en Microsoft Update), una web que --mediante la tecnología ActiveX-- permitía que cualquier usuario (propietario a partir de 2001) de un sistema operativo de Microsoft pudiera, de forma gratuita, actualizarse a las versiones mejoradas del mismo. Era una política lógica que trataba de prevenir los innumerables fallos que se detectaban en los productos Microsoft a raíz de continuos virus y agentes malignos, creados por personas que demostraban así la vulnerabilidad de sistemas informáticos en los que incluso las grandes multinacionales confiaban (y de paso un poco de notoriedad en la web, qué caramba). Para acceder a estas actualizaciones es obligatorio usar Internet Explorer, el navegador de Microsoft.

En 2006 la compañía Philips diseñó y patentó una tecnología (advert enforcer o reforzadora de la publicidad) que podía ser implantada en los decodificadores de señal de Televisión Digital Terrestre (TDT) y que permitía anular temporalmente la función de cambio de canal del mando de la TV mientras se emitiera publicidad. Esta tecnología es factible gracias a la estructura de las propias emisiones digitales de televisión, que separan los bloques publicitarios de los que no lo son por medio de señales internas. La propia Philips, ante el descontento que podría generalizar una medida de este calibre, proponía cobrar una cuota por liberar los aparatos de esta funcionalidad, de manera que quien la abonase podría zapear cuando se emitiera publicidad.

Se trata de tres casos flagrantes de lo que denomino “la tecnología que nos esclaviza” en los que se evidencia el objetivo de fabricantes y distribuidores por ofrecer una tecnología que limite y obligue al usuario/espectador a pagar el peaje de la tecnología de quien la licencia. La mayoría de esos mismos fabricantes clama al cielo cuando sale al mercado un software capaz de generar DVD multizonas: ¿O es que acaso el reparto previo en zonas de distribución/fabricación de DVD no fue un intento patético de crear de la nada un monopolio repartido? Estaba claro que el cambio tecnológico del vídeo al DVD suponía una incertidumbre para el mercado muy fuerte, y quienes de beneficiaban de este statu quo no querían perderlo; así que, igual que en la conferencia de Versalles las potencias coloniales de repartieron África y el mundo conocido en 1820, los fabricantes de DVD se repartieron el mundo para su nuevo estándar. La misma mayoría de esos mismos fabricantes se lanzan a pleitear cuando en alguna página web se explica cómo modificar un decodificador de TDT para que permita zapear durante los anuncios sin pagar la cuota; o instalar un sistema operativo Linux en una XBox. Finalmente, coherentes con esta doble moral, se rasgan las vestiduras ante lo que consideran intrusismo, monopolio o amenazas a su hegemonía.

Son unos bonitos ejemplos aleccionadores en los que los usuarios/consumidores descontentos podemos encontrar argumentos cuando la realidad digital no se ajusta a nuestras necesidades. Está claro que apostar por tecnologías que nos esclavizan equivale a ponerles fecha de caducidad, llevarlas a una vía muerta. No voy a ofrecer ninguna solución porque no la tengo, tan sólo me limito a ilustrar algunos de los casos más patéticos para mostrar que se trata de una práctica generalizada. Me limito a describir la herida, que dolería igual aunque no lo hiciera.

La tecnología que nos esclaviza es, de momento, la norma que rige el desplazamiento hacia lo digital, de la misma manera que (y no tendría por qué ser así) el neoliberalismo dirige en exclusiva el tránsito hacia una economía globalizada.

Quizás también te interese:

Plugin para WordPress, Blogger...

PrintPDF