Translate

lunes, 23 de junio de 2008

¡Tráete todo a Google! (1)

Aprovechando que les han concedido el Premio Príncipe de Asturias de Comunicación y Humanidades demos un repaso a Google, una empresa que sigue manteniendo su aura de Startup sin que el usuario/consumidor deje de sentir buen rollo hacia ella a pesar de ganar dinero a espuertas, cotizar en bolsa y haber adquirido un tamaño y una cuota de mercado que (en según qué segmentos) alcanza y supera a Microsoft; de la cual, curiosamente, esos mismos usuarios/consumidores echan pestes. ¿Por qué Google es buena y Microsoft mala? Y es que una parece el contratipo de la otra: los movimientos estratégicos de los de Seattle despiertan todo tipo de suspicacias; en cambio los chicos de Mountain View, que no dejan de meterse en todos los mercados, hacen básicamente lo mismo y lo que provocan es una impresionante fiebre inversora de enormes expectativas. La pregunta que quiero lanzar es ¿hacia dónde va Google? Como mi mente funciona así, primero haré un poco de historia y luego apalancaré mi opinión y mis predicciones (no puedo evitarlo: me encanta imitar a los mismos gurús tecnócratas que despellejo cada tanto).

Google nació en 1998 como un buscador, esto lo sabe todo el mundo, cuyos cimientos se pueden visitar todavía en forma artículo teórico. Su principal ventaja competitiva era (y todavía hoy sigue siendo su secreto mejor guardado, al mismo nivel que la fórmula de la Coca-Cola) el PageRank, el algoritmo que decide qué lugar ocupa cada resultado de una búsqueda. Aunque algunos de los criterios que usa se puedan deducir fácilmente (el tener muchos enlaces apuntando es uno de ellos), su funcionamiento exacto sigue siendo un misterio.

En menos de un año, Google se convirtió en el buscador preferido de la parte del planeta Tierra que dispone de conexión a Internet, y no sólo por su endiablada eficacia, sino porque estaba claro que los buscadores de moda entonces (Yahoo, Altavista) patrocinaban descaradamente ciertos enlaces, además de sumergir literalmente el recuadro de búsqueda en publicidad de todo tipo. Google, en cambio, ofrecía una página de inicio despejada y totalmente zen (algo que aún mantiene y que se debe a los escasos conocimientos de HTML que tenían Sergey Brin y Larry Page, los padres de la criatura), rapidez y eficacia en las respuestas. Después de esto se encontraron con dos problemas:

a) Nadie estaba dispuesto a pagar por usar un buscador porque Internet estaba lleno de buscadores, la inmensa mayoría gratuitos.

b) La Word Wide Web no dejaba de crecer en progresión geométrica y Google necesita aumentar constantemente su capacidad de almacenamiento (aquí me refiero únicamente a los índices para las búsquedas, no tengo en cuenta las necesidades generadas por otros servicios), una inversión que no genera retorno en la actividad del usuario/consumidor, sino que simplemente le permite mantener su actividad. Podría llegar otro buscador mejor que les desbancase y ellos quedarse con un gigantesco cluster de servidores para atender quince consultas al día
.

Así que tuvieron que exprimirse el cerebro para dar con un modelo de negocio compatible con estas dos realidades. El resultado fue una idea casi tan buena como el PageRank: AdWords, un ingenioso sistema de publicidad patrocinada que ha inundado literalmente Internet, con la ventaja de que no resulta intrusivo ni molesto para el usuario/consumidor y el anunciante paga exclusivamente por las palabras buscadas que acaban en clic hacia su sede web. En este enlace puedes encontrar una instructiva y detallada explicación de su funcionamiento. Para complementar este invento crearon AdSense, un servicio gratuito que permite a cualquier administrador de una sede web insertar publicidad de Google (eligiendo temas acordes con el contexto, por supuesto) y recibir un dinerito a cambio de quedarse ellos alrededor de un 44% de comisión. ¿Qué más da si lo único que tengo que hacer es darme de alta en su programa de publicidad, copiar un poco de código y empezar a recibir cheques?

AdWords es en la actualidad la principal fuente ingresos de Google, consolidada de año en año: en el primer trimestre de 2008 la compañía ingresó 5.186 millones de dólares, un 41,5% más que en el mismo periodo del año anterior. Según esto, ¿no tendríamos que empezar a considerar a Google como una empresa de publicidad y no como un buscador? El hecho de que nadie les vea como unos cochinos publicistas supone todo un éxito de marketing, ya que el usuario/consumidor reniega de la publicidad como del error 404. Bien por los chicos de Mountain View.


(continuará)

domingo, 8 de junio de 2008

Nuevo positivismo digital (VIII): La informática como ciencia empírica

Nuevo positivismo digital: I, II, III, IV, V, VI, VII

En el mundo de la ciencia la realidad se construye a base de teorías y hechos probados mediante contrastación intersubjetiva. A estas alturas de película también sabemos que las ciencias sociales no pueden alcanzar el mismo grado de exactitud y predicción que las naturales, pero eso no impidió que unos cuantos expertos y ensayistas --auténticos tecnocrátas de letras sin saberlo-- nos convencieran de que era posible un uso adaptado, válido y fiable para estudiar los fenómenos sociales y humanos sin renunciar a "hacer ciencia". La cosa es que después de unos cuantos ríos de tinta, polémicas, artículos, congresos, contrarréplicas, piques y otras miserias vertidas sobre el asunto llega José Luis Nueno --un analista del mercado que se limita a hacer bien su trabajo en un texto de tantos que explican la coyuntura (inmobiliaria en este caso)-- y nos recuerda (citando sin nombrarlo a Paul Volcker) de qué material está hecha toda una disciplina, con un título que es un eslogan, una declaración de principios y una teoría general, todo a la vez: en economía percepción es realidad (La Vanguardia, 31/05/2008). ¿A qué venía entonces tanta reivindicación científica?

Percepción es realidad: este es, ni más ni menos, el axioma fundacional de la teoría económica, en las antípodas de cualquier conocimiento científico contrastado. La economía clásica ha tardado doscientos años en asumir que su estatuto epistemológico no pasó de David Hume y su empirismo radical. Para los gurús del mercado, cosas como la oferta y la demanda, Kant, el racionalismo y toda la revolución científica y social que se levantó sobre sus postulados, pues como si no hubieran existido, ya que lo importante en la gestión empresarial y la inversión financiera son los resultados (no los medios), y las decisiones se toman a partir de las impresiones que se tienen de la situación del mercado, basadas en la propia experiencia personal. ¿Los datos, los indicadores? Sí, están bien para llenar páginas, hacer declaraciones y proporcionar titulares, pero no cuentan tanto como la intuición de quienes poseen el mando. La información como tal, diga lo que diga el refrán neocon, no es poder; el control de la información sí lo es. La preocupación fundamental de productores, economistas, inversores y financieros es escrutar el futuro, conocer hacia dónde tirarán los índices, los consumidores, los legisladores... con el objetivo de adelantarse y estar mejor situados que nadie en la casilla oficial de salida en esa ficción que constituye el mercado libre

Ahora hablemos de informática, concretamente de la rama que se ocupa del software, porque yo creo que está atrapada en la misma fase empirista en que se encuentra la economía. Está claro que las tecnologías de la comunicación y la información son una ciencia cuyos logros incontestables se fundamentan en descubrimientos y teorías consolidadas de la física y han dado lugar --esto es una evidencia-- a un catálogo de dispositivos informáticos que realizan infinidad de tareas (estándares de generación, procesamiento y almacenamiento de datos, imágenes, sonido... Todo lo digitalizable que se nos ocurra). Ahora bien, cuando llega el momento de fabricar un software que maneje estos dispositivos los ingenieros no pueden hacer otra cosa que avanzar a base de empirismo; no es casualidad que las investigaciones sobre usabilidad se conozcan también como análisis de experiencia de usuario, en las que se trabaja de acuerdo con los principios de un positivismo lógico hecho de pruebas y errores, reaccionando ante éstos y volviendo a empezar.

Una vez que las aplicaciones han sido escritas (y me estoy refiriendo fundamentalmente a arquitecturas cliente-servidor, que son las que sostienen todo el entramado de pequeñas herramientas que maneja directamente el usuario/consumidor), compiladas y consideradas versiones estables susceptibles de lanzamiento, las fases que se desarrollan a continuación están marcadas por la lógica positivista pura y dura: pruebas de funcionamiento, de compatibilidad, de carga, usabilidad... A pesar de tanta prevención, cuando finalmente se libera la aplicación, sigue siendo una incógnita su respuesta efectiva, medible en determinadas circunstancias, ya que existen demasiados factores entrelazados y es imposible:

a) realizar las pruebas en todos los contextos posibles

b) predecir el comportamiento y los tiempos de respuesta
.

Con las aplicaciones funcionando es cuando se detectan fallos y errores imprevistos (los más habituales son los de seguridad), y entonces ya no es económicamente factible rediseñar y ejecutar todo el proceso que da lugar a una versión mejorada, estable y comercializable; así que se toma nota para el siguiente lanzamiento y lo que se diseña es un parche que corrija la anomalía detectada. Pero claro, los problemas A y B siguen siendo un obstáculo insalvable: puede que se elimine el error, pero es imposible predecir ni controlar a qué otros elementos afectará la modificación introducida, puede incluso que incida negativamente en módulos y procesos que estaban funcionando bien. Hasta que el parche no entre en funcionamiento ni se registre su actividad no se sabrá con certeza cuáles serán sus efectos. Y así hasta que la acumulación de modificaciones parciales sea tan compleja y la establididad del sistema tan precaria que resulte más rentable y beneficioso comenzar un nuevo diseño desde cero. Cuando esto sucede y una nueva versión se pone en marcha entramos de nuevo en el terreno del racionalismo kantiano, el de los «juicios sintéticos a priori». Lo paradójico es que toda esa ciencia puntera, el funcionamiento mismo de las aplicaciones, depende en mayor medida de la experiencia del usuario/consumidor que de las respuestas teóricamente previstas.

Toda esta palabrería acerca del empirismo y el diseño de software no es más que una versión doméstica de la conocida fábula sobre la complejidad del mundo; una complejidad que sucumbe y colapsa a base de ciclos, permitiendo la aparición de un nuevo orden (más simple y eficaz por principio) que sustituye al anterior. La lógica del parcheo es la única herramienta conocida hasta ahora por los ingenieros de software para combatir la entropía, la auténtica unidad de medida de la evolución del universo.

Quizás también te interese:

Plugin para WordPress, Blogger...

PrintPDF