Nuevo positivismo digital (VIII): La informática como ciencia empírica
Nuevo positivismo digital: I, II, III, IV, V, VI, VII
En el mundo de la ciencia la realidad se construye a base de teorías y hechos probados mediante contrastación intersubjetiva. A estas alturas de película también sabemos que las ciencias sociales no pueden alcanzar el mismo grado de exactitud y predicción que las naturales, pero eso no impidió que unos cuantos expertos y ensayistas --auténticos tecnocrátas de letras sin saberlo-- nos convencieran de que era posible un uso adaptado, válido y fiable para estudiar los fenómenos sociales y humanos sin renunciar a "hacer ciencia". La cosa es que después de unos cuantos ríos de tinta, polémicas, artículos, congresos, contrarréplicas, piques y otras miserias vertidas sobre el asunto llega José Luis Nueno --un analista del mercado que se limita a hacer bien su trabajo en un texto de tantos que explican la coyuntura (inmobiliaria en este caso)-- y nos recuerda (citando sin nombrarlo a Paul Volcker) de qué material está hecha toda una disciplina, con un título que es un eslogan, una declaración de principios y una teoría general, todo a la vez: en economía percepción es realidad (La Vanguardia, 31/05/2008). ¿A qué venía entonces tanta reivindicación científica?
Percepción es realidad: este es, ni más ni menos, el axioma fundacional de la teoría económica, en las antípodas de cualquier conocimiento científico contrastado. La economía clásica ha tardado doscientos años en asumir que su estatuto epistemológico no pasó de David Hume y su empirismo radical. Para los gurús del mercado, cosas como la oferta y la demanda, Kant, el racionalismo y toda la revolución científica y social que se levantó sobre sus postulados, pues como si no hubieran existido, ya que lo importante en la gestión empresarial y la inversión financiera son los resultados (no los medios), y las decisiones se toman a partir de las impresiones que se tienen de la situación del mercado, basadas en la propia experiencia personal. ¿Los datos, los indicadores? Sí, están bien para llenar páginas, hacer declaraciones y proporcionar titulares, pero no cuentan tanto como la intuición de quienes poseen el mando. La información como tal, diga lo que diga el refrán neocon, no es poder; el control de la información sí lo es. La preocupación fundamental de productores, economistas, inversores y financieros es escrutar el futuro, conocer hacia dónde tirarán los índices, los consumidores, los legisladores... con el objetivo de adelantarse y estar mejor situados que nadie en la casilla oficial de salida en esa ficción que constituye el mercado libre
Ahora hablemos de informática, concretamente de la rama que se ocupa del software, porque yo creo que está atrapada en la misma fase empirista en que se encuentra la economía. Está claro que las tecnologías de la comunicación y la información son una ciencia cuyos logros incontestables se fundamentan en descubrimientos y teorías consolidadas de la física y han dado lugar --esto es una evidencia-- a un catálogo de dispositivos informáticos que realizan infinidad de tareas (estándares de generación, procesamiento y almacenamiento de datos, imágenes, sonido... Todo lo digitalizable que se nos ocurra). Ahora bien, cuando llega el momento de fabricar un software que maneje estos dispositivos los ingenieros no pueden hacer otra cosa que avanzar a base de empirismo; no es casualidad que las investigaciones sobre usabilidad se conozcan también como análisis de experiencia de usuario, en las que se trabaja de acuerdo con los principios de un positivismo lógico hecho de pruebas y errores, reaccionando ante éstos y volviendo a empezar.
Una vez que las aplicaciones han sido escritas (y me estoy refiriendo fundamentalmente a arquitecturas cliente-servidor, que son las que sostienen todo el entramado de pequeñas herramientas que maneja directamente el usuario/consumidor), compiladas y consideradas versiones estables susceptibles de lanzamiento, las fases que se desarrollan a continuación están marcadas por la lógica positivista pura y dura: pruebas de funcionamiento, de compatibilidad, de carga, usabilidad... A pesar de tanta prevención, cuando finalmente se libera la aplicación, sigue siendo una incógnita su respuesta efectiva, medible en determinadas circunstancias, ya que existen demasiados factores entrelazados y es imposible:
a) realizar las pruebas en todos los contextos posibles
b) predecir el comportamiento y los tiempos de respuesta.
Con las aplicaciones funcionando es cuando se detectan fallos y errores imprevistos (los más habituales son los de seguridad), y entonces ya no es económicamente factible rediseñar y ejecutar todo el proceso que da lugar a una versión mejorada, estable y comercializable; así que se toma nota para el siguiente lanzamiento y lo que se diseña es un parche que corrija la anomalía detectada. Pero claro, los problemas A y B siguen siendo un obstáculo insalvable: puede que se elimine el error, pero es imposible predecir ni controlar a qué otros elementos afectará la modificación introducida, puede incluso que incida negativamente en módulos y procesos que estaban funcionando bien. Hasta que el parche no entre en funcionamiento ni se registre su actividad no se sabrá con certeza cuáles serán sus efectos. Y así hasta que la acumulación de modificaciones parciales sea tan compleja y la establididad del sistema tan precaria que resulte más rentable y beneficioso comenzar un nuevo diseño desde cero. Cuando esto sucede y una nueva versión se pone en marcha entramos de nuevo en el terreno del racionalismo kantiano, el de los «juicios sintéticos a priori». Lo paradójico es que toda esa ciencia puntera, el funcionamiento mismo de las aplicaciones, depende en mayor medida de la experiencia del usuario/consumidor que de las respuestas teóricamente previstas.
Toda esta palabrería acerca del empirismo y el diseño de software no es más que una versión doméstica de la conocida fábula sobre la complejidad del mundo; una complejidad que sucumbe y colapsa a base de ciclos, permitiendo la aparición de un nuevo orden (más simple y eficaz por principio) que sustituye al anterior. La lógica del parcheo es la única herramienta conocida hasta ahora por los ingenieros de software para combatir la entropía, la auténtica unidad de medida de la evolución del universo.
En el mundo de la ciencia la realidad se construye a base de teorías y hechos probados mediante contrastación intersubjetiva. A estas alturas de película también sabemos que las ciencias sociales no pueden alcanzar el mismo grado de exactitud y predicción que las naturales, pero eso no impidió que unos cuantos expertos y ensayistas --auténticos tecnocrátas de letras sin saberlo-- nos convencieran de que era posible un uso adaptado, válido y fiable para estudiar los fenómenos sociales y humanos sin renunciar a "hacer ciencia". La cosa es que después de unos cuantos ríos de tinta, polémicas, artículos, congresos, contrarréplicas, piques y otras miserias vertidas sobre el asunto llega José Luis Nueno --un analista del mercado que se limita a hacer bien su trabajo en un texto de tantos que explican la coyuntura (inmobiliaria en este caso)-- y nos recuerda (citando sin nombrarlo a Paul Volcker) de qué material está hecha toda una disciplina, con un título que es un eslogan, una declaración de principios y una teoría general, todo a la vez: en economía percepción es realidad (La Vanguardia, 31/05/2008). ¿A qué venía entonces tanta reivindicación científica?
Percepción es realidad: este es, ni más ni menos, el axioma fundacional de la teoría económica, en las antípodas de cualquier conocimiento científico contrastado. La economía clásica ha tardado doscientos años en asumir que su estatuto epistemológico no pasó de David Hume y su empirismo radical. Para los gurús del mercado, cosas como la oferta y la demanda, Kant, el racionalismo y toda la revolución científica y social que se levantó sobre sus postulados, pues como si no hubieran existido, ya que lo importante en la gestión empresarial y la inversión financiera son los resultados (no los medios), y las decisiones se toman a partir de las impresiones que se tienen de la situación del mercado, basadas en la propia experiencia personal. ¿Los datos, los indicadores? Sí, están bien para llenar páginas, hacer declaraciones y proporcionar titulares, pero no cuentan tanto como la intuición de quienes poseen el mando. La información como tal, diga lo que diga el refrán neocon, no es poder; el control de la información sí lo es. La preocupación fundamental de productores, economistas, inversores y financieros es escrutar el futuro, conocer hacia dónde tirarán los índices, los consumidores, los legisladores... con el objetivo de adelantarse y estar mejor situados que nadie en la casilla oficial de salida en esa ficción que constituye el mercado libre
Ahora hablemos de informática, concretamente de la rama que se ocupa del software, porque yo creo que está atrapada en la misma fase empirista en que se encuentra la economía. Está claro que las tecnologías de la comunicación y la información son una ciencia cuyos logros incontestables se fundamentan en descubrimientos y teorías consolidadas de la física y han dado lugar --esto es una evidencia-- a un catálogo de dispositivos informáticos que realizan infinidad de tareas (estándares de generación, procesamiento y almacenamiento de datos, imágenes, sonido... Todo lo digitalizable que se nos ocurra). Ahora bien, cuando llega el momento de fabricar un software que maneje estos dispositivos los ingenieros no pueden hacer otra cosa que avanzar a base de empirismo; no es casualidad que las investigaciones sobre usabilidad se conozcan también como análisis de experiencia de usuario, en las que se trabaja de acuerdo con los principios de un positivismo lógico hecho de pruebas y errores, reaccionando ante éstos y volviendo a empezar.
Una vez que las aplicaciones han sido escritas (y me estoy refiriendo fundamentalmente a arquitecturas cliente-servidor, que son las que sostienen todo el entramado de pequeñas herramientas que maneja directamente el usuario/consumidor), compiladas y consideradas versiones estables susceptibles de lanzamiento, las fases que se desarrollan a continuación están marcadas por la lógica positivista pura y dura: pruebas de funcionamiento, de compatibilidad, de carga, usabilidad... A pesar de tanta prevención, cuando finalmente se libera la aplicación, sigue siendo una incógnita su respuesta efectiva, medible en determinadas circunstancias, ya que existen demasiados factores entrelazados y es imposible:
a) realizar las pruebas en todos los contextos posibles
b) predecir el comportamiento y los tiempos de respuesta.
Con las aplicaciones funcionando es cuando se detectan fallos y errores imprevistos (los más habituales son los de seguridad), y entonces ya no es económicamente factible rediseñar y ejecutar todo el proceso que da lugar a una versión mejorada, estable y comercializable; así que se toma nota para el siguiente lanzamiento y lo que se diseña es un parche que corrija la anomalía detectada. Pero claro, los problemas A y B siguen siendo un obstáculo insalvable: puede que se elimine el error, pero es imposible predecir ni controlar a qué otros elementos afectará la modificación introducida, puede incluso que incida negativamente en módulos y procesos que estaban funcionando bien. Hasta que el parche no entre en funcionamiento ni se registre su actividad no se sabrá con certeza cuáles serán sus efectos. Y así hasta que la acumulación de modificaciones parciales sea tan compleja y la establididad del sistema tan precaria que resulte más rentable y beneficioso comenzar un nuevo diseño desde cero. Cuando esto sucede y una nueva versión se pone en marcha entramos de nuevo en el terreno del racionalismo kantiano, el de los «juicios sintéticos a priori». Lo paradójico es que toda esa ciencia puntera, el funcionamiento mismo de las aplicaciones, depende en mayor medida de la experiencia del usuario/consumidor que de las respuestas teóricamente previstas.
Toda esta palabrería acerca del empirismo y el diseño de software no es más que una versión doméstica de la conocida fábula sobre la complejidad del mundo; una complejidad que sucumbe y colapsa a base de ciclos, permitiendo la aparición de un nuevo orden (más simple y eficaz por principio) que sustituye al anterior. La lógica del parcheo es la única herramienta conocida hasta ahora por los ingenieros de software para combatir la entropía, la auténtica unidad de medida de la evolución del universo.
Comentarios