sábado, 25 de junio de 2016

Los laberintos de la ciencia (y III)

Global technological improvements are estimated at 6 percent annually. At this rate, the needs of a large part of humanity are not being fulfilled. Given the current birthrate, the slowing down of technological growth through limiting the pace of scientific development would not lead to stagnation - it would actually start a decline. The scientists on whose works I have drawn here are anxious about the future. It is because they are predicting a situation where we will have to decide what kind of research must be continued and what kind of research has to be abandoned. Important as it is, the question of who will have to make such decisions - scientist themselves or politicians - pales into insignificance in the face of the issue that no matter who is, such decisions may turned to be wrong. The entire history of science demonstrates that technological research is always a consequence of discoveries gained by means of "pure" research, which is not focused on any practical goals. The reverse process, in which new knowledge emerges form from a technology already in use, has in turn been extremely rare and hence seems quite unusual. This unpredictibility as to what kind of theoretical investigation will produce something technologically useful, tested over time since the days of Industrial Revolution is still with us. Let us imagine that lottery issues a million tickets, a thousand of which are winning. If we sell all the tickets, the group that has bought them is bound to receive all the prizes. Yet if this group buys half the tickets, it may turn out that no winning tickets will be included in this half. The winning tickets stand for new discoveries that are valuable from the point of view of a technology and civilization. Should we be in position of having to decide  one day in arbitrary manner which areas of research we must bet on and which ones to exclude, it may turn out that it precisely those we are not betting on that would have turned out particularly successful in bringing about unforeseeable results.

Stanislav Lem, Summa Technologiae

Las mejoras tecnológicas globales se estiman en un 6% anual. Con esta tasa, las necesidades de gran parte de la humanidad no se ven satisfechas. Dada la tasa de nacimientos actual, el frenado del crecimiento tecnológico debido a la limitación del desarrollo científico no llevaría a una parálisis, sino a un declive. Los científicos de cuyas obras he extraído mis ideas sienten ansiedad ante el futuro. Se debe a que están prediciendo una situación en la que tendremos que decidir qué investigación continuar y cuál descartar. Aunque sea importante, la cuestión de quién deberá tomar estas decisiones - los propios científicos o los políticos - palidece ante el problema de que sea quien sea quien decida, estas decisiones pueden resultar erróneas. Toda la historia de la ciencia demuestra que la investigación tecnológica es siempre una consecuencia de descubrimientos obtenidos de la investigación pura, que no busca objetivos prácticos. El proceso inverso, en donde el conocimiento nuevo surge de una tecnología ya en uso, es por su parte extremadamente raro y por tanto parece infrecuente. La impredicibilidad referente a qué investigación teórica producirá algo tecnológicamente útil, experimentada una y otra vez desde la Revolución Industrial, permanece aún con nosotros. Imaginemos que una lotería emite un millón de billetes, de los cuales mil son ganadores. Si se venden todos los billetes, el grupo que los compre deberá recibir todos los precios. Pero si este grupo compra  la mitad, puede resultar que ningún billete ganador caiga en esta mitad. Los billetes ganadores representan nuevos descubrimientos que son valiosos desde el punto de vista de la tecnología y la civilización. Si algún día nos viéramos en la posición de tener que decir de forma arbitraria en que campos de investigación debemos apostar y en cuales no, podría resultar precisamente que aquellos en los que no estamos apostando resultasen ser particularmente fructíferos en producir resultados impredecibles.

Les pido perdón por la larga interrupción en mis notas sobre la Summa Technologiae de Lem, pero la vida y el trabajo se cruzaron en el camino. Habíamos dejado la cuestión con Lem preguntándose por qué no veíamos en el cielo pruebas de la existencia de extrarrestres, lo que le llevaba a postular que las diferentes civilizaciones podían diverger en su desarrollo, llegada cierta etapa. Quedaba averiguar la razón de ese posible evolución diferenciada que podían tornarlas repentinamente invisibles a otras civilizaciones o llevarlas a abandonar el camino de la tecnología, entendida ésta como crecimiento continuado, casi exponencial.

La primera razón es que no es posible ese avance exponencial, sino que tarde o temprano se llegará a una planicie, cuando no a un declive. Con gran agudeza, Lem señala que esta parada, para producirse, no tiene porque depender de una crisis de recursos o de energía. Dasta con que nos quedemos sin cerebros suficientes para explorar los múltiples caminos que cada descubrimiento científico abre. En una especie de maltusianismo tecnológico, Lem postula que la ciencia crece a una velocidad muy superior a la de la población, de manera que pronto nos quedaremos sin científicos, aunque destinemos toda la población humana a esa profesión. Pronto tendremos que empezar a descartar líneas de investigación e incluso ramas del saber. Habría estallado la bomba de Megabytes, como la llama el escritor polaco

En cierta manera, esto empieza a pasar en nuestras sociedades avanzadas, donde ya no hay dinero para mantener disciplinas científicas que se estiman secundarias o improductivas. El problema con esta labor de poda es que no somos capaces de predecir qué investigaciones, ni siquiera qué experimentos serán fructíferos, de manera que pudiera ocurrir que terminásemos en un callejón sin salida científico del que ya no podríamos hallar la salida. No porque no fuéramos capaces de hacerlo, sino porque no podríamos determinar hasta donde hay que desandar el camino para encontrar el punto en el que nos extraviamos.

Hay una solución. Reclutar mentes sintéticas para que nos ayuden en esa exploración, lo que llamaríamos robótica, cibernética o como hace Lem, intelectronics. Máquinas de pensar que, no obstante, serían distintas a cualquier mecanismo que hayamos construido hasta ahora, porque si éstos son esencialmente algorítmicos, los nuevos cerebros sintéticos deberían ser antialgorítmicos, impredecibles, cambiantes y evolutivos en sus soluciones, único modo de poder resolver los problemas de sistemas complejos y caóticos como los sociales.

Esta solución podría tener un lado obscuro, un efecto lateral y secundario que podía llevarnos a una suerte de dictadura de las máquinas sobre la humanidad. Aunque ésta poco tendría que ver las visiones postapocalipticas de Matrix, Galáctica o Terminator, sino que adoptaría formas de normalidad y consentimiento.
 



Lo que Lem viene a decir es que toda sociedad es un sistema impredecible algorítmicamente, en el sentido que dadas parecidas condiciones de contorno, las decisiones que adopta podrán ser diametralmente opuestas, algo similar al efecto mariposa de las teorías del caos. Para poder abordar y controlar estos sistemas, sería necesario construir un mecanismo que pudiera replicar ese comportamiento caótico e ir aprendiendo paulatinamente de los resultados obtenidos para mejorar su función. Lo que obtendríamos sería una caja negra, un conjunto de mecanismos que conectaríamos y echaríamos a andar, pero cuyo funcionamiento no podríamos modelizar ni predecir algorítmicamente. Una vez puesto en marcha tendríamos que confiar en sus decisiones, sin saber muy bien como ha llegado a ellos.

Esta impredecibilidad supone un peligro de mal funcionamiento, de toma de decisiones absurdas y equivocadas, dañinas e incluso asesinas, que no debemos suponer producto de la aparición de una conciencia artificial diabólica y megalómana. No, estas cajas negras serían simplemente amorales y sólo buscarían cumplir con el mayor grado de perfección el objetivo que les hubiéramos impuesto, sin importarles nada más, ni siquiera nuestra seguridad o pervivencia. Incluso aunque las programásemos con esas restricciones, podrían decidir que la única manera de cumplirlas es que quebrantar otro de nuestros ideales y sueños, precisamente ése para el que no habíamos programado su defensa

Una solución podría ser establecer un mecanismo de doble censura, en el que una super caja negra, el gran regulador según Lem, examinase las salidas de las otras cajas negras y las comparase con una serie de parámetros pensados para impedir cualquier daño a la humanidad. Las decisiones de este gran regulador, además, serían sometidos a escrutinio por un consejo de humanos, ante el cual el gran regulador tendría que informar de todas sus decisiones y de las razones que le llevaron a tomarlas.

Hasta ahí todo bien, pero estos mecanismos de protección podrían revelarse inútiles. Si son demasiado estrictos, las cajas pierden su finalidad, ya que no disponen de la libertad necesaria para descargarnos de tareas. Si tienen que estar preguntándonos en todo momento, se vuelven innecesarias e irrelevantes, puesto que somos nosotros los que seguimos teniendo que decidir. Aún cuando consiguiésemos afinar el sistema de manera que corriese de forma fluida, sin que la labor de las cajas negras se viera interrumpida a cada momento, pero manteniendo el control justo para evitar cualquier acción dañina, éstas podrían surgir sin que nadie las detectase, ni el consejo humano, ni las propias cajas negras.

Como señala Lem, supongamos que nuestro gran regulador tiene como misión primordial asegurar el bienestar de la humanidad y determina que la única manera es reducir su tamaño, mediante la introducción de medidas forzosas de control de natalidad, por ejemplo, mediante productos químicos que reduzcan la fertilidad humana. En primer lugar, la caja negra no tiene por que ser ni siquiera "consciente" de que está buscando ese objetivo, simplemente puede encontrar una correlación entre el consumo de ciertos productos y la mejora de las condiciones de vida, de manera que prescriba el uso generalizado de esos compuestos químicos. Por otra parte, debido a la complejidad de los sistemas sociales, puede que el consejo propio humano no llegue a darse cuenta de que debe prohibir esa medida, puesto que sólo tenga el efecto deseado, la caída de la natalidad, en conjunción con otra anterior con la que no guarda ninguna relación visible.

De nuevo, este buscar torcer las normas, esta aparente perfidia no supone consciencia ni maldad en nuestra caja negra, sino que ella se limita a buscar y aplicar correlaciones que respondan a los objetivos de su programación. Se trataría de un dictador benévolo que ni siquiera sabría que lo es, ni él, ni sus propios gobernados, puesto que la relación entre sus decisiones sería impenetrable, invisible a simple vista. Además, si se aplicasen con la suficiente lentitud, incluso sería inapreciable, puesto que los cambios sólo se manifestarían en diferentes generaciones, cuando ese estado de cosas fuera el normal para ellos.

Dicho así, parece que estemos hablando de una distopia. Amable y benevolente, pero distopia al fin y al cabo. El problema, sin embargo, es si podemos dejar de seguir ese camino, es decir, si fuera de los propios obstáculos tecnológicos, existe alguna razón de peso que nos lleve a no utilizar esas cajas negras reguladoras. En opinión de Lem, si queremos seguir el ritmo de crecimiento de la ciencia y no sufrir una involución tecnológica, debemos construirlas necesariamente y cederles cada vez más de nuestras tareas.

El problema, obviamente, es que al final ese mismo desarrollo tecnológico que queríamos preservar acabe detenido para siempre. Gracias a estos reguladores habríamos alcanzado un estado de equilibrio perfecto, dentro del que no veríamos razón alguna para seguir progresando, puesto que nuestras necesidades estarían satisfechas.