viernes, 12 de abril de 2024

Isaac Asimov, el visionario que anticipó nuestro presente tecnológico

Nació en Petróvichi, Rusia, pero a los tres años viajó a Estados Unidos con su familia, donde comenzó la escuela primaria a los 5 años, se formó y estudió hasta obtener un Doctorado en Bioquímica a los 28. Interesado por la historia, la religión y la ciencia, Isaac Asimov publicó más de 500 obras encuadradas mayormente dentro de un género a veces minimizado o bastardeado: la ciencia ficción.

Escribió prolíficamente ensayos científicos y hasta volúmenes sobre historia (publicó 15 tomos sobre las más importantes civilizaciones y períodos históricos), pero es principalmente famoso por sus relatos y novelas de ficción, en las que inventaba universos pero basados en parámetros absolutamente verosímles y en las leyes y principios que conocemos y rigen nuestro mundo.


Asimov creó el concepto de la robótica mucho antes de que hubiera robots.

El tema que nos ocupa en este post tiene que ver con, quizás, los principales protagonistas de la obra de ficción de Asimov: los robots. Al ser él mismo un científico -y en una época en la que los robots aún no existían-, decidió que el accionar y comportamiento de los mismos no podía ser anárquico, sino que, al menos, debía estar regulado por leyes báscias.

Así que en su relato "Roundabout" (1942, editado en español bajo el nombre de 'Círculo vicioso') aparecieron enunciadas por primera vez las normas que regirían su imaginario universo robótico: las llamadas Tres Leyes de la Robótica.

Son breves, dejan en claro que indefectiblemente los robots están diseñados para cumplir órdenes humanas, y son las siguientes.

Primera ley: un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda ley: un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Estas leyes forman un principio organizador y un tema unificador para la ficción basada en robótica de Asimov, que aparece en su serie "Robot" de cuentos y novelas protagonizados por ellos, las historias vinculadas a ella y su serie "Lucky Starr" de ficción para jóvenes y niños.

En ese universo, las leyes son, según sus escritos, "formulaciones matemáticas impresas en los senderos positrónicos del cerebro de los robots" (líneas de código del programa que regula el cumplimiento de las leyes guardado en la memoria principal de éstos), y no se pueden eludir, ya que están pensadas como una característica de seguridad.

Las leyes originales han sido modificadas y desarrolladas por Asimov y otros autores. El propio Asimov hizo ligeras modificaciones a los tres primeros en varios libros e historias cortas para desarrollar aún más cómo los robots interactuarían con los humanos y entre ellos. En la ficción posterior donde los robots habían asumido la responsabilidad del gobierno de planetas enteros y civilizaciones humanas, Asimov también agregó una cuarta, o ley cero, para preceder a las demás:

Ley Cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Las Tres Leyes y la Ley Cero han impregnado la ciencia ficción y se mencionan en muchos libros, películas y otros medios. También -y éste es el punto en el que llegan hasta nuestros días- han impactado el pensamiento sobre la ética de la inteligencia artificial.

Ésto último es algo de lo cual seguramente muchos ya estamos casi hartos de leer y escuchar hablar, y que en cierto modo nos asusta en la medida en que sea cada vez más posible que las máquinas nos reemplacen progresivamente, algo que, al menos en el campo laboral ya está sucediendo.

Estas tres leyes surgen únicamente como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores.

Las tres leyes de la robótica representan el que podría denominarse "código moral del robot". Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna ley? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones paradójicas en las que, a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".

 
Portada de "Yo, robot" (1950), obra emblemática de Asimov y la más difundida.

Aplicaciones a la tecnología presente y futura

Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes, sus creadores humanos deben programarlos. Se necesitan avances significativos en inteligencia artificial para ello, e incluso si la IA pudiera alcanzar la inteligencia a nivel humano, la complejidad ética inherente, así como la dependencia cultural o contextual de las leyes, les impide ser un buen candidato para formular restricciones de diseño robótico.

Sin embargo, a medida que ha aumentado la complejidad de los robots, también ha aumentado el interés en desarrollar directrices y salvaguardias para su funcionamiento.

En un editorial de 2007 en la revista Science sobre el tema "Ética de los robots", el autor de ciencia ficción Robert J. Sawyer sostiene que, dado que el ejército de EE. UU. es una fuente importante de financiación para la investigación robótica (y ya utiliza vehículos aéreos no tripulados armados para matar enemigos) es poco probable que tales leyes se incluyan en sus diseños:

"El desarrollo de la IA es un negocio, y las empresas son notoriamente desinteresadas en las salvaguardas fundamentales, especialmente las filosóficas. Algunos ejemplos rápidos: la industria del tabaco, la industria automotriz, la industria nuclear. Ninguno de ellos ha dicho desde el principio que las salvaguardias fundamentales son necesarias, cada uno de ellos ha resistido las salvaguardias impuestas desde el exterior y ninguno ha aceptado un edicto absoluto en contra de causar daño a los humanos", sostiene Sawyer.

Inspirados en las Tres Leyes de Asimov, fueron varias las sugerencias desde distintos lugares del tecno-academicismo para promover algo similar, pero que aplique a nuestra tecnología actual y futura.

En la edición de julio/agosto de 2009 de IEEE Intelligent Systems, Robin Murphy (profesora de Ciencias de la Computación e Ingeniería en Texas A&M) y David D. Woods (director del Laboratorio de Ingeniería de Sistemas Cognitivos en el estado de Ohio) propusieron "Las tres leyes de la robótica responsable" como una forma de estimular la discusión sobre el papel de la responsabilidad y la autoridad al diseñar no solo una plataforma robótica única sino el sistema más grande en el que opera la plataforma. Las leyes son las siguientes:

Un ser humano no puede desplegar un robot sin que el sistema de trabajo humano-robot cumpla con los más altos estándares legales y profesionales de seguridad y ética.

Un robot debe responder a los humanos según sea apropiado para sus roles.

Un robot debe estar dotado de suficiente autonomía situada para proteger su propia existencia, siempre que dicha protección proporcione una transferencia de control sin problemas que no entre en conflicto con la Primera y Segunda Leyes.

Woods dijo: "Nuestras leyes son un poco más realistas y, por lo tanto, un poco más aburridas" y que "La filosofía ha sido, 'claro, la gente comete errores, pero los robots serán mejores, una versión perfecta de nosotros mismos'. Queríamos escribir tres leyes nuevas para que la gente pensara en la relación humano-robot de formas más realistas y fundamentadas".

En octubre de 2013, Alan Winfield sugirió en una reunión de la EUCog​ cinco leyes revisadas que habían sido publicadas, con comentarios, por el grupo uno de sus grupos de trabajo en 2010:​

Los robots son herramientas de usos múltiples. Los robots no deben diseñarse única o principalmente para matar o dañar a humanos, excepto en interés de la seguridad nacional.

Los seres humanos, no los robots, son agentes responsables. Los robots deben diseñarse y operarse en la medida de lo posible para cumplir con las leyes vigentes, los derechos y libertades fundamentales, incluida la privacidad.

Los robots son productos. Deben diseñarse utilizando procesos que garanticen su seguridad y protección.

Los robots son artefactos manufacturados. No deben diseñarse de manera engañosa para explotar a los usuarios vulnerables; en cambio, su naturaleza de máquina debería ser transparente.

• Se debe atribuir a la persona con responsabilidad legal sobre un robot.

Asimov sustuvo que "no debería ser elogiado por crear las Leyes, porque son obvias desde el principio, y todo el mundo las conoce de manera subliminal. Las Leyes nunca se expresaron en frases breves hasta que logré hacer el trabajo. Las Leyes se aplican, por supuesto, a todas las herramientas que utilizan los seres humanos",  y "los análogos de las Leyes están implícitos en el diseño de casi todas las herramientas, robóticas o no", sugiriendo éstas a continuación:

Primera ley: el uso de una herramienta no debe ser peligroso. Los martillos tienen mangos y los destornilladores tienen empuñaduras para ayudar a aumentar el agarre. Por supuesto, es posible que una persona se lesione con una de estas herramientas, pero esa lesión solo se debe a su incompetencia, no al diseño de la herramienta.

Segunda ley: una herramienta debe realizar su función de manera eficiente a menos que esto perjudique al usuario. Esta es la única razón por la que existen los interruptores de circuito por falla a tierra. Cualquier herramienta en funcionamiento tendrá su corte de energía si un circuito detecta que algo de corriente no está regresando al cable neutro y, por lo tanto, podría estar fluyendo a través del usuario. La seguridad del usuario es primordial.

Tercera ley: una herramienta debe permanecer intacta durante su uso a menos que su destrucción sea necesaria para su uso o por seguridad. Por ejemplo, los discos de corte están diseñados para ser lo más resistentes posible sin romperse a menos que el trabajo requiera gastarlos. Además, están diseñados para romperse en un punto antes de que la velocidad de la metralla pueda lesionar gravemente a alguien (además de los ojos, aunque de todos modos se deben usar gafas de seguridad en todo momento).

Si a algún escritor, intelectual o científico le cabe la palabra "visionario", seguro es a Asimov, y de algún modo fue las tres cosas. Creía que, idealmente, los humanos también seguirían las Leyes.

Durante sus últimos años sostuvo: "Tengo mi respuesta lista cada vez que alguien me pregunta si creo que mis Tres Leyes de la Robótica se usarán realmente para gobernar el comportamiento de los robots, una vez que se vuelvan lo suficientemente versátiles y flexibles como para poder elegir entre diferentes cursos de acción. Mi respuesta es: sí, las Tres Leyes son la única forma en que los seres humanos racionales pueden lidiar con los robots, o con cualquier otra cosa... Pero cuando digo eso siempre recuerdo, tristemente, que los seres humanos no siempre son racionales".