El movimiento 37 y la teoría del barniz

La relación entre humanos e inteligencia artificial (IA) es uno de los interrogantes más fascinantes y complejos de la tecnología moderna. Entre las múltiples manifestaciones de esta interacción, más allá de las icónicas expresiones de la ciencia ficción, pocas han sido tan simbólicas como el enfrentamiento entre Deep Blue, programa desarrollado por IBM, y G. Kasparov. El célebre ajedrecista ganó 3 partidas y empató 2 en1996, pero finalmente fue derrotado en 1997 en un encuentro que, no exento de polémica, supuso un punto crítico en la concepción del futuro de la informática.

Años después, en 2016, se enfrentaron Lee Sedol, campeón mundial de Go (juego chino de estrategia), y AlphaGo, de DeepMind. Go es considerado uno de los desafíos más profundos para cualquier persona debido a su vasto abanico de posibles combinaciones (se calcula que pueden ejecutarse 10170 jugadas) y a la creatividad e intuición necesarias para anticipar las estrategias del oponente, habilidades que parecían exclusivas de la mente humana.

AlphaGo venció en cuatro de cinco partidas. En la segunda, hizo un movimiento (el 37) arriesgado e ilógico para las reglas con las que habían sido entrenados sus algoritmos; las rompió mostrando una capacidad de improvisación propia de los humanos. Este hecho inopinado cuestionaba las expectativas que hasta entonces se esperaban de la IA y abría un nuevo debate sobre el poder que podrían adquirir las aplicaciones que, más allá de procesar un aprendizaje autónomo e interactuar con un lenguaje natural, fueran capaces de tomar consciencia de sí mismas y adoptar decisiones fuera del ámbito pronosticable.

AlphaGo

Que la singularidad de R. Kurzweil (momento en el que las IAs superarán a la del conjunto de la humanidad, con impredecibles consecuencias) esté más cerca que nunca debería preocuparnos porque estas aplicaciones son programadas por humanos con, unas veces, la intención altruista o científica de mejorar la calidad de vida de las personas y, en otras mucho más preocupantes, con el objetivo empresarial de obtener pingües beneficios sin importar los medios para obtenerlos; y, más alarmante, con la voluntad gubernamental de controlar o coartar las libertades de los ciudadanos. Este es el verdadero peligro, como afirma el profesor de ciencia computacional T. Chian, “no que un día quiera destruir al mundo y la humanidad».

Cuando se agita el fantasma de las máquinas conscientes de sí mismas, capaces de aniquilarnos, deberíamos ponernos en alerta porque existen organizaciones interesadas en poner el foco en las máquinas y disimular el poder que les otorga la acumulación de información para influir o manipular nuestra voluntad mediante “bots” inteligentes. Máxime cuando los mecanismos de autorregulación, escrutinio o control descentralizado se van limitando o anulando, tanto en mega compañías tecnológicas como por gobiernos autocráticos (empero enmascarados como democracias legítimas) al frente de los cuales el poder de decisión y de acción lo ostenta una o pocas personas con dudosa integridad moral.

Ahora recordemos a Frans de Waal, reconocido primatólogo y etólogo que desarrolló la “teoría del barniz” (en respuesta a la concepción de Huxley, Hobbs, Lutero o Freud), de que la moralidad humana es una fina capa de civilización superpuesta a nuestros instintos más brutales. Según esta teoría, los comportamientos éticos y morales no son una simple cobertura sobre una naturaleza intrínsecamente cruel (en oposición a la de los personajes “solitarios” de Avempace e Ibn Tufail, o al “buen salvaje” de Rousseau), sino que han evolucionado como adaptaciones para mejorar la cooperación y la cohesión social. De Waal observó cómo los primates muestran empatía, altruismo y resolución de conflictos, proponiendo que estas capacidades y la moral son, en buena medida, parte de nuestra biología.

Los ocho grandes parecidos entre humanos y monos

La “teoría del barniz” plantea una visión evolutiva sobre la ética y la moral que aporta una perspectiva particular sobre el potencial de la IA en su relación con los humanos, sugiriendo cuestiones filosóficas cruciales: si la cooperación, las emociones, la intuición y la empatía son resultado de la evolución ¿puede una IA, como ente consciente, desarrollarlas no siendo una simple capa programada?, ¿podrían llegar a simular estos comportamientos, asemejando los humanos?, ¿podrían ejecutar conductas, como el movimiento 37, que sean más que una imitación o error de programación?

Tal vez las IAs las repliquen de forma que, aunque limitada, puedan hacernos creer que estamos interactuando con entidades moralmente sensibles, cuando en realidad no sean más que una simulación programada al no llegar a entender los fundamentos de nuestra moralidad, que requieren de una experiencia de vida, de un pasado construido a “golpe de azar y necesidad” (supervivencia) y de un constructo social surgido a partir del sentido emocional (epigenético) de la cooperación.

A las IAs se les pueden asignar roles de “aliadas” en la promoción de comportamientos éticos y en la toma de decisiones justas, o actuar obedeciendo a otras finalidades. Por ejemplo, cómo se justifica que el empate técnico entre Trump y Harris durante la campaña electoral se haya transformado en la gran diferencia de votos efectivos y la abrupta abstención de más de 10 millones de votantes demócratas, si no es por la intervención de un Musk (propietario y responsable de los algoritmos que gestionan la red X) muy interesado en ser nombrado Secretario de Eficiencia Gubernamental para obtener respaldo oficial y colocar a empleados suyos para que SpaceX y Tesla no encuentren límites a su expansión ni trabas regulatorias (The New York Times).

Las IAs no tienen pasado, solo datos. Nosotros tenemos sentido de identidad y de pertenencia a un colectivo creado a partir de un pasado compartido. El futuro nos plantea un desafío ético y filosófico, no solo tecnológico, ya que hemos de definir cómo coexistir y cooperar con las máquinas reconociendo nuestras limitaciones y aprovechando las oportunidades que nos pueden ofrecer sin necesidad de otorgarles propiedades intrínsecamente humanas.

 

José Manuel Navarro Llena

Experto en Marketing

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *