‘Si el matemático y astrónomo persa Muhammad ibn Musa al-Khwarizmi (s. IX) “levantase la cabeza” y supiera que su gentilicio ha sido usado para dar nombre a un conjunto ordenado y finito de reglas que sirven para hallar la solución a un problema matemático o para elegir una opción partiendo de una serie de premisas (algoritmo), posiblemente daría su aprobación ya que esto es la base del álgebra, de la que fue precursor escribiendo el primer tratado sobre la solución de ecuaciones lineales y cuadráticas.
En cambio, igual mostraría ciertas dudas frente a la creación de algoritmos que, con el nombre comercial de Inteligencia Artificial, tratan de emular el funcionamiento del cerebro humano. E intuyo, casi con total seguridad, que no aceptaría que a las máquinas se les dotase de moral o ética.
Recordemos que las famosas tres leyes de la robótica con las que I. Asimov inició su libro “I, Robot” en realidad eran la secuencia de instrucciones de un algoritmo sencillo diseñado para proteger a los humanos de otros humanos y de las propias máquinas. En cierta medida, programó la solución a un dilema moral ocasionado en situaciones en las que un robot debía tomar una decisión para que un humano no sufriera riesgo alguno.
Asimov, a través de su historia de ficción (1950), predijo lo que en la actualidad se está desarrollando en el ámbito de la inteligencia artificial. En concreto, en el MIT se ha llevado a cabo un estudio con dos millones de personas para desarrollar un algoritmo que permita a un coche autónomo decidir, en caso de accidente inevitable, a quién atropellar y a quién salvar en función de los criterios coincidentes en la mayoría de las personas encuestadas (jóvenes frente a viejos, animales frente a humanos, peatones frente al conductor, entre razas o condiciones físicas, delincuentes frente a inocentes, etc.).
Dada la amplia muestra de individuos con la que se ha realizado este estudio, los resultados, publicados en Nature, vienen a resumir la naturaleza de la propia moral humana y de las predilecciones que sentimos por unas personas u otras. Ello implica establecer ciertos rangos discriminatorios cuando tomamos decisiones basadas en sus características personales (morfológicas, psicológicas, conductuales…), que terminan influyendo en las relaciones interpersonales y entre sociedades o culturas. Si trasladamos estos principios morales a las máquinas, aplicarán nuestras mismas desigualdades en sus respuestas.
El experimento toma como referencia el “Dilema del tranvía”, planteado por primera vez por P. Foot en 1967 para dilucidar los problemas éticos a los que nos enfrentamos. Desde entonces, se ha replicado añadiendo variantes como la presentada por J.J. Thomson en 1985, o la más reciente de J. Greene. En este “dilema del tranvía”, una persona debe decidir en dos supuestos a quien salvar de ser atropellado entre un grupo de trabajadores en la vía “A” o un individuo despistado en la vía “B”, en el primer caso ha de accionar una palanca para desviar el tranvía sin frenos y en el segundo supuesto debe empujar a un individuo de gran peso para desviar su trayectoria. Este experimento reveló que en los humanos se ponen en marcha procesos racionales en el primer supuesto y emocionales en el segundo.
El MIT amplió el experimento a 233 países para lograr una muestra de más de cuarenta millones de dilemas resueltos con los que definir un “paradigma moral” común a la mayoría de los humanos que pudiera se transferido a un robot autónomo. Ello significa que las decisiones que tomase esa máquina serían fiel reflejo de las que tomaría una persona normal en una situación parecida. No obstante, al haber diferencias entre naciones y culturas, la aplicación de este algoritmo moral debería ser modificado en función de donde fuese a operar.
Tal como avanzan estas cuestiones, tendríamos que preguntarnos si, además de la moral, se pueden parametrizar también los prejuicios, los instintos, la empatía, las emociones… el libre albedrío. Y, en todo caso, después de obtener los resultados de cuantos estudios multivariables se quieran realizar, ¿cómo estar seguros de que los informáticos que programan los algoritmos correspondientes no les aportan cierto grado de subjetividad?. Ya han existido experiencias previas de algoritmos en los que se han detectado sesgos racistas o discriminatorios que han puesto en entredicho su utilidad, sobre todo en ámbitos tan complejos como el judicial o el policial.
Por ello, la inteligencia artificial, sobre todo cuando se trata de emular a los humanos en la toma de decisiones, debería estar sujeta no solo a los pasos previos de selección de información útil, de aplicación de la lógica de razonamiento, de diseño de los mecanismos de gestión de los datos y de elección de la mejor decisión en base a lo anterior (H. Simon), sino que también se debería tener en cuenta el contexto en el que la decisión se adopta cuando se plantea un dilema (M.T. Lamata & J.L: Verdegay). Algo que la inteligencia humana es posible que sí contemple.
Por ello, creo que antes de querer emular la naturaleza humana mediante la inteligencia artificial, habría que entender la propia inteligencia humana.