{"id":1019,"date":"2018-11-29T11:33:13","date_gmt":"2018-11-29T11:33:13","guid":{"rendered":"http:\/\/granadablogs.com\/entrelineas\/?p=1019"},"modified":"2018-12-26T12:47:34","modified_gmt":"2018-12-26T12:47:34","slug":"el-dilema-del-algoritmo","status":"publish","type":"post","link":"https:\/\/granadablogs.com\/entrelineas\/2018\/11\/29\/el-dilema-del-algoritmo\/","title":{"rendered":"El dilema del algoritmo"},"content":{"rendered":"<p>&#8216;Si el matem\u00e1tico y astr\u00f3nomo persa <strong>Muhammad ibn Musa al-Khwarizmi<\/strong> (s. IX) \u201clevantase la cabeza\u201d y supiera que su gentilicio ha sido usado para dar nombre a un conjunto ordenado y finito de reglas que sirven para hallar la soluci\u00f3n a un problema matem\u00e1tico o para elegir una opci\u00f3n partiendo de una serie de premisas (algoritmo), posiblemente dar\u00eda su aprobaci\u00f3n ya que esto es la base del \u00e1lgebra, de la que fue precursor escribiendo el primer tratado sobre la soluci\u00f3n de ecuaciones lineales y cuadr\u00e1ticas.<!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/www.thoughtco.com\/thmb\/7LH3vRY8R2f1-1J72Fe5-Ti5VTc=\/768x0\/filters:no_upscale():max_bytes(150000):strip_icc()\/Al-Khwarizmi-head-5693a8955f9b58eba491f07c.jpg\" alt=\"Resultado\" width=\"493\" height=\"331\" \/><\/p>\n<p>En cambio, igual mostrar\u00eda ciertas dudas frente a la creaci\u00f3n de algoritmos que, con el nombre comercial de Inteligencia Artificial, tratan de emular el funcionamiento del cerebro humano. E intuyo, casi con total seguridad, que no aceptar\u00eda que a las m\u00e1quinas se les dotase de moral o \u00e9tica.<\/p>\n<p>Recordemos que las famosas tres leyes de la rob\u00f3tica con las que <strong>I. Asimov<\/strong> inici\u00f3 su libro \u201c<em>I, Robot<\/em>\u201d en realidad eran la secuencia de instrucciones de un algoritmo sencillo dise\u00f1ado para proteger a los humanos de otros humanos y de las propias m\u00e1quinas. En cierta medida, program\u00f3 la soluci\u00f3n a un dilema moral ocasionado en situaciones en las que un robot deb\u00eda tomar una decisi\u00f3n para que un humano no sufriera riesgo alguno.<\/p>\n<p>Asimov, a trav\u00e9s de su historia de ficci\u00f3n (1950), predijo lo que en la actualidad se est\u00e1 desarrollando en el \u00e1mbito de la inteligencia artificial. En concreto, en el MIT se ha llevado a cabo un estudio con dos millones de personas para desarrollar un algoritmo que permita a un coche aut\u00f3nomo decidir, en caso de accidente inevitable, a qui\u00e9n atropellar y a qui\u00e9n salvar en funci\u00f3n de los criterios coincidentes en la mayor\u00eda de las personas encuestadas (j\u00f3venes frente a viejos, animales frente a humanos, peatones frente al conductor, entre razas o condiciones f\u00edsicas, delincuentes frente a inocentes, etc.).<\/p>\n<p><img decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/encrypted-tbn0.gstatic.com\/images?q=tbn:ANd9GcQ6NgHzH9aB0j0E2R3Ie6TWzvy0s67fsVNbPDtqa5avdGFFKT7U\" alt=\"Resultado\" \/><\/p>\n<p>Dada la amplia muestra de individuos con la que se ha realizado este estudio, los resultados, publicados en <em>Nature<\/em>, vienen a resumir la naturaleza de la propia moral humana y de las predilecciones que sentimos por unas personas u otras. Ello implica establecer ciertos rangos discriminatorios cuando tomamos decisiones basadas en sus caracter\u00edsticas personales (morfol\u00f3gicas, psicol\u00f3gicas, conductuales&#8230;), que terminan influyendo en las relaciones interpersonales y entre sociedades o culturas. Si trasladamos estos principios morales a las m\u00e1quinas, aplicar\u00e1n nuestras mismas desigualdades en sus respuestas.<\/p>\n<p>El experimento toma como referencia el \u201c<em>Dilema del tranv\u00eda<\/em>\u201d, planteado por primera vez por <strong>P. Foot<\/strong> en 1967 para dilucidar los problemas \u00e9ticos a los que nos enfrentamos. Desde entonces, se ha replicado a\u00f1adiendo variantes como la presentada por <strong>J.J. Thomson<\/strong> en 1985, o la m\u00e1s reciente de <strong>J. Greene<\/strong>. En este \u201cdilema del tranv\u00eda\u201d, una persona debe decidir en dos supuestos a quien salvar de ser atropellado entre un grupo de trabajadores en la v\u00eda \u201cA\u201d o un individuo despistado en la v\u00eda \u201cB\u201d, en el primer caso ha de accionar una palanca para desviar el tranv\u00eda sin frenos y en el segundo supuesto debe empujar a un individuo de gran peso para desviar su trayectoria. Este experimento revel\u00f3 que en los humanos se ponen en marcha procesos racionales en el primer supuesto y emocionales en el segundo.<\/p>\n<p>El MIT ampli\u00f3 el experimento a 233 pa\u00edses para lograr una muestra de m\u00e1s de cuarenta millones de dilemas resueltos con los que definir un \u201cparadigma moral\u201d com\u00fan a la mayor\u00eda de los humanos que pudiera se transferido a un robot aut\u00f3nomo. Ello significa que las decisiones que tomase esa m\u00e1quina ser\u00edan fiel reflejo de las que tomar\u00eda una persona normal en una situaci\u00f3n parecida. No obstante, al haber diferencias entre naciones y culturas, la aplicaci\u00f3n de este algoritmo moral deber\u00eda ser modificado en funci\u00f3n de donde fuese a operar.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/kwork.ru\/pics\/t3\/32\/243855-4.jpg\" alt=\"Imagen\" width=\"405\" height=\"270\" \/><\/p>\n<p>Tal como avanzan estas cuestiones, tendr\u00edamos que preguntarnos si, adem\u00e1s de la moral, se pueden parametrizar tambi\u00e9n los prejuicios, los instintos, la empat\u00eda, las emociones&#8230; el libre albedr\u00edo. Y, en todo caso, despu\u00e9s de obtener los resultados de cuantos estudios multivariables se quieran realizar, \u00bfc\u00f3mo estar seguros de que los inform\u00e1ticos que programan los algoritmos correspondientes no les aportan cierto grado de subjetividad?. Ya han existido experiencias previas de algoritmos en los que se han detectado sesgos racistas o discriminatorios que han puesto en entredicho su utilidad, sobre todo en \u00e1mbitos tan complejos como el judicial o el policial.<\/p>\n<p>Por ello, la inteligencia artificial, sobre todo cuando se trata de emular a los humanos en la toma de decisiones, deber\u00eda estar sujeta no solo a los pasos previos de selecci\u00f3n de informaci\u00f3n \u00fatil, de aplicaci\u00f3n de la l\u00f3gica de razonamiento, de dise\u00f1o de los mecanismos de gesti\u00f3n de los datos y de elecci\u00f3n de la mejor decisi\u00f3n en base a lo anterior (<strong>H. Simon<\/strong>), sino que tambi\u00e9n se deber\u00eda tener en cuenta el contexto en el que la decisi\u00f3n se adopta cuando se plantea un dilema (<strong>M.T. Lamata &amp; J.L: Verdegay<\/strong>). Algo que la inteligencia humana es posible que s\u00ed contemple.<\/p>\n<p>Por ello, creo que antes de querer emular la naturaleza humana mediante la inteligencia artificial, habr\u00eda que entender la propia inteligencia humana.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&#8216;Si el matem\u00e1tico y astr\u00f3nomo persa Muhammad ibn Musa al-Khwarizmi (s. IX) \u201clevantase la cabeza\u201d y supiera que su gentilicio ha sido usado para dar nombre a un conjunto ordenado y finito de reglas que sirven para hallar la soluci\u00f3n a un problema matem\u00e1tico o para elegir una opci\u00f3n partiendo de una serie de premisas [&hellip;]<\/p>\n","protected":false},"author":66,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-1019","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/posts\/1019","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/users\/66"}],"replies":[{"embeddable":true,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/comments?post=1019"}],"version-history":[{"count":2,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/posts\/1019\/revisions"}],"predecessor-version":[{"id":1021,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/posts\/1019\/revisions\/1021"}],"wp:attachment":[{"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/media?parent=1019"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/categories?post=1019"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/granadablogs.com\/entrelineas\/wp-json\/wp\/v2\/tags?post=1019"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}