El debate entre ética e inteligencia artificial sigue de plena actualidad. El papa Francisco en sus últimos discursos sobre IA ha adoptado la solución de la "algor-ética" de Paolo Benanti.
Paolo Benanti
Paolo Benanti (Roma, 1973) es un teólogo franciscano que se ocupa de la ética, la bioética y la ética de las tecnologías. En particular, sus estudios se centran en la gestión de la innovación: Internet y el impacto de la era digital, la biotecnología para la mejora humana y la bioseguridad, la neurociencia y la neurotecnología. Cuenta con numerosas publicaciones sobre ética e inteligencia artificial. Su libro más reciente es Digital age. Teoria del cambio d'epoca. Persona, famiglia e società.
Actualmente trabaja como profesor en la Pontificia Universidad Gregoriana, en el Instituto Teológico de Asís y el Pontificio Colegio Leoniano. En Italia y en el Vaticano es reconocido como uno de los grandes expertos en inteligencia artificial (IA). En 2017 fue incluido en la Task Force Intelligenza Artificiale que promueve la elaboración de un libro blanco sobre IA al servicio del ciudadano. Desde finales de diciembre de 2018 forma parte del grupo de expertos del Ministerio de desarrollo económico que asesora al gobierno italiano sobre la estrategia de IA. Respecto a sus responsabilidades en el Vaticano, en junio 2018 fue nombrado miembro de la Academia Pontificia de la Vida con dedicación expresa al mundo de la IA. Además el papa Francisco le adjudicó dos nuevos cargos en noviembre de 2019: consejero de la Penitenciaría Apostólica y consultor del Pontificio Consejo para la Cultura.
Paolo Benanti fue uno de los grandes protagonistas del congreso Rome Call, organizado por la Academia Pontificia de la Vida del 26 al 28 de febrero de 2020, en el que entidades como IBM, Microsoft, la FAO, el parlamento europeo y el gobierno italiano firmaron el documento Call for an AI Ethics. El papa Francisco en su discurso preparado para este congreso defendió la “algor-ética” como “un puente para que los principios se inscriban concretamente en las tecnologías digitales, mediante un diálogo transdisciplinario eficaz”. Sobre la “algor-ética” habló también unos meses antes en su discurso a los participantes en el congreso "Child Dignity in the digital world". La algor-ética es la propuesta de Paolo Benanti, que comenzó a desarrollar en el 2015, sobre la interacción del hombre con la inteligencia artificial.
¿Qué es la inteligencia artificial?
La expresión “inteligencia artificial” (IA) fue acuñada por John McCarthy durante la conferencia de Darmouth (EEUU) en 1956. La teoría consistía en crear una serie de algoritmos que emulasen la inteligencia humana. Desde entonces hubo numerosos avances significativos, pero en la década de los noventa parecía una teoría abocada al fracaso. Sin embargo en los últimos años, gracias al gran volumen de datos existentes y a la cada vez mayor potencia de los ordenadores, se están obteniendo grandes avances en muchas áreas.
La diferencia entre un programa informático y un algoritmo de IA es que en el primero el programador ha de pensar en todas las eventualidades que la máquina puede encontrarse, mientras que en el segundo la máquina sigue un entrenamiento con la que es capaz de adaptarse a ciertos contextos. Por tanto, la máquina goza de una cierta autonomía y parece mostrar algunos comportamientos “inteligentes” parecidos a los del ser humano.
El matemático y químico inglés Alan Turing propuso en 1950 una prueba, conocida como el Test de Turing, donde intentó definir las condiciones en que sería posible afirmar si una máquina es capaz de pensar como nosotros. Consistía en hacer una serie de preguntas a una máquina, y según las respuestas el evaluador sabría si está frente a un máquina o una persona. En el 2014 esta prueba fue superada por el robot Eugene Goostman.
El término “inteligencia” puede llevar a confusión, no hay que confundirlo con la inteligencia humana. Una máquina ni puede pensar ni tiene conciencia. (Habitación china de John R. Searle). Los informáticos y los ingenieros utilizan este término para describir funciones que hacen que ciertos comportamientos de la máquina sean similares a los del ser humano, como abrir o cerrar una puerta, leer, reconocer un obstáculo… Hoy día la IA está omnipresente en nuestra vida cotidiana: drones, robótica, impresión en 3D, logística, construcción y biotecnología, diagnóstico, cirugía robótica, exoesqueletos para rehabilitación motora, automóviles autónomos, son solo algunos de sus principales ámbitos de aplicación.
Algunos autores señalan que nos encontramos ante la 4ª revolución industrial. La diferencia de esta revolución respecto a las anteriores, es que esta tecnología no sirve para hacer algo nuevo sino que tiene la capacidad de cambiar por completo la relación entre el hombre y la máquina. Nos encontramos, por tanto, ante una nueva frontera evolutiva: interacciones y convivencia entre personas e inteligencias artificiales. Es probablemente uno de los desafíos más complejos al que se enfrentará el ser humano en los próximos años.
En una entrevista, Paolo Benanti declaraba que “el surgimiento de la IA ya está modificando la percepción que tenemos de nosotros, basta con pensar en las neurociencias o en los modelos de física teórica o astrofísica”. La IA afecta al conocimiento, pero la pregunta clave es: ¿pueden las máquinas tomar decisiones autónomas por nosotros? Según Benanti la IA “puede subrogar la presencia humana en ciertas acciones pero no puede sustituir al hombre”.
Ética e inteligencia artificial
Ética e inteligencia artificial
Ante el desarrollo y la difusión de la inteligencia artificial se nos plantean nuevos problemas éticos. Benanti afirma que un principio debe quedar bien claro: la inteligencia artificial debe estar al servicio del verdadero desarrollo del hombre y no al revés. Esto implica que los procesos innovadores tienen un valor positivo solo si están orientados hacia el progreso verdaderamente humano.
Cuando se habla de inteligencia artificial, se habla sustancialmente de algoritmos. Un algoritmo es un software que sigue una cadena lógica simple. Pero en el caso de la IA es un software que está diseñado para ser entrenado y llegar a tomar una decisión “autónoma”. De la complejidad y potencia de los algoritmos y de sus secuencias deriva una inteligencia artificial más o menos evolucionada.
El problema de estos algoritmos es que son cajas cerradas protegidas con un copyright. No conocemos cuáles son los factores que determinan sus criterios. Y además nos surge la siguiente pregunta: ¿Qué interés persiguen los que han realizado estos algoritmos? Hay algunos estudios que muestran que este software puede conllevar los prejuicios de quienes los escribieron o desarrollar algunos nuevos, dependiendo de los datos. Ante esto Benanti, en unas declaraciones recogidas en un artículo de vatican.news, asegura que “está claro que las millones de decisiones específicas que toma el software de inteligencia artificial pueden ser capaces de producir injusticias a gran escala”. Por lo que “podríamos tener sociedades menos justas y paradójicamente menos transparentes” por no haber podido acceder a los factores que han determinado dichas injusticias. Aún así, en su artículo sobre la dignidad de la persona en la era de la Máquina Sapiens, manifiesta que “el mayor peligro no proviene de la IA en sí misma, sino de no conocer estas tecnologías y de dejar decidir sobre su uso a una clase dominante absolutamente no preparada para manejar el tema”.
Una resolución del Parlamento Europeo del 16 de febrero de 2017 se planteó otorgar una “personalidad electrónica” a los robots capaces de adoptar decisiones de forma autónoma. Esta regulación es insuficiente para Benanti. El debate no debe quedarse solamente en el terreno jurídico, sino que también debe englobar la técnica y la ética. Pero a su vez, en otra entrevista insistía en que “no se puede hablar de ética sin conocer los aspectos técnicos, no se puede dar una reglamentación jurídica sin principios éticos y sin un conocimiento del sustrato tecnológico”. Además, la cuestión más profunda es respecto a los algoritmos: ¿se deben mantener esas cajas negras o deberían ser transparentes?
La algor-ética de Paolo Benanti
La IA plantea un desafío especialmente complejo en el campo de la ética, por ello es necesario darle una respuesta. El papa Francisco en su encíclica Laudato si’ nos puso en guardia contra el “pragmatismo tecnocrático” y en sus últimos discursos sobre la IA, como hemos señalado anteriormente, ha adoptado como solución la “algor-ética” propuesta por Paolo Benanti.
El experto italiano considera que ha llegado el momento de introducir un nuevo capítulo en la ética: los algoritmos. Nos encontramos ante un nuevo desafío lingüístico que ocurre en la frontera entre el hombre y la máquina. El principal problema es que la máquina actúa con una serie de valores numéricos: los datos. Si queremos humanizar la técnica y no mecanizar al hombre es necesario introducir valores éticos en los algoritmos. Igual que la ética encierra en sí misma principios, valores y normas, del mismo modo la algor-ética deberá encerrar una tabla de valores, principios y normas que pueda ser traducida al lenguaje-máquina de los ordenadores.
El modelo que propone es el de “insinuar” dentro de la máquina una especie de incertidumbre. Desde el punto de vista algor-ético, esto significa que ante una duda la maquina debe interpelar al hombre, como portador de la ética, para validar su decisión. “Esto nos llevará a crear una IA “Human Centered” (centrada en el hombre) y a desarrollar máquinas que no respondan simplemente sí o no, sino que estén integradas con el hombre y junto al hombre busquen la mejor solución”.
Su algor-ética consta de cuatro reglas: intuición, inteligibilidad, adaptabilidad y adecuación a los objetivos. Si las maquinas interactúan con las personas siguiendo estas instrucciones, no solo no dañarán a la persona (primera ley de la robótica de Asimov), sino que sabrán cómo proteger su dignidad e inventiva. Explicamos brevemente en que consiste cada una de ellas, basándonos en uno de sus artículos publicados en la web y en su intervención en el TEDx Roma del 17 de julio de 2018:
1. Intuición (anticipación): cuando dos seres humanos se encuentran ambos intuyen lo que el otro quiere hacer y cooperan entre sí. De igual forma, en un ambiente mixto hombre-robot la IA debe poder adivinar lo que el ser humano quiere hacer y adaptarse a sus intenciones cooperando. El algoritmo debe ser adaptado al hombre y su singularidad y no viceversa.
2. Intelegibilidad (transparencia): cuando una persona va a realizar una labor dentro de un entorno de trabajo, los que están alrededor entienden que movimientos va a seguir para ejecutarla. Igualmente cuando se trabaja con máquinas debemos saber que pasos va a seguir, sobretodo para no exponernos a situaciones de riesgo. En este sentido, lo más importante en el algoritmo no es la optimización de la acción de la máquina, sino el respeto al hombre.
3. Adaptibilidad: los seres humanos saben adaptarse al entorno y a las circunstancias. En un entorno mixto la máquina también debe saber cómo adaptarse a la persona con la que interactúa, respetando la singularidad de su naturaleza racional-emocional.
4. Adecuación de los objetivos: una máquina sigue unos algoritmos con el fin de alcanzar un objetivo eficiente, sin embargo no siempre se ajusta a lo que necesita en ese momento una persona. Por ello, la prioridad operacional no puede estar en el algoritmo, sino en la persona con la que coopera. La jerarquía de prioridades debe estar en la persona. La máquina coopera con el hombre y no al revés.
El objetivo de estas cuatro dimensiones es proteger la dignidad de la persona en un entorno mixto con la máquina. El siguiente paso sería que un organismo externo de certificación garantizase y verificase que estas capacidades se encuentran implementadas correctamente en los algoritmos. Los gobiernos, a su vez, deberían ofrecer un marco operativo.
En definitiva, la propuesta de la algor-ética de Paolo Benanti es ofrecer una solución para guiar y gestionar la innovación tecnología desde el auténtico desarrollo humano, y no para estar sujeto a ella en la era de los robots y las inteligencias artificiales. En su intervención en Rome Call confía en que el documento firmado, entre otros, por dos de los principales fabricantes de IA sea “el comienzo de un movimiento que reúna a hombres de buena voluntad para cooperar, de modo que las elecciones éticas, los paradigmas legales y las acciones educativas adecuadas hagan que la sociedad civil sea capaz de enfrentar este nuevo tiempo”.
Miguel Ángel Correas
0 Comentarios