Los retos de la ética para regular la Inteligencia Artificial
Con la llegada de esta tecnología surgen muchas preguntas sobre cómo se regulará su uso y cómo se conseguirá que los datos obtenidos sean imparciales o no discriminatorios
Son muchas las voces que dicen que las películas de ciencia ficción son la antesala de lo que ocurrirá en la vida real. Quizás razón no les falta. ‘Regreso al futuro II’ predijo la llegada del FaceTime; ‘Stark Trek’ la utilización de aparatos tan comúnmente usados en la actualidad como los móviles, los auriculares o los traductores universales y ‘Star Wars’ el holograma. Poco a poco la sociedad va introduciendo en su vida aquellas tecnologías que hace unos años aparecían solo en la gran pantalla y se vislumbraban como un futuro casi impensable. Hoy día son una realidad. Sin embargo, el séptimo arte también se ha encargado de vislumbrar la otra cara de la moneda de la más que conocida Inteligencia Artificial. Hay que retroceder hasta el año 2004 para encontrar la película ‘Yo Robot’, protagonizada por Will Smith. En ella, los humanoides se encuentran en la vida cotidiana de la sociedad y son la principal fuerza laboral de las personas. Todo sigue su curso hasta que estos robots transgreden las leyes impuestas para ellos.
Aunque se trata de ciencia ficción, su argumento relata el reto al que se enfrenta la sociedad actual. ¿Cómo conseguir que la Inteligencia Artificial respete los derechos humanos, sea imparcial y se haga un buen uso de los datos, tanto los que se aportan a las máquinas como las que estas generan?
Granada se encuentra actualmente inmersa en la candidatura para ser la sede de la Agencia Estatal de la Inteligencia Estatal, pero ante de que esto ocurra, la ciudadanía ya tiene muchas preguntas que aun no tienen respuesta o es algo difusa. Francisco Herrera, concejal de Ciencia, Innovación y Transformación Digital, Ciudad Inteligente, Infraestructura y Telecomunicaciones trata de dar algo de luz a este tema.
Para entender cómo se regulará el uso de la IA, hay que partir de unos principios básicos que serán defender los derechos fundamentales de las personas y garantizar que cuando se aplique esta tecnología no afecte a la vida de los ciudadanos. Para ello, La Comisión Europea plantea tres escenarios: dónde no debe ser usada la Inteligencia Artificial, como en el continuo reconocimiento de las personas para el control de los mismos, que no haya discriminación y que se garantice un comportamiento seguro y sin fallos de la misma.
A partir de esa base, se puede comenzar a contestar a las preguntas que delimitarán el uso de esta tecnología. Ante las dudas que pueden surgir en la sociedad, Herrera apunta que lo primero que hay que tener claro es que “la persona será el centro de todo, no se va a perder el humanismo. Se tratará de una tecnología que resuelva un problema concreto. Si se tienen muchos ejemplos de esos problemas, el software podrá aportar una solución. Por ejemplo, se está viendo ya su utilización en la conducción de vehículos o se podrá ver en el análisis de radiografías o en la detección de un cáncer. Se tratará de hecho puntuales, habrá máquinas que ofrezcan una serie de servicios y debemos aprender a tener esa interacción con ellas, pero que no quepa duda que no se perderá el contacto con las personas”.
¿Cómo conseguir que la Inteligencia Artificial sea imparcial?
Para evitar que los futuros datos que la IA aporte contengan discriminaciones o imparcialidades, el primer paso lo debe dar el hombre. “Las máquinas aprenden a base de datos y en función a ellos tienen un comportamiento u otro”, explica Herrera que añade que para que se consiga una imparcialidad, se tiene que garantizar que esa información que se le aporte al software lo sea. “Toda discriminación o desigualdad que se aplique a los datos, la máquina lo reflejará. El reto está en el análisis de esta información, conseguir que la IA trabaje con datos de calidad”
Aquí es donde entran en juego las personas, las encargadas de introducir esas informaciones. “En toda empresa donde se use o se desarrolle la IA debe haber expertos en ética. Si se habla de un software de fronteras, donde se evalúa a una persona que pide refugio, se deberá hacer conforme a unos valores éticos”. Esto aun es un reto de futuro, por ello la Universidad de Granada ya se está adelantando a las necesidades que se plantearán en los próximos tiempos creando un Máster en Formación Permanente en Inteligencia Artificial, Ética y Derecho.
¿Quién tiene la responsabilidad cuando la IA falla?
Saber hacia dónde irá la responsabilidad cuando una máquina comete un fallo es quizás una de las preguntas que más se plantea la ciudadanía. Aquí entra en juego la Agencia de Supervisión de la Inteligencia Artificial, encargada de introducir las normas reguladoras en escenarios de riesgo.
Partiendo de la base de que las leyes evolucionarán conforme a la sociedad, su ética y la aplicación de la IA, esta agencia acomete cinco acciones claves. “Por un lado, dará una certificación a las empresas que usen esta tecnología y que, por lo tanto, lo hagan dentro de la ley. Para ello, será la encargada de crear unas leyes que la regulen. También ejercerá como órgano sancionador en caso de que no se sigan las directrices marcadas. Además, será la encargada de enseñar a la ciudadanía para qué se utiliza la IA y cuáles son los principios éticos por los que se regula, así como analizar cómo la sociedad se relaciona con la IA”.