Los retos éticos de la inteligencia artificial

Esta nueva tecnología, que está en pleno auge, ha planteado en algunas de sus experiencias problemas morales, en su mayoría involuntarios, que deben ser resueltos por la mente humana. Para asesorar en esta materia a empresas y organizaciones españolas y resolver los retos éticos, hace unos meses nacía OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial.

La inteligencia artificial (IA) es un concepto con décadas de historia. Huele a ciencia ficción: al Yo, robot de Isaac Asimov; al Terminator de James Cameron; al superordenador HAL 9000 de 2001, una odisea en el espacio… Una visión literaria y cinematográfica que poco se acerca a la realidad, salpicada de dudas y expectación de forma simultánea.

Lejos de alcanzar tecnologías, a veces apocalípticas, como las que han llegado al imaginario común a través del cine, los cómics, los videojuegos y los libros, en estos momentos ya existen un buen número de experiencias relacionadas con la inteligencia artificial. La mayoría tienen como fin mejorar la calidad de vida de las personas y hacer crecer el rendimiento de trabajo reduciendo tiempos y esfuerzos, todo ello gracias al empleo de máquinas capaces de aprender y de resolver problemas mecánicos recogiendo y analizando datos.

Mucho se ha oído hablar del coche autónomo, del reconocimiento facial y de algoritmos que pueden predecir enfermedades futuras o incluso pandemias como la del coronavirus que estamos viviendo en estos momentos.

Todo ello ya es una realidad, aunque todavía en proceso de desarrollo. Y en la mayoría de los casos es necesario que el humano supervise el trabajo de la máquina para detectar no solo su buen o mal funcionamiento sino también los problemas éticos y morales que plantea e, incluso, la posible vulneración de derechos.

Para ello, en España se ha creado OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial, una organización sin ánimo de lucro cuya misión es “observar, prevenir y mitigar los desafíos del uso de la IA como oportunidad disruptiva”, como asegura su presidenta, Idoia Salazar.

En ella están presentes empresas, universidades, instituciones y expertos en la materia, que se encargan de velar por el buen uso de la inteligencia artificial en diferentes áreas de trabajo: medicina, defensa, educación, investigación y RSC.

Ejemplos de los que aprender

Salazar pone dos ejemplos para justificar la necesidad de crear y hacer despuntar una entidad como OdiseIA. Uno es el de Amazon, que tuvo que abandonar un sistema de inteligencia artificial que mecanizaba y cribaba la selección de recursos humanos.

“El algoritmo había sido ‘entrenado’ con datos de los diez años anteriores, en los que había una mayoría de hombres blancos de menos de 40 años, así que empezó a discriminar de forma involuntaria por género, raza y edad”, explica la también codirectora del Área de Ética y Responsabilidad de OdiseIA.

Google puso a funcionar un programa de IA que confundía y etiquetaba a las personas de piel oscura como simios. Un sesgo racista que ya ha podido solucionar.

El otro caso fue el de Google, que puso a funcionar un programa de IA que confundía y etiquetaba a las personas de piel oscura como simios. Un sesgo racista que ya ha podido solucionar.

Tampoco Microsoft ha podido librarse: hace unos años incluyó un chatbot en Twitter para interactuar con seres humanos de forma coloquial, pero los mensajes que elaboraba terminaron siendo racistas, sexistas y xenófobos, y el proyecto fue anulado.

“En el sector hay un buen número de investigaciones, y entre los profesionales que las llevan a cabo hay una gran concienciación sobre los posibles malos usos, pero no se conocen porque hasta ahora sus opiniones se quedaban dentro del ámbito de los congresos. Nosotros vimos la necesidad práctica de bajar a la tierra casos reales”, asegura Salazar.

Algo que la plataforma ya está llevando a cabo con jornadas informativas diversas, formación y el asesoramiento de organizaciones públicas y privadas. De hecho, para garantizar su independencia y fomentar estas acciones divulgativas, OdiseIA ha lanzado una campaña de crowdfunding que estará activa hasta el 7 de abril.

“Nuestra contribución va a ser especialmente importante una vez que se presente la primera Estrategia Nacional de Inteligencia Artificial en España, ya que desencadenará multitud de acciones que influirán en nuestra sociedad durante décadas”, comenta la también profesora de la Universidad CEU San Pablo.

Una estrategia en ‘stand by’

Ese plan de acción ya ha sido esbozado por el Gobierno, que presentó sus líneas estratégicas hace ya más de un año, junto con un mapa interactivo en el que se muestra a aquellas empresas que están trabajando en el ámbito de la IA.

De hecho, la mayoría de los agentes del sector esperaba en este primer semestre del año un texto con planes de acción concretos, que iba a estar incluido en el próximo Plan Estatal de I+D+i. Pero como ha ocurrido en casi todos los ámbitos, su avance se ha visto truncado por la crisis del coronavirus.

Según el texto preliminar, dicha estrategia en IA debería abarcar ámbitos que van más allá del entorno de la I+D+i. Por ejemplo, en el mercado laboral, sanidad, servicios o dentro del modelo educativo. “Es importante introducirlo para que desde pequeños tengamos formación al respecto y, así, saber utilizar este tipo de tecnologías a lo largo de nuestra vida”, asegura Mónica Villas, consultora en nuevas tecnologías, exdirectiva de IBM y directora del área de Formación de OdiseIA.

Un punto que es necesario desarrollar cuanto antes en España, un país en el que sus estudiantes ‘patinan’, sobre todo, en las materias científicas y de lógica matemática, según el Informe PISA.

“Seguimos dando muchísima prioridad a la memorización y no a las habilidades que consisten en entrenar a los algoritmos, en trabajar con tecnologías… Es un punto a mejorar, sin duda”, razona Villas.

El texto preliminar también hace referencia a la importancia de alinear la estrategia a la consecución de los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas, para que la IA sirva de “tecnología palanca” o transformadora de las políticas públicas.

Por otra parte, indica que debe ser aprovechada como “nueva ventaja competitiva” en la que colaboren centros de investigación y universidades, pero también pymes, grandes empresas y agentes sociales, entre otros. El objetivo: abordar nuevos modelos de innovación e impulsar la transferencia de conocimiento que permita el impulso de la economía española.

En general, ya se han lanzado planes de IA en comunidades autónomas como Cataluña o la Comunidad Valenciana. “Lo lógico sería que tuviéramos uno de carácter nacional que nos abarcase a todos. Y no debemos basarla únicamente en la normativa europea de IA, incluida en el Reglamento General de Protección de Datos (RGPD)”, comenta Salazar.

Y razona su tesis: “Cada país debe ser consciente de que el aspecto cultural es fundamental cuando se tratan estos temas, que son de impacto social”.

Pone el caso concreto del coche autónomo: “El Massachusetts Institute of Technology (MIT) desarrolló una herramienta, la moral machine, un algoritmo ideado para dar con un código ético internacional según la respuesta de miles de personas de todo el mundo a diferentes dilemas éticos sobre a quién debía afectar un posible accidente. Pero se llegó a la conclusión de que no había un razonamiento consensuado”.

En el caso concreto de España, cree que para hacer despuntar el desarrollo de estas tecnologías hace falta legislar con precisión sobre los casos de uso. “Si se hace de forma demasiado general lo más probable es que la tecnología no evolucione”.

Algo que no convendría, teniendo en cuenta las previsiones de futuro que se barajan en este campo: abarcan desde grandes mejoras de la productividad hasta creación de empleo de alta cualificación, pasando por las subvenciones que ya se están concediendo a nivel europeo para incentivar este tipo de proyectos.

Comentarios