Pasar al contenido principal

Nuevo informe del COIT: por una Inteligencia Artificial con ética

Categoría Todas las noticias

Noticia informe IA

El pasado 9 de julio el COIT celebró un evento virtual para presentar el informe ‘Superando los riesgos de una inteligencia artificial sin ética ni regulación’. El acto fue conducido por el vocal de la Junta de Gobierno y coordinador del Grupo de Trabajo de Políticas Públicas y Regulación del COIT, Antonio Portilla. Contó con las exposiciones de Sonia Castillo y Eduardo Rodríguez, ambos miembros del mismo Grupo de Trabajo. Además, incorporó las aportaciones de dos expertos: Eduvigis Ortiz, de Strategic Alliance Leader en SAS, y José Luis Flórez, presidente de Fundación ETHIA.

Antonio Portilla vinculó la realización del informe ‘Superando los riesgos de una inteligencia artificial sin ética ni regulación’ a la presencia cada vez mayor de este tema “ya no solo en el ámbito de las TIC, sino en toda la sociedad”.  Según Portilla, la IA se aborda habitualmente desde una visión que aúna lo económico y lo tecnológico, “nosotros hemos querido hacer algo distinto en este informe e implicar a la ética en el debate”.

Una reflexión necesaria

Para Sonia Castillo, miembro del Grupo de Trabajo de Políticas Públicas y Regulación del COIT, estamos ante un informe que propone una “reflexión necesaria”. La primera razón para esta necesidad es que la IA está siendo objeto de inversión en todos las disciplinas del conocimiento y que el número de patentes en este ámbito no para de crecer.

La segunda razón no es menos importante. “La IA se ha convertido en un soporte fundamental de la toma de decisiones, o bien directamente ya toma decisiones”, señaló Castillo. Dado que cada vez está afectando más a nuestras vidas y a todas las esferas del comportamiento humano, “la IA debe responder a retos éticos”. Se ha estimado que hacia 2030, unos 375 millones de trabajadores en todo el mundo pueden verse sustituidos por la IA. “Existe por tanto una clara dimensión social en relación con el tema”, aseguró Sonia Castillo.

Amenazas y oportunidades

La IA está incidiendo en dos grandes transformaciones: una en el mercado de trabajo y otra en el mundo de la educación. En estos dos ámbitos la influencia de la IA presenta amenazas y oportunidades.

En el caso del mercado de trabajo, las amenazas son las ya citadas, la sustitución de empleos por la automatización. En cuanto a las oportunidades, según un estudio del MIT, la IA ofrece la posibilidad de mejorar la reingeniería de procesos y de reorganizar distintas tareas. “Además, supone un estímulo para la formación STEM y esto es interesante para nuestra profesión”, señaló Sonia Castillo.

En cuanto a la educación, si bien es cierto que la IA puede dar lugar a una falta de equidad y contribuir a brechas sociales y geográficas, “también es verdad que puede ayudar a desarrollar el pensamiento computacional, así como nuevos métodos educativos”. 

¿Leyes específicas para la IA?

Sonia Castillo puso de relieve que “además de un código ético para el pensamiento sintético” quizás haga falta ir más allá e “instituir leyes específicas para la IA”. Aparte de la resolución de difíciles casos legales relacionados con la atribución de responsabilidades en acciones derivadas de las decisiones de la IA, existe también una necesidad de minimizar el riesgo a nivel global.

El riesgo para la humanidad vinculado a la IA ya fue advertido en su momento por el científico Stephen Hawking. “Lo cierto es que diversas organizaciones se han manifestado en este mismo sentido”, según Castillo. Dentro de esta visión más sombría podrían incluirse cuestiones como la IA y su relación con la asimetría en el ejercicio del poder y su posible contribución a la manipulación. 

Un código ético debería tener como divisa la reivindicación de un nuevo humanismo; es decir, de una IA “a favor de la humanidad y no en contra”. En el caso de unas hipotéticas leyes, muchas voces reclaman que estas debieran consensuarse a escala universal e incluir, según Sonia Castillo, “a todos los agentes de la sociedad y no solo a los expertos en tecnología”.

En cuanto al riesgo, este puede ser minimizado a través del propio diseño de la IA, incorporando a estos sistemas un “talón de Aquiles de fábrica” para poder desactivarlos si se detecta alguna pérdida de control. Castillo afirmó que “no podremos sacarle todo el jugo a la IA hasta que este tipo de cuestiones queden cerradas”.

Pugna por el liderazgo

Por su parte, Eduardo Rodríguez, miembro del Grupo de Trabajo de Políticas Públicas y Regulación del COIT, hizo hincapié en las estrategias que están adoptando distintos países del mundo respecto a la IA. De forma directa, señaló que hoy por hoy estas estrategias “van de liderazgo, hay países que están tomando la iniciativa y otros que son espectadores”.

La cifra de expertos en IA en este momento en todo el mundo es de unos 20.000, pero si se tiene en cuenta que el 40% están en EE.UU. se comprende mejor la cuestión de la pugna por el liderazgo. Siguiendo este hilo, Eduardo Rodriguez, habló de los países pioneros “aquellos que en 2017 ya pusieron sobre la mesa políticas concretas y estrategias nacionales definidas para situarse en el nuevo escenario de la IA”. 

Entre los que primero actuaron en este sentido se hallan Canadá, Japón, Singapur, China y los Emiratos Árabes Unidos. Una peculiaridad es que cada uno de ellos tomó un camino específico distinto de los demás, Así, por ejemplo, Canadá se especializó en la creación de centros de investigación de excelencia; Japón en las aplicaciones industriales de la IA, y Singapur en la logística de su puerto internacional y en la integración universidad-empresa. El caso de China es remarcable porque, según Eduardo Rodríguez, “para 2030 se ha propuesto obtener el liderazgo mundial en IA y está poniendo una gran cantidad de recursos para logarlo”. 

IA en España

Eduardo Rodriguez se refirió también al desarrollo de la IA en España desde el punto de vista de la acción gubernamental. Cabe citar en este sentido la Estrategia Española de I+D+i en Inteligencia Artificial. Este documento propone, “un marco de desarrollo completo de las políticas de IA”. Las dos grandes áreas estratégicas de aplicación que plantea son la sociedad (administración pública, educación, ciudades, y salud) y la economía (industria 4.0, recursos naturales y medio ambiente, seguridad y turismo).

La ética también está presente en el documento de manera transversal ya que se propone un análisis de la ética de la IA desde una perspectiva de la I+D+i y recomienda velar “por un uso ético de la IA en todos sus campos de aplicación”. Rodriguez destacó asimismo la creación de un mapa de capacidades tecnológicas en Inteligencia Artificial en España que puede ser consultado.  

Diversidad y algoritmos

Eduvigis Ortiz y José Luis Flórez cerraron la presentación con sendas reflexiones en el marco de la dimensión ética. Ortiz explicó el trabajo desarrollado por la organización Women in Machine Learning and Data Science  (WIMLDS) en Madrid, encaminado a “afrontar el reto de la diversidad en la IA”.

Dado que muchos algoritmos con los que trabaja la IA vienen de datos organizados previamente, si estos tienen un sesgo racial o de género, por ejemplo, el sesgo suele pasar al algoritmo. La IA, según Ortiz, “debe tener en cuenta estos aspectos y dar visibilidad a las minorías”.

Por su parte, José Luis Flórez habló sobre el reto de cómo gobernar la creación de algoritmos. Subrayó que se suele hablar -aparentando cierto conocimiento- del algoritmo como algo “aséptico” cuando en realidad “el algoritmo es un gran desconocido” y hace necesaria una “tecnología de control”. Según Flórez, este tipo de reflexiones “no son un ejercicio teórico, sino que tienen un gran impacto en la vida práctica de los ciudadanos”.