Uso de cookies

En las páginas web de la Universidad Carlos III de Madrid utilizamos cookies propias y de terceros para mejorar nuestros servicios mediante el análisis de sus hábitos de navegación. Al continuar con la navegación, entendemos que se acepta nuestra política de cookies. "Normas de uso"

Europa busca en la ética su diferenciador en la carrera por la inteligencia artificial

 

Europa busca en la ética su diferenciador en la guerra por la inteligencia artificial

La Comisión Europea quiere invertir al menos 1.000 millones de euros por año en inteligencia artificial (IA) entre 2021-2027, a través de los programas Horizon Europe y Europa Digital. La Unión Europea, además de Suiza y Noruega, ya se comprometió a alcanzar un total de 20.000 millones de euros de financiación en esta tecnología, un 70% más que en el periodo 2014-2017. Igualmente, esta tecnología es el eje vertebrador de gran parte de la nueva Agenda Digital 2025 presentada por el Gobierno español a mediados de 2020 y que aglutinará gran parte de los nuevos fondos de recuperación promovidos desde Bruselas en materia de digitalización.

Sin embargo, Europa parte con clara desventaja en la contienda por dominar esta innovación. Estados Unidos concentra a la gran parte de las multinacionales y universidades líderes en este sector y China, a su vez, domina categorías como el reconocimiento facial gracias, en parte, a su laxa regulación en materia de privacidad y a la omnipresencia del gobierno -y sus aparatos policial y militar- en muchos de los desarrollos gestados en su territorio.

Por ello, el Viejo Continente tiene que hacer algo más que invertir ingentes cantidades de dinero si quiere ser un actor relevante en esta era de la inteligencia artificial. Y parece que la receta de la diferenciación pasa por ser el referente en el desarrollo de la IA ética y respetuosa con los derechos fundamentales. Al igual que ya hiciera con la privacidad -con la aprobación del Reglamento General de Protección de Dato o GDPR que ha sido imitado en diferentes rincones del globo-, busca ahora consolidar su propia escala de valores no solo por el propio interés político en ello, sino también como un elemento de negocio que sirva para acelerar el ecosistema de IA en la región. 

“Europa se ha empezado a decantar por una inteligencia ética, antropocéntrica y diseñada para producir un impacto social positivo”, afirma Teresa Rodríguez de las Heras, investigadora del grupo SOCITEC de la UC3M y miembro del Grupo de Expertos de la Comisión Europea sobre Responsabilidad y AI/robótica/IoT. “El modelo social es un elemento distintivo del funcionamiento de la Unión Europea dentro de un enfoque global y ahora debe ser también lo que distinga nuestra IA”, coincide José Vida, del grupo Servicios de Interés General, Actividad Económica e Intervención Pública de la UC3M, en el que lidera el proyecto “El impacto de la inteligencia artificial en los servicios públicos: Un análisis jurídico de su alcance y consecuencias en la asistencia sanitaria”.

Una inteligencia artificial "centrada en el ser humano", basada en derechos fundamentales, principios éticos y valores. Esta es una de las premisas que recoge el borrador que ya ha publicado la Comisión Europea con las "guías éticas" para el nuevo plan de inteligencia artificial, presentado por el Ejecutivo comunitario. Un enfoque social que no tiene por qué ser incompatible con la rentabilidad. “Podemos buscar nuevos nichos de mercados”, subraya Jorge Morato, responsable del grupo de investigación GigaBD de la UC3M. “Económicamente puede ser positivo para que la UE venda sus productos, no tiene que haber una pérdida económica si lo orientamos desde esa visión”.

“La IA no está reñida en absoluto con el comportamiento ético más allá de los sesgos que puedan encontrarse en los datos de los que aprende; por tanto, es importante estudiar esos sesgos potenciales para contrarrestarlos”, explica Fernando Díaz de María, responsable del Grupo de Procesado Multimedia UC3M. “El uso cotidiano de la inteligencia artificial y, por consiguiente, su progreso, con el fin de alcanzar los objetivos de desarrollo sostenible requiere que las personas confíen en la IA (trustworthiness) y para ello la IA debe estar centrada (inspirada) en el ser humano, en relación con la comunicación y la interacción (nivel superficial), pero muy especialmente en el plano moral y ético (nivel profundo)”, especifica. 

Plantear la ética en el campo de la inteligencia artificial va más allá de acabar con los sesgos discriminatorios o las cajas negras de los algoritmos. E, incluso, puede obligar a repensar la misma escala de valores en la que nos movemos en el mundo físico. Habrá pues que responder a un sinfín de preguntas en los próximos años, a saber: ¿existen valores universales? ¿qué normas culturales, teorías éticas, códigos, normas y leyes tener en cuenta? ¿cómo ponderar las diferencias entre lo que se acepta socialmente, lo que se es éticamente correcto o lo que se permite legalmente? Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia y miembro del grupo HERMES de la UC3M, introduce una serie de cuestiones a resolver como los niveles de responsabilidad, que implican desde el diseño de los algoritmos hasta las aplicaciones y las propias plataformas. “¿Se pueden imponer normas de transparencia no ya al uso de los datos, sino a la propia estructura de los algoritmos que trabajan con los datos?”, se pregunta. 

Frente a la imposibilidad de desarrollar un sistema ético para la IA que satisfaga todas las perspectivas posibles, los investigadores proponen alternativas viables. El objetivo no es que todas las partes del mundo estén sujetas a las mismas normas, estándares y regulaciones relacionadas con la IA, o que siempre se necesite un acuerdo internacional. Se trata de identificar qué temas sí requieren de ello. 

Otro de los grandes retos de este enfoque ético de la inteligencia artificial es encontrar el delicado equilibrio entre el avance tecnológico y el cumplimiento de los derechos de las personas. “Muchas veces, para evitar el efecto, se intenta prohibir la tecnología, por eso hay que tener cuidado con que la regulación no se convierta en una limitación al desarrollo”, introduce José Manuel Molina, responsable del grupo de investigación de Inteligencia Artificial Aplicada (GIAA) de la UC3M. “Si la tecnología de países como China funciona mejor porque utiliza más datos, al final, nosotros acabaremos utilizándola”, advierte. Por eso es necesario encontrar un elemento diferenciador que se convierta en una oportunidad para Europa. “Ese sello diferenciador de ‘IA fiable’ puede ser una forma de promocionar nuestro producto frente a otro y de encontrar el respaldo del cliente porque el nuestro es más robusto y conoce sus efectos colaterales”, señala Jorge Morato. 

Otro de los desafíos en la propia legislación. “Es la primera vez que se plantea una regulación para una tecnología con carácter global y absoluto”, destaca José Vida. Si los juristas siempre se han movido por detrás de la realidad, ahora se pretende lo contrario: establecer las normas antes de conocer el impacto de la IA en la sociedad. “En Derecho se está produciendo el nacimiento de unas categorías que están a medio camino entre el derecho positivo imperativo y las normas de autorregulación”, indica. Y es que, actualmente, “el ámbito digital es como el Oeste antes de que llegara la Ley”, asegura Fernando Broncano. “No podemos caer en el casuismo”, alerta Teresa Rodríguez, aunque reconoce que “es difícil aunar una ley que se tiene que hacer por anticipado, con reglas generales abstractas y lo suficientemente versátil para que en ella quepa todo lo que genera la innovación, añadiendo otros elementos como el cambio permanente y la entrada de modelos de negocios disruptivos”. 

Rodríguez introduce el enfoque de la “responsabilidad”, es decir, “asignar bien los riesgos a quien en realidad puede controlarlos y gestionarlos de manera eficaz”. “Se trata de plantearlo desde un punto de vista positivo, ser propositivos e ir negociando con las empresas y los desarrolladores”, añade Broncano.

Grupos de investigación UC3M participantes

  • Inteligencia Artificial Aplicada (GIAA)
  • GigaBD
  • Sociedad, Tecnología y Derecho mercantil (SOCITEC)
  • Servicios de Interés General, Actividad Económica e Intervención Pública
  • Investigación Científica en sus Aspectos Históricos, Filosóficos y Literarios (HERMES)
  • Procesado Multimedia (GPM)

+ Grupos de investigación UC3M

Startups participantes

Empresas de Leganés Tecnológico implicadas en IA

  • Thales
  • Solusoft
  • Eurocontrol
  • The Reuse Company
  • RichardsonRFPD
  • Dantia Tecnología
  • SGOS