Dom02252024

Última actualizaciónVie, 23 Feb 2024 1pm

Back Está aquí: Inicio Tecnologías físicas Proyectos Científicos y empresas se unen para "enseñar" a la IA a explicarse

Científicos y empresas se unen para "enseñar" a la IA a explicarse

El proyecto europeo NL4XAI de H2020 aborda la cuestión de cómo debe evaluarse la calidad de los algoritmos en el campo emergente de la Inteligencia Artificial Explicable (XAI), es decir, máquinas capaces de justificar y razonar sus decisiones. El objetivo es formar a la primera generación de expertos en este campo.

Imagen del encuentro internacional del proyecto NL4XAI que se celebró los pasados 15 y 16 de diciembre en Utrecht (Países Bajos).

¿Cómo debe evaluarse la calidad de los algoritmos? ¿Cómo se explica a sí misma la inteligencia artificial? Esta es un área de investigación emergente y de vanguardia conocida como Inteligencia Artificial Explicable (habitualmente abreviado con las siglas XAI), un campo de estudio que se enfrenta al reto de conseguir que los sistemas de IA sean autoexplicativos.

Equipos del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC participan en este proyecto junto a grupos de universidades europeas del Reino Unido (Aberdeen), Irlanda (Dublín) y los Países Bajos (Tilburg, Utrecht), así como representantes de la industria (Philips o Trivago, entre otros).

“Una IA autoexplicativa es aquella capaz de justificar sus decisiones o recomendaciones. De manera sencilla, aquella capaz de responder a preguntas del estilo ‘por qué…’ en una forma comprensible por un humano”, explica Carles Sierra, profesor de investigación del IIIA-CSIC.

Pero eso no es tan fácil. De la misma forma que los seres humanos no siempre saben explicar lo que saben (debido a los muchos conocimientos implícitos que adquieren inconscientemente a través del ambiente o la herencia), a los sistemas de Inteligencia Artificial (IA), que en su mayoría aprenden automáticamente a partir de datos, les pasa algo similar. No saben justificar por qué saben lo que saben.

Sin embargo, el derecho a la explicación es actualmente objeto de debate, añade Carles Sierra, “como uno de los derechos digitales a reconocer por la legislación, sobre todo cuando las decisiones de una IA pueden afectar de forma importante a la vida de los ciudadanos”.

“Una IA autoexplicativa es aquella capaz de justificar sus decisiones o recomendaciones. De manera sencilla, aquella capaz de responder a preguntas del estilo ‘por qué…’ en una forma comprensible por un humano”

Ese es el objetivo de NL4XAI (acrónimo de Interactive Natural Language Technology for Explainable Artificial Intelligence), proyecto de investigación financiado por el programa Horizonte 2020 de la Unión Europea. El proyecto reúne a algunos de los investigadores europeos más destacados (tanto del mundo académico como de la industria) en cada uno de los temas tratados, y se ha creado un programa conjunto de formación de alta calidad que tiene como objetivo formar a la primera generación de expertos en el campo de la Inteligencia Artificial Explicable a lo largo del continente europeo.

El núcleo del proyecto son 11 estudiantes de doctorado (también conocidos como Early-Stage-Researchers o ESR), que tendrán que enfrentarse al reto de conseguir que los sistemas de Inteligencia Artificial se expliquen a sí mismos, para lograr un mejor aprovechamiento de estas técnicas emergentes. Los ESR también recibirán formación en cuestiones éticas y jurídicas, así como en competencias transversales.

El pasado mes de diciembre, los estudiantes se reunieron en Utrecht (Países Bajos) con los científicos y profesionales de la industria, para recibir formación práctica con el diseño de experimentos de evaluación. Un tema central fue la experiencia ampliamente difundida en ciencias experimentales de que los experimentos pueden ser muy difíciles de replicar; por ejemplo, porque faltan detalles cruciales en los artículos de investigación en los que se informa de los experimentos, o por problemas con las estadísticas.

NL4XAI reúne a 19 beneficiarios y socios de seis países europeos diferentes (Francia, Malta, Polonia, España, Países Bajos y Reino Unido). La red está coordinada por el equipo de investigación del Centro de Investigación en Tecnología Inteligente de la Universidad de Santiago de Compostela (CiTIUS-USC), dirigido por Senén Barro.

Los socios corresponden a dos instituciones nacionales de investigación (IIIA-CSIC, CNRS), diez universidades (University of Aberdeen, University of Dundee, L-Universitá ta' Malta, Delft University of Technology, Utrecht University, University of Twente, Warsaw University of Technology, Université de Lorraine, Universidade de Santiago de Compostela, Universitat Autonòma de Barcelona y Maastricht University y seis empresas privadas (Indra, Accenture, Orange, Wizenoze, Arria, InfoSupport).