Dil12112023

Darrera actualitzacióDim, 05 Des 2023 9am

Back Estàs aquí:Inicio Tecnologies físiques Projectes Científics i empreses s'uneixen per "ensenyar" a la IA a explicar-se

Científics i empreses s'uneixen per "ensenyar" a la IA a explicar-se

El projecte europeu de recerca NL4XAI d'H2020 aborda la qüestió de com cal avaluar la qualitat dels algorismes en el camp emergent de la Intel·ligència Artificial Explicable (XAI), es a dir, es a dir, màquines que puguin justificar i raonar les seves decisions. L'objectiu és formar la primera generació d'experts en aquest camp.

Imatge de la trobada internacional del projecte NL4XAI que es va celebrar els passats 15 i 16 de desembre a Utrecht (Països Baixos)

Com cal avaluar la qualitat dels algoritmes? Com s'explica a si mateixa la intel·ligència artificial? Aquesta és una àrea de recerca emergent i d'avantguarda coneguda com a Intel·ligència Artificial Explicable (habitualment abreujat amb les sigles angleses ‘XAI’), un camp d'estudi que s'enfronta al repte d'aconseguir que els sistemes d'IA siguin autoexplicatius.

Equips de l'Institut d'Investigació en Intel·ligència Artificial (IIIA) del CSIC participen en aquest projecte, juntament amb grups d'universitats europees del Regne Unit (Aberdeen), Irlanda (Dublín) i els Països Baixos (Tilburg, Utrecht), així com representants de la indústria (Philips o Trivago, entre d'altres).

“Una IA autoexplicativa és aquella capaç de justificar les decisions o recomanacions. De manera senzilla, aquella capaç de respondre preguntes de l'estil 'per què…' d'una manera comprensible per a una persona", explica Carles Sierra, professor de recerca de l'IIIA-CSIC.

Però això no és tan fàcil. De la mateixa manera que les persones no sempre saben explicar allò que saben (a causa dels molts coneixements implícits que adquireixen inconscientment a través de l'ambient o l'herència), als sistemes d'Intel·ligència Artificial (IA), que principalment aprenen automàticament a partir de dades, els passa una cosa semblant. No sempre saben justificar perquè saben el que saben.

No obstant això, el dret a l'explicació és actualment objecte de debat, afegeix Carles Sierra, “com un dels drets digitals a reconèixer per la legislació, sobretot quan les decisions d'una IA poden afectar de manera important la vida dels ciutadans”.

“Una IA autoexplicativa és aquella capaç de justificar les decisions o recomanacions. De manera senzilla, aquella capaç de respondre preguntes de l'estil 'per què…' d'una manera comprensible per a una persona”

Aquest és l’objectiu de NL4XAI (acrònim d’interactive Natural Language Technology for Explainable Artificial Intelligence), projecte de recerca finançat pel programa Horitzó 2020 de la Unió Europea. El projecte reuneix alguns dels investigadors europeus més destacats (tant del món acadèmic com de la indústria) en cadascun dels temes tractats, i ha creat un programa conjunt de formació d'alta qualitat que té com a objectiu formar la primera generació d'experts al camp de la Intel·ligència Artificial Explicable al llarg del continent europeu.

El nucli del projecte són 11 estudiants de doctorat (també coneguts com a Early-Stage-Researchers o ESR), que s'hauran d'enfrontar al repte d'aconseguir que els sistemes d'intel·ligència artificial s'expliquin a si mateixos, per aconseguir un millor aprofitament d'aquestes tècniques emergents. Els ESR també rebran formació en qüestions ètiques i jurídiques, així com en competències transversals.

El mes de desembre passat, els estudiants es van reunir a Utrecht (Països Baixos) amb els científics i professionals de la indústria, per rebre formació pràctica amb el disseny d'experiments d'avaluació. Un tema central va ser l’experiència àmpliament difosa en ciències experimentals que els experiments poden ser molt difícils de replicar; per exemple, perquè falten detalls crucials als articles de recerca en què s'informa dels experiments, o per problemes amb les estadístiques.

NL4XAI reuneix 19 beneficiaris i socis de sis països europeus diferents (França, Malta, Polònia, Espanya, Països Baixos i Regne Unit). La xarxa està coordinada per l'equip de recerca del Centre de Recerca en Tecnologia Intel·ligent de la Universitat de Santiago de Compostel·la (CiTIUS-USC), dirigit per Senén Barro.

Els socis corresponen a dues institucions nacionals de recerca (IIIA-CSIC, CNRS), deu universitats (University of Aberdeen, University of Dundee, L-Universitat de Malta, Delft University of Technology, Utrecht University, University of Twente, Warsaw University of Technology, Université de Lorraine, Universitat de Santiago de Compostel·la, Universitat Autonòma de Barcelona i Maastricht University i sis empreses privades (Indra, Accenture, Orange, Wizenoze, Arria, InfoSupport).