La recerca dels investigadors de la Unitat de Gràfics i Visió per Ordinador i IA (UGiVIA) i del Laboratori d’Aplicacions d’Intel·ligència Artificial (LAIA@UIB) ajuda a identificar quins mètodes serveixen per explicar com prenen les decisions els sistemes basats en intel·ligència artificial.
Un equip d’investigadors de la Universitat de les Illes Balears (UIB) ha desenvolupat una nova manera d’avaluar els sistemes d’intel·ligència artificial explicable (XAI), que té com a objectiu principal conèixer el funcionament intern dels models d’intel·ligència artificial.
Avui, la majoria dels models d’intel·ligència artificial són capses negres. És a dir, que ni tan sols els seus creadors saben perquè prenen una decisió o una altra. Aquest fet contrasta amb la legislació europea, que promou la transparència i la supervisió, uns elements que només es poden aconseguir mitjançant tècniques XAI.
El treball d’aquest grup d’investigadors de la UIB, per tant, és clau per millorar la confiança en aquests sistemes, especialment en àmbits sensibles com la salut.
Els models més útils per explicar la IA
L’estudi, publicat a la prestigiosa revista Artificial Intelligence, presenta tres conjunts innovadors de dades visuals que permeten comprovar si les explicacions que donen aquests models són correctes i fiables. Els resultats mostren com algunes de les tècniques d’explicació més emprades en la literatura científica i en la indústria poden generar errors o informació confusa, i com d’altres de menys emprades són una proposta més adient per resoldre els problemes.
Aquest treball ajuda a identificar quins mètodes són realment útils, i obre el camí a una intel·ligència artificial més segura i transparent. Amb aquest avanç, la UIB reafirma el compromís amb una tecnologia més ètica i comprensible per a tothom.
Equip investigador
Els investigadors del Departament de Ciències Matemàtiques i Informàtica de la Universitat de les Illes Balears que han participat en aquest estudi són els doctors Miquel Miró Nicolau, Antoni Jaume i Capó i Gabriel Moyà Alcover, membres de la Unitat de Gràfics i Visió per Ordinador i IA (UGiVIA) i del Laboratori d’Aplicacions d’Intel·ligència Artificial de la UIB (LAIA@UIB).
L’estudi s’ha fet en el marc dels projectes d’R+D+I PID2019-104829RA-I00 EXPLainable Artificial INtelligence systems for health and well-beING (EXPLAINING), finançat pel Ministeri de Ciència i Innovació, i l’Agència Estatal d’Investigació (MCIN/AEI/10.13039/501100011033/) i PID2022-136779OB-C32 (PLEISAR), finançat pel Ministeri de Ciència, Innovació i Universitats, i l’Agència Estatal d’Investigació (MICIU/AEI/10.13039/501100011033) i Fons de Desenvolupament Regional Europeu. Miquel Miró Nicolau ha estat beneficiari del contracte predoctoral FPI_035_2020 del Govern de les Illes Balears.
Referència bibliogràfica
Miró Nicolau, M., Jaume i Capó, A., & Moyà Alcover, G. (2024). Assessing fidelity in xai post-hoc techniques: A comparative study with ground truth explanations datasets. Artificial Intelligence, 335, 104179.
https://doi.org/10.1016/j.artint.2024.104179
Data de publicació: Tue Mar 11 09:19:00 CET 2025