{rfName}
Ex

Indexado en

Licencia y uso

Citaciones

9175

Altmetrics

Grant support

Alejandro Barredo-Arrieta, Javier Del Ser and Sergio Gil-Lopez would like to thank the Basque Government for the funding support received through the EMAITEK and ELKARTEK programs. Javier Del Ser also acknowledges funding support from the Consolidated Research Group MATHMODE (IT1294-19) granted by the Department of Education of the Basque Government. Siham Tabik, Salvador Garcia, Daniel Molina and Francisco Herrera would like to thank the Spanish Government for its funding support (SMART-DaSCI project, TIN2017-89517-P), as well as the BBVA Foundation through its Ayudas Fundacion BBVA a Equipos de Investigacion Cientifica 2018 call (DeepSCOP project). This work was also funded in part by the European Union's Horizon 2020 research and innovation programme AI4EU under grant agreement 825619. We also thank Chris Olah, Alexander Mordvintsev and Ludwig Schubert for borrowing images for illustration purposes. Part of this overview is inspired by a preliminary work of the concept of Responsible AI: R. Benjamins, A. Barbado, D. Sierra, "Responsible AI by Design", to appear in the Proceedings of the Human-Centered AI: Trustworthiness of AI Models & Data (HAI) track at AAAI Fall Symposium, DC, November 7-9, 2019 [386]

Análisis de autorías institucional

Barbado, AlbertoAutor o Coautor
Compartir
Publicaciones
>
Artículo

Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI

Publicado en:Information Fusion. 58 82-115 - 2020-06-01 58(), DOI: https://doi.org/10.1016/j.inffus.2019.12.012

Autores: Barredo Arrieta, Alejandro; Diaz-Rodriguez, Natalia; Del Ser, Javier; Bennetot, Adrien; Tabik, Siham; Barbado, Alberto; Garcia, Salvador; Gil-Lopez, Sergio; Molina, Daniel; Benjamins, Richard; Chatila, Raja; Herrera, Francisco

Afiliaciones

Basque Ctr Appl Math, Bilbao 48009, Bizkaia, Spain - Autor o Coautor
INRIA, Flowers Team, Palaiseau, France - Autor o Coautor
Inst Polytech Paris, ENSTA, Palaiseau, France - Autor o Coautor
Segula Technol, Parc Activite Pissaloup, Trappes, France - Autor o Coautor
Sorbonne Univ, Inst Syst Intelligents & Robot, Paris, France - Autor o Coautor
TECNALIA, P Tecnol,Ed 700, Derio 48160, Bizkaia, Spain - Autor o Coautor
Telefonica, Madrid 28050, Spain - Autor o Coautor
Univ Basque Country, UPV EHU, Bilbao 48013, Spain - Autor o Coautor
Univ Granada, DaSCI Andalusian Inst Data Sci & Computat Intelli, E-18071 Granada, Spain - Autor o Coautor
Ver más

Resumen

In the last few years, Artificial Intelligence (AI) has achieved a notable momentum that, if harnessed appropriately, may deliver the best of expectations over many application sectors across the field. For this to occur shortly in Machine Learning, the entire community stands in front of the barrier of explainability, an inherent problem of the latest techniques brought by sub-symbolism (e.g. ensembles or Deep Neural Networks) that were not present in the last hype of AI (namely, expert systems and rule based models). Paradigms underlying this problem fall within the so-called eXplainable AI (XAI) field, which is widely acknowledged as a crucial feature for the practical deployment of AI models. The overview presented in this article examines the existing literature and contributions already done in the field of XAI, including a prospect toward what is yet to be reached. For this purpose we summarize previous efforts made to define explainability in Machine Learning, establishing a novel definition of explainable Machine Learning that covers such prior conceptual propositions with a major focus on the audience for which the explainability is sought. Departing from this definition, we propose and discuss about a taxonomy of recent contributions related to the explainability of different Machine Learning models, including those aimed at explaining Deep Learning methods for which a second dedicated taxonomy is built and examined in detail. This critical literature analysis serves as the motivating background for a series of challenges faced by XAI, such as the interesting crossroads of data fusion and explainability. Our prospects lead toward the concept of Responsible Artificial Intelligence, namely, a methodology for the large-scale implementation of AI methods in real organizations with fairness, model explainability and accountability at its core. Our ultimate goal is to provide newcomers to the field of XAI with a thorough taxonomy that can serve as reference material in order to stimulate future research advances, but also to encourage experts and professionals from other disciplines to embrace the benefits of AI in their activity sectors, without any prior bias for its lack of interpretability.

Palabras clave
AccountabilityBayesian modelBig dataComprehensibilityData fusionDecision treesDeep learningExplainable artificial intelligenceFairnessFeature-selectionGeneralized additive-modelsInterpretabilityLogistic-regressionMachine learningPrivacyResponsible artificial intelligenceRule extractionSupport vector machinesTrained neural-networksTransparency

Indicios de calidad

Impacto bibliométrico. Análisis de la aportación y canal de difusión

El trabajo ha sido publicado en la revista Information Fusion debido a la progresión y el buen impacto que ha alcanzado en los últimos años, según la agencia WoS (JCR), se ha convertido en una referencia en su campo. En el año de publicación del trabajo, 2020, se encontraba en la posición 3/139, consiguiendo con ello situarse como revista Q1 (Primer Cuartil), en la categoría Computer Science, Artificial Intelligence. Destacable, igualmente, el hecho de que la Revista está posicionada por encima del Percentil 90.

Desde una perspectiva relativa, y atendiendo al indicador del impacto normalizado calculado a partir de las Citas Mundiales proporcionadas por WoS (ESI, Clarivate), arroja un valor para la normalización de citas relativas a la tasa de citación esperada de: 210.52. Esto indica que, de manera comparada con trabajos en la misma disciplina y en el mismo año de publicación, lo ubica como trabajo citado por encima de la media. (fuente consultada: ESI 14 Nov 2024)

De manera concreta y atendiendo a las diferentes agencias de indexación, el trabajo ha acumulado, hasta la fecha 2025-04-28, el siguiente número de citas:

  • WoS: 3783
  • Scopus: 5392
Impacto y visibilidad social

Desde la dimensión de Influencia o adopción social, y tomando como base las métricas asociadas a las menciones e interacciones proporcionadas por agencias especializadas en el cálculo de las denominadas “Métricas Alternativas o Sociales”, podemos destacar a fecha 2025-04-28:

  • La utilización de esta aportación en marcadores, bifurcaciones de código, añadidos a listas de favoritos para una lectura recurrente, así como visualizaciones generales, indica que alguien está usando la publicación como base de su trabajo actual. Esto puede ser un indicador destacado de futuras citas más formales y académicas. Tal afirmación es avalada por el resultado del indicador “Capture” que arroja un total de: 6850 (PlumX).

Con una intencionalidad más de divulgación y orientada a audiencias más generales podemos observar otras puntuaciones más globales como:

    Análisis de liderazgo de los autores institucionales

    Este trabajo se ha realizado con colaboración internacional, concretamente con investigadores de: France.