Logo do repositório
 
A carregar...
Miniatura
Publicação

Designing concept mapping models with neural architecture search

Utilize este identificador para referenciar este registo.
Nome:Descrição:Tamanho:Formato: 
Rodrigues_2022.pdf10.72 MBAdobe PDF Ver/Abrir

Resumo(s)

Artificial neural networks are widely used in all sorts of applications, many of which directly impact the public’s lives. For all of their qualities, these systems have a major flaw: their black-box nature impedes us from interpreting their behavior, which harms public trust and their overall applicability. Explainable AI is a field that focuses on developing interpretable AI systems. However, the current solutions for black-box models do not provide fully accurate or easy-to-understand explanations. Concept mapping, proposed by Sousa Ribeiro and Leite [60], promises to do both. In this method, classifiers - dubbed mapping networks - are used to map a black-box model’s sub-symbolic internal representations into symbolic, human-understandable ontology concepts, opening the way to explainability. However, little investigation was done in the original work on consistently designing quality architectures for concept mapping. In this dissertation, we fill the existing knowledge gaps by conducting extensive empirical evaluation of architectures for concept mapping. We create a custom-made image classification dataset designed to facilitate observing how the black-box model’s task affects concept mapping. Further, we employ a custom adaption of differentiable architecture search (DARTS [33]) to automatically find good architectures. Our adaption of DARTS for concept mapping proves capable of consistently learning exemplary architectures and shows more resilience to context changes than manual trial-and-error.
A rede neuronal artificial tem tido vasto uso em todo o tipo de aplicações, muitas das quais têm um impacto direto na vida pública. Apesar de todas as suas qualidades, estes sistemas têm uma fraqueza crucial: a sua natureza opaca impede-nos de interpretar o seu comportamento, algo que tem um impacto negativo na sua aceitação publica e aplicabilidade. Explainable AI é uma área que se foca em desenvolver sistemas de inteligência artificial interpretáveis, mas muitas das soluções atuais para modelos opacos não providenciam justificações acertadas ou fáceis de entender. Mapeamento de conceitos, proposto por Sousa Ribeiro e Leite, promete ambos. Neste método, classificadores adicionais - chamados de redes mapeadoras - são criados para mapear as representações internas subsimbólicas de um modelo em conceitos pertencentes a uma ontologia: simbólicos e passíveis de compreensão humana. Todavia, pouca investigação foi feita no trabalho original sobre as arquitecturas destas peças instrumentais, as redes mapeadoras. Nesta dissertação, preenchemos as atuais brechas de conhecimento realizando extensos testes empíricos sobre arquitecturas para mapeamento de conceitos. Usamos um dataset de classificação de imagens, gerado por nós especificamente para facilitar a observação de como o mapeamento de conceitos é afetado pela tarefa do modelo original. Para além disso, usamos uma versão de procura de arquiteturas diferencial (DARTS [33]), adaptada para aprender automaticamente boas arquitecturas mapeadoras. Essa nossa adaptação prova ser capaz de consistentemente encontrar arquitecturas competentes, e demonstra uma maior resiliência a mudanças de contexto do que o método original de tentativa e erro.

Descrição

Palavras-chave

Artificial Intelligence Machine Learning Auto ML Neural Architecture Search Explainable AI Ontology

Contexto Educativo

Citação

Projetos de investigação

Unidades organizacionais

Fascículo

Editora

Licença CC