| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 10.72 MB | Adobe PDF |
Autores
Orientador(es)
Resumo(s)
Artificial neural networks are widely used in all sorts of applications, many of which directly
impact the public’s lives. For all of their qualities, these systems have a major flaw:
their black-box nature impedes us from interpreting their behavior, which harms public
trust and their overall applicability. Explainable AI is a field that focuses on developing
interpretable AI systems. However, the current solutions for black-box models do not
provide fully accurate or easy-to-understand explanations. Concept mapping, proposed
by Sousa Ribeiro and Leite [60], promises to do both. In this method, classifiers - dubbed
mapping networks - are used to map a black-box model’s sub-symbolic internal representations
into symbolic, human-understandable ontology concepts, opening the way to
explainability. However, little investigation was done in the original work on consistently
designing quality architectures for concept mapping. In this dissertation, we fill the
existing knowledge gaps by conducting extensive empirical evaluation of architectures
for concept mapping. We create a custom-made image classification dataset designed
to facilitate observing how the black-box model’s task affects concept mapping. Further,
we employ a custom adaption of differentiable architecture search (DARTS [33]) to automatically
find good architectures. Our adaption of DARTS for concept mapping proves
capable of consistently learning exemplary architectures and shows more resilience to
context changes than manual trial-and-error.
A rede neuronal artificial tem tido vasto uso em todo o tipo de aplicações, muitas das quais têm um impacto direto na vida pública. Apesar de todas as suas qualidades, estes sistemas têm uma fraqueza crucial: a sua natureza opaca impede-nos de interpretar o seu comportamento, algo que tem um impacto negativo na sua aceitação publica e aplicabilidade. Explainable AI é uma área que se foca em desenvolver sistemas de inteligência artificial interpretáveis, mas muitas das soluções atuais para modelos opacos não providenciam justificações acertadas ou fáceis de entender. Mapeamento de conceitos, proposto por Sousa Ribeiro e Leite, promete ambos. Neste método, classificadores adicionais - chamados de redes mapeadoras - são criados para mapear as representações internas subsimbólicas de um modelo em conceitos pertencentes a uma ontologia: simbólicos e passíveis de compreensão humana. Todavia, pouca investigação foi feita no trabalho original sobre as arquitecturas destas peças instrumentais, as redes mapeadoras. Nesta dissertação, preenchemos as atuais brechas de conhecimento realizando extensos testes empíricos sobre arquitecturas para mapeamento de conceitos. Usamos um dataset de classificação de imagens, gerado por nós especificamente para facilitar a observação de como o mapeamento de conceitos é afetado pela tarefa do modelo original. Para além disso, usamos uma versão de procura de arquiteturas diferencial (DARTS [33]), adaptada para aprender automaticamente boas arquitecturas mapeadoras. Essa nossa adaptação prova ser capaz de consistentemente encontrar arquitecturas competentes, e demonstra uma maior resiliência a mudanças de contexto do que o método original de tentativa e erro.
A rede neuronal artificial tem tido vasto uso em todo o tipo de aplicações, muitas das quais têm um impacto direto na vida pública. Apesar de todas as suas qualidades, estes sistemas têm uma fraqueza crucial: a sua natureza opaca impede-nos de interpretar o seu comportamento, algo que tem um impacto negativo na sua aceitação publica e aplicabilidade. Explainable AI é uma área que se foca em desenvolver sistemas de inteligência artificial interpretáveis, mas muitas das soluções atuais para modelos opacos não providenciam justificações acertadas ou fáceis de entender. Mapeamento de conceitos, proposto por Sousa Ribeiro e Leite, promete ambos. Neste método, classificadores adicionais - chamados de redes mapeadoras - são criados para mapear as representações internas subsimbólicas de um modelo em conceitos pertencentes a uma ontologia: simbólicos e passíveis de compreensão humana. Todavia, pouca investigação foi feita no trabalho original sobre as arquitecturas destas peças instrumentais, as redes mapeadoras. Nesta dissertação, preenchemos as atuais brechas de conhecimento realizando extensos testes empíricos sobre arquitecturas para mapeamento de conceitos. Usamos um dataset de classificação de imagens, gerado por nós especificamente para facilitar a observação de como o mapeamento de conceitos é afetado pela tarefa do modelo original. Para além disso, usamos uma versão de procura de arquiteturas diferencial (DARTS [33]), adaptada para aprender automaticamente boas arquitecturas mapeadoras. Essa nossa adaptação prova ser capaz de consistentemente encontrar arquitecturas competentes, e demonstra uma maior resiliência a mudanças de contexto do que o método original de tentativa e erro.
Descrição
Palavras-chave
Artificial Intelligence Machine Learning Auto ML Neural Architecture Search Explainable AI Ontology
