| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 5.78 MB | Adobe PDF |
Autores
Orientador(es)
Resumo(s)
Artificial neural network-based methods have been growing in popularity, being success-
fully applied to perform a variety of tasks. As these systems begin to be deployed in
domains where it is desired that they have a certain degree of autonomy and respon-
sibility, the need to comprehend the reasoning behind their answers is becoming a re-
quirement. Though, neural networks are still regarded as black boxes, since their internal
representation do not provide any human-understandable explanation for their outputs.
A considerable amount of work has been done towards the development of methods to
increase the interpretability of neural networks. However, these methods often produce
interpretations are too complex and do not have any declarative meaning, leaving the
user with the burden of rationalizing them. Recent work has shown that it is possible
to establish mappings between a neural network’s internal representations and a set of
human-understandable concepts. In this dissertation we propose a method that leverage
these mappings to induce an ontology that describes a neural network’s classification
process, through logical relations between human-understandable concepts.
Métodos com base em redes neuronais artificiais têm ganho cada vez mais popularidade, e têm sido aplicados na resolução das mais variadas tarefas. À medida que estes sistemas são usados em domínios onde se pretende que tenham um determinado grau de auto- nomia e responsabilidade, a necessidade de compreender o raciocínio que os conduz às suas respostas torna-se indispensável. No entanto, as redes neuronais são vistas como caixas negras, dado que as suas representações internas não constituem uma explicação interpretável para os seus resultados. Tem sido realizada uma quantidade considerável de investigação com o objetivo de desenvolver métodos que permitam o aumento da interpretabilidade de redes neuronais. Todavia, estes métodos tendem a produzir inter- pretações complexas e a que não possuem nenhum significado declarativo, deixando o utilizador com a responsabilidade as racionalizar. Uma publicação recente mostrou que é possível estabelecer mapeamentos entre as representações internas de uma rede neuronal e conceitos interpretáveis. Nesta dissertação propomos um método que faz uso destes mapeamentos para induzir uma ontologia que reflete o processo de classificação de uma rede neuronal, através de conceitos compreensiveis relacionados logicamente.
Métodos com base em redes neuronais artificiais têm ganho cada vez mais popularidade, e têm sido aplicados na resolução das mais variadas tarefas. À medida que estes sistemas são usados em domínios onde se pretende que tenham um determinado grau de auto- nomia e responsabilidade, a necessidade de compreender o raciocínio que os conduz às suas respostas torna-se indispensável. No entanto, as redes neuronais são vistas como caixas negras, dado que as suas representações internas não constituem uma explicação interpretável para os seus resultados. Tem sido realizada uma quantidade considerável de investigação com o objetivo de desenvolver métodos que permitam o aumento da interpretabilidade de redes neuronais. Todavia, estes métodos tendem a produzir inter- pretações complexas e a que não possuem nenhum significado declarativo, deixando o utilizador com a responsabilidade as racionalizar. Uma publicação recente mostrou que é possível estabelecer mapeamentos entre as representações internas de uma rede neuronal e conceitos interpretáveis. Nesta dissertação propomos um método que faz uso destes mapeamentos para induzir uma ontologia que reflete o processo de classificação de uma rede neuronal, através de conceitos compreensiveis relacionados logicamente.
Descrição
Palavras-chave
Artificial Neural Networks Ontologies Rule Extraction Inductive Logic Programming
