Logo do repositório
 
A carregar...
Miniatura
Publicação

Information Design for Explainable Artificial Intelligence: Contributions to visualizing the Perceptron's decision-making process for non-experts

Utilize este identificador para referenciar este registo.
Nome:Descrição:Tamanho:Formato: 
Heleno_2024.pdf387.43 MBAdobe PDF Ver/Abrir

Resumo(s)

This study investigates how Information Design can contribute to Explainable Artificial Intelli- gence for non-expert audiences. Through an interdisciplinary and practice-based exploration, we focused on the Perceptron system, investigating which factors should be considered when design- ing visualizations for non-experts and which internal procedures challenge visual explainability. We developed and iterated through six visualizations to inform a seventh visualization. This last visualization was validated through semi-structured interviews and Think-Aloud sessions with non-experts. The results demonstrated how Information Design can contribute to the explainabil- ity of Artificial Intelligence, as participants developed a perceived understanding of the Percep- tron’s decision-making process without requiring specialized knowledge. Artificial Intelligence research has been iterating on a sub-field of Machine Learning known as Artificial Neural Networks. These developments add capabilities to these systems, but also increase the number of calculations involved in their inner workings. This creates an emerging statistical complexity that turns these systems into black boxes. Despite this incomprehensibility, the capabilities of these systems resulted in their wide- spread deployment, with their ubiquity causing a significant impact on a growing number of areas of society. This progress has raised concerns among researchers and policymakers who demand explanations of the decision-making process of these systems to ensure trustworthy interactions for users. The referred opacity, combined with the need for transparency, has led to the emergence of Explainable Artificial Intelligence. However, the literature shows that there is a lack of vis- ual explainers that communicate effectively with non-experts. These systems are based on net- works of artificial neurons, which are a fundamental building block for Artificial Neural Net- works. For this reason, they show to be an interesting entry point for understanding the basic mechanisms underlying modern machine learning systems, with the Perceptron being the model that most closely resembles this processing unit. Since Information Design has shown to be effective in visualizing and explaining dense and complex data sets, this research hypothesized that this approach could also help make the Perceptron's decision-making process intelligible for non-experts. This dissertation presents a validated approach to visualizing the Perceptron's decision- making process through a mechanical analogy. The visualization employs interactive elements, a retractable diagonal line encoding weighted sums, color-coded feedback revealing causal re- lationships between decisions and learning procedures, and an interactive iteration histogram. This approach demonstrates how visual abstractions can effectively reveal artificial decision- making processes for non-expert audiences.
Este estudo investiga a forma como o Design de Informação pode contribuir para uma Inteli- gência Artificial Explicável para audiências não especializadas. Através de uma exploração interdisciplinar e baseada na prática, focámo-nos no sistema Perceptron, investigando que fa- tores devem ser considerados ao desenvolver visualizações para não especialistas e que pro- cedimentos internos desafiam a explicabilidade visual. Desenvolvemos iterativamente seis vi- sualizações para informar uma sétima visualização. Esta última visualização foi validada atra- vés de entrevistas semiestruturadas e sessões de reflexão em voz alta com não especialistas. Os resultados demonstraram como o Design de Informação pode contribuir para a explicabi- lidade da Inteligência Artificial, uma vez que os participantes desenvolveram uma compreen- são percecionada do processo de tomada de decisão do Perceptron sem necessitarem de conhe- cimentos especializados. A investigação em Inteligência Artificial tem vindo a desenvolver um subcampo da Aprendizagem Automática conhecida como Redes Neuronais Artificiais. Estes desenvolvi- mentos acrescentam capacidades a estes sistemas, mas também aumentam o número de cál- culos envolvidos no seu funcionamento interno. Isto cria uma complexidade estatística emer- gente que torna estes sistemas em caixas negras. Apesar desta incompreensibilidade, as capacidades destes sistemas levaram à sua im- plantação generalizada, com a sua ubiquidade a ter um impacto significativo num número crescente de áreas da sociedade. Este progresso suscitou preocupações entre investigadores e decisores políticos que exigem explicações sobre o processo de tomada de decisão destes sis- temas para garantir interações fiáveis para os utilizadores. A referida opacidade, combinada com a necessidade de transparência, levou ao apareci- mento da Inteligência Artificial Explicável. No entanto, a literatura mostra que há uma falta de explicadores visuais que comuniquem eficientemente com não especialistas. Estes sistemas ba- seiam-se em redes de neurônios artificiais, que são um elemento fundamental das Redes Neu- ronais Artificiais. Por este motivo, mostram-se um ponto de entrada interessante para compre- ender os mecanismos básicos subjacentes aos sistemas modernos de Aprendizagem Automática, sendo o Perceptron o modelo que mais se assemelha a esta unidade de processamento. Uma vez que o Design de Informação tem demonstrado ser eficaz na visualização e expli- cação de conjuntos de dados densos e complexos, esta investigação colocou a hipótese de que esta abordagem também poderia ajudar a tornar o processo de tomada de decisão do Perceptron inteligível para não especialistas. Esta dissertação apresenta uma abordagem validada para visualizar o processo de tomada de decisão do Perceptron através de uma analogia mecânica. A visualização emprega elementos interativos, uma linha diagonal retrátil que codifica somas ponderadas, feedback codificado por cores que revela relações causais entre decisões e procedimentos de aprendizagem e um histo- grama de iterações interativo. Esta abordagem demonstra como as abstrações visuais revelam eficazmente o processo de tomada de decisão artificial para audiências não especializadas.

Descrição

Palavras-chave

Information Design Explainable Artificial Intelligence Visualization Perceptron Decision-making Black Box

Contexto Educativo

Citação

Projetos de investigação

Unidades organizacionais

Fascículo

Editora

Licença CC