Utilize este identificador para referenciar este registo:
http://hdl.handle.net/10362/162131
Título: | UNCERTAINTY IN MACHINE LEARNING A SAFETY PERSPECTIVE ON BIOMEDICAL APPLICATIONS |
Autor: | Barandas, Marília da Silveira Gouveia |
Orientador: | Gamboa, Hugo |
Palavras-chave: | Machine learning Uncertainty quantification Classification with rejection option Interpretability Clinical decision making |
Data de Defesa: | 2023 |
Resumo: | Uncertainty is an inevitable and essential aspect of the worldwe live in and a fundamental
aspect of human decision-making. It is no different in the realm of machine learning. Just
as humans seek out additional information and perspectives when faced with uncertainty,
machine learning models must also be able to account for and quantify the uncertainty
in their predictions. However, the uncertainty quantification in machine learning models
is often neglected. By acknowledging and incorporating uncertainty quantification into
machine learning models, we can build more reliable and trustworthy systems that are
better equipped to handle the complexity of the world and support clinical decisionmaking.
This thesis addresses the broad issue of uncertainty quantification in machine learning,
covering the development and adaptation of uncertainty quantification methods,
their integration in the machine learning development pipeline, and their practical application
in clinical decision-making.
Original contributions include the development of methods to support practitioners
in developing more robust and interpretable models, which account for different sources
of uncertainty across the core components of the machine learning pipeline, encompassing
data, the machine learning model, and its outputs. Moreover, these machine learning
models are designed with abstaining capabilities, enabling them to accept or reject predictions
based on the level of uncertainty present. This emphasizes the importance of using
classification with rejection option in clinical decision support systems. The effectiveness
of the proposed methods was evaluated across databases with physiological signals from
medical diagnosis and human activity recognition. The results support that uncertainty
quantification was important for more reliable and robust model predictions.
By addressing these topics, this thesis aims to improve the reliability and trustworthiness
of machine learning models and contribute to fostering the adoption of machineassisted
clinical decision-making. The ultimate goal is to enhance the trust and accuracy
of models’ predictions and increase transparency and interpretability, ultimately leading
to better decision-making across a range of applications. A incerteza é um aspeto inevitável e essencial do mundo em que vivemos e um aspeto fundamental na tomada de decisão humana. Não é diferente no âmbito da aprendizagem automática. Assim como os seres humanos, quando confrontados com um determinado nível de incerteza exploram novas abordagens ou procuram recolher mais informação, também os modelos de aprendizagem automática devem ter a capacidade de ter em conta e quantificar o grau de incerteza nas suas previsões. No entanto, a quantificação da incerteza nos modelos de aprendizagem automática é frequentemente negligenciada. O reconhecimento e incorporação da quantificação de incerteza nos modelos de aprendizagem automática, irá permitir construir sistemas mais fiáveis, melhor preparados para apoiar a tomada de decisão clinica em situações complexas e com maior nível de confiança. Esta tese aborda a ampla questão da quantificação de incerteza na aprendizagem automática, incluindo o desenvolvimento e adaptação de métodos de quantificação de incerteza, a sua integração no pipeline de desenvolvimento de modelos de aprendizagem automática e a sua aplicação prática na tomada de decisão clínica. Nos contributos originais, inclui-se o desenvolvimento de métodos para apoiar os profissionais de desenvolvimento na criação de modelos mais robustos e interpretáveis, que tenham em consideração as diferentes fontes de incerteza nos diversos componenteschave do pipeline de aprendizagem automática: os dados, o modelo de aprendizagem automática e os seus resultados. Adicionalmente, os modelos de aprendizagem automática são construídos com a capacidade de se abster, o que permite aceitar ou rejeitar uma previsão com base no nível de incerteza presente, o que realça a importância da utilização de modelos de classificação com a opção de rejeição em sistemas de apoio à decisão clínica. A eficácia dos métodos propostos foi avaliada em bases de dados contendo sinais fisiológicos provenientes de diagnósticos médicos e reconhecimento de atividades humanas. As conclusões sustentam a importância da quantificação da incerteza nos modelos de aprendizagem automática para obter previsões mais fiáveis e robustas. Desenvolvendo estes tópicos, esta tese pretende aumentar a fiabilidade e credibilidade dos modelos de aprendizagem automática, promovendo a utilização e desenvolvimento dos sistemas de apoio à decisão clínica. O objetivo final é aumentar o grau de confiança e a fiabilidade das previsões dos modelos, bem como, aumentar a transparência e interpretabilidade, proporcionando uma melhor tomada de decisão numa variedade de aplicações. |
URI: | http://hdl.handle.net/10362/162131 |
Designação: | DOCTORATE IN BIOMEDICAL ENGINEERING |
Aparece nas colecções: | FCT: DF - Teses de Doutoramento |
Ficheiros deste registo:
Ficheiro | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Barandas_2023.pdf | 14,94 MB | Adobe PDF | Ver/Abrir |
Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.