Propostas Submetidas

DEI - FCTUC
Gerado a 2024-07-17 09:29:26 (Europe/Lisbon).
Voltar

Titulo Estágio

Análise de Explicabilidade a Modelos de Aprendizagem Computacional Profunda

Áreas de especialidade

Sistemas Inteligentes

Local do Estágio

CISUC, DEI

Enquadramento

Tem-se verificado um aumento no desempenho de modelos de aprendizagem computacional, principalmente recorrendo a técnicas de aprendizagem profunda (Deep Learning). Estes modelos têm sido aplicados às mais diversas áreas e tarefas, e.g., avaliação de crédito bancário, previsão de veredictos judiciais, escolha do melhor meio para comunicação/marketing.

No entanto, este aumento de desempenho está associado a uma diminuição de transparência dos modelos, o que leva a uma menor compreensão do processo de decisão, com implicações técnicas e societais. O esforço regulamentar para uma inteligência artificial mais responsável, e.g. AI Act, e o consequente escrutínio dos modelos em uso, obriga a uma adaptação das abordagens atuais para que as decisões ou funcionamento dos modelos sejam interpretáveis.

A Inteligência Artificial Explicável (X-AI) faz parte da solução para estes desafios, e passa por desenvolver abordagens que não se foquem apenas em encontrar a solução óptima para um problema, mas também em sistemas que possam ser comprovadamente benéficos para os humanos. O desenvolvimento de X-AI permite:
(i) justificar resultados inesperados para assegurar que serviços e empresas estejam de acordo com a legislação;
(ii) controlar resultados errados, pois a análise do processo de decisão permite a rápida deteção e correção de vulnerabilidades;
(iii) melhorar os modelos atuais através de um maior entendimento sobre o seu funcionamento;
(iv) descobrir novo conhecimento, pois a percepção de como um sistema toma uma decisão pode incentivar novas formas de pensamento.

Existe uma gama variada de soluções de interpretabilidade, com base na importância de características (e.g., SHAP, LIME), com base na importância das amostras (e.g., explicações contrafactuais, âncoras), o treino de modelos para gerar explicações (e.g., WT5), ou a combinação de diferentes abordagens, seja a adição de um modelo mais transparente a outro modelo ou uma combinação neuro-simbólica, e.g., uma rede neuronal em conjunto com uma base de conhecimento. As explicações geradas podem ser de vários formatos, e.g., texto, tabela, gráfico, cada um com vantagens e desvantagens e diferentes aplicabilidades consoante, por exemplo, o domínio em que se inserem ou o stakeholder envolvido.

Este campo de investigação ainda é recente, mas a sua relevância e a sua urgência são inegáveis. Nesta dissertação, propõe-se o estudo e implementação de abordagens de X-AI, de forma a obter resultados interpretáveis de acordo com os stakeholders, incluindo uma análise do alinhamento do funcionamento do modelo com o esperado, e.g. aprendizagem de conteúdo vs. forma ou se tem vieses que possam afetar a decisão de forma injusta.

Objetivo

Nesta dissertação, o aluno deverá estudar, propor, implementar e testar abordagens para a interpretação de modelos de aprendizagem computacional.
Para isto, terão de se atingir os seguintes objetivos:
- Estudar técnicas de X-AI;
- Estudar casos de uso definidos e disponíveis de outros projetos anteriores (https://github.com/NLP-CISUC): análise de sentimento em diálogo, previsão de valores de saúde como pressão sanguínea, previsão da melhor forma de contacto a um cliente, previsão de fraude bancária (https://www.kaggle.com/datasets/sgpjesus/bank-account-fraud-dataset-neurips-2022).
- Aplicar uma seleção de técnicas de X-AI a um conjunto de modelos de aprendizagem computacional com desempenho reconhecido, incluindo a geração de explicações através de LLMs;
- Tirar conclusões acerca da aplicabilidade e vantagens das técnicas exploradas;
- Analisar até que ponto o que os modelos aprendem está alinhado com as tarefas para que foram treinados.

Plano de Trabalhos - Semestre 1

- Revisão da literatura
- Identificação de ferramentas e dados
- Definição dos domínios e casos de estudo
- Experiências preliminares
- Elaboração da proposta de dissertação

Plano de Trabalhos - Semestre 2

- Replicação de experiências com desempenho reconhecido, cujos modelos estejam disponíveis e bem documentados;
- Aplicação de diferentes abordagens de X-AI a cada um destes modelos;
- Análise das vantagens e desvantagens de cada abordagem no domínio em questão e a sua aplicabilidade consoante os diferentes stakeholders
- Análise de alinhamento e avaliação de desempenho vs. interpretabilidade
- Elaboração da dissertação de mestrado
- Escrita de artigo científico

Condições

O local de trabalho será num laboratório do CISUC, no DEI, onde haverá um acompanhamento regular por parte do orientador.
A dissertação contribuirá para um projeto de investigação financiado e, nesse âmbito, o aluno selecionado poderá candidatar-se a uma bolsa de investigação para licenciado, no valor de 990€/mês, com duração entre 6 a 9 meses.
O projeto tem disponíveis máquinas com poder computacional para suportar este trabalho.

Orientador

Catarina Silva, Isabel Carvalho, Hugo Oliveira
catarina@dei.uc.pt 📩