Titulo Estágio
Interpretação e implicações éticas em Inteligência Artificial
Áreas de especialidade
Sistemas Inteligentes
Local do Estágio
DEI/CISUC
Enquadramento
Tem-se verificado um aumento no desempenho de modelos de aprendizagem computacional, principalmente recorrendo a técnicas de aprendizagem profunda. Estes modelos têm sido aplicados às mais diversas áreas e tarefas, e.g., avaliação de crédito bancário, previsão de veredictos judiciais, escolha do melhor meio para comunicação/marketing.
No entanto, este aumento de desempenho está associado a uma diminuição de transparência dos modelos. Isto leva a uma menor compreensão do processo de decisão, o que, com o esforço regulamentar para uma inteligência artificial mais responsável, e.g. AI Act, e o consequente escrutínio dos modelos em uso, obriga a uma adaptação das abordagens atuais para que as decisões ou funcionamento dos modelo sejam interpretáveis.
A Inteligência Artificial Explicável (X-AI) é a solução para estes desafios, e passa por desenvolver abordagens que não se foquem apenas em encontrar a solução óptima para um problema, mas também em sistemas que possam ser comprovadamente benéficos para os humanos. O desenvolvimento de X-AI permite: (i) justificar resultados inesperados para assegurar que serviços e empresas estejam de acordo com a legislação; (ii) controlar resultados errados, pois a análise do processo de decisão permite a rápida deteção e correção de vulnerabilidades; (iii) melhorar os modelos atuais através de um maior entendimento sobre o seu funcionamento; (iv) descobrir novo conhecimento, pois a percepção de como um sistema toma uma decisão pode incentivar novas formas de pensamento. Existe uma gama variada de soluções de interpretabilidade, com base na importância de características, e.g., SHAP, LIME, com base na importância das amostras, e.g., explicações contrafactuais, ProtoDash, o treino de modelos que se expliquem, e.g., WT5, ou a combinação de diferentes abordagens, seja a adição de um modelo mais transparente a outro modelo ou uma combinação neuro-simbólica, e.g., uma rede neuronal em conjunto com uma base de conhecimento. As explicações geradas podem ser de vários formatos, e.g., texto, tabela, gráfico, cada um com vantagens e desvantagens e diferentes aplicabilidades consoante, por exemplo, o domínio em que se inserem.
Este campo de investigação ainda é recente, mas a sua relevância e urgência é inegável. Nesta dissertação, propõe-se o estudo e implementação de abordagens de X-AI, de forma a obter resultados interpretáveis num dos domínios mencionados (justiça, finanças, marketing), incluindo uma análise de viés que poderá estar presente nos dados ou nos modelos e refletir situações problemáticas como sexismo, racismo, ou qualquer outro factor que afete a decisão de forma injusta.
Objetivo
Nesta dissertação, o aluno deverá estudar, propor, implementar e testar abordagens para a interpretação de modelos de aprendizagem computacional.
Para isto, terão de se atingir os seguintes objetivos:
- Estudo do estado de arte
- Estudo das abordagens disponíveis para o desenvolvimento de modelos
- Definição do caso de estudo
- Implementação e análise de diferentes de abordagens de interpretabilidade
- Análise de aplicabilidade, vantagens e desvantagens no domínio em questão
- Análise do compromisso entre desempenho e interpretabilidade
- Análise de possíveis enviesamentos que tornem a decisão do modelo injusta
- Proposta de uma solução
Plano de Trabalhos - Semestre 1
- Revisão da literatura
- Identificação de ferramentas e dados
- Definição do domínio e caso de estudo
- Experiências preliminares
- Elaboração da proposta de dissertação
Plano de Trabalhos - Semestre 2
- Implementação e análise de diferentes abordagens de interpretabilidade
- Avaliação de desempenho vs. interpretabilidade e análise de enviesamentos
- Análise das vantagens e desvantagens de cada abordagem no domínio em questão e a sua aplicabilidade
- Proposta de uma solução
- Elaboração da dissertação de mestrado
- Escrita de artigo científico
Condições
O local de trabalho será num laboratório do CISUC, no DEI, onde haverá um acompanhamento regular por parte do orientador.
A dissertação contribuirá para um projeto de investigação financiado no âmbito do Centro para a IA Responsável e o aluno selecionado poderá candidatar-se a uma bolsa de investigação para licenciado, no valor de 930€/mês, com duração entre 6 a 12 meses.
Orientador
Catarina Silva, Hugo Oliveira e Isabel Carvalho
catarina@dei.uc.pt 📩