Propostas inseridas

DEI - FCTUC
Gerado a 2024-12-04 19:03:46 (Europe/Lisbon).
Voltar

Titulo Estágio

2024/25_N27 Interpretabiliade dos Modelos de Machine Learning

Local do Estágio

Altice Labs

Enquadramento

A interpretabilidade dos modelos de machine learning é fundamental para a tomada de decisões informadas em muitos setores, incluindo
telecomunicações, saúde e finanças. No entanto, muitos modelos, especialmente os mais complexos, são frequentemente considerados "caixas
pretas", o que dificulta a compreensão dos resultados por parte dos usuários finais. Reconhecendo a necessidade de transparência e compreensão dos modelos, pretende-se que sejam exploradas e melhorados as atuais técnicas de interpretabilidade que usamos na AlticeLabs nos nossos modelos de classificação, clustering e previsão de valores.

Na área de Machine Learning, muitos modelos utilizados, conhecidos como "caixa preta", dificultam a explicação de como chegaram a uma determinada conclusão. No entanto, existem diversas áreas que, embora possam se beneficiar do uso desses algoritmos, ainda necessitam entender as razões por trás das previsões, tanto em casos específicos quanto de forma global. Isso envolve:
Análise de Casos Específicos: Entender quais fatores contribuíram para um resultado específico em um dado caso. Por exemplo, identificar as características mais influentes que levaram a uma determinada previsão e explorar como alterações nesses parâmetros poderiam impactar o resultado.
Compreensão Global do Modelo: Determinar quais parâmetros têm maior peso nas decisões do modelo, avaliar a importância relativa de diferentes características e entender os indicadores de performance do algoritmo. Isso ajuda a garantir a transparência, melhorar a confiabilidade das previsões e orientar ajustes e melhorias no modelo.

Objetivo


Para este projeto, os dados poderão ser obtidos a partir de projetos em curso na empresa e também de fontes opensource. O foco do projeto não está em um caso específico, mas em desenvolver uma solução coerente e abrangente para interpretar algoritmos de machine learning de diferentes naturezas, incluindo:
• Problemas de classificação: binária ou multiclasse
• Problemas de regressão
• Problemas de clustering/associação
A avaliação do estágio será baseada na qualidade e na capacidade da solução final de reduzir as limitações na interpretabilidade dos resultados dos algoritmos de machine learning, e não na qualidade dos resultados dos algoritmos em si.

As técnicas de "black box" (caixa preta) referem-se a modelos de machine learning cujas operações internas são complexas e difíceis de interpretar para seres humanos. Um exemplo comum são as redes neurais profundas.

O Clustering é uma técnica de machine learning não supervisionada que visa agrupar dados em conjuntos ou clusters baseados em características semelhantes. As técnicas de clustering podem ser mais ou menos interpretáveis dependendo do algoritmo usado. Por exemplo, k-means pode ser relativamente interpretável, enquanto métodos mais complexos como t-SNE podem ser mais difíceis de interpretar.

Em ambas existe a necessidade de interpretação dos resultados. Em modelos de black box: confiança, transparência nos resultados transmitidos, assim como diagnóstico e melhoria dos resultados. Em modelos de clustering para validação dos clusters criados, assim como comunicação dos resultados.






Revisão do estado da arte na interpretabilidade dos modelos de machine learning;
Avaliação das ferramentas existentes em termos de suas capacidades e limitações;
Desenvolvimento ou adaptação de uma ferramenta que melhore a interpretabilidade dos modelos utilizados pela AlticeLabs, superando as
limitações identificadas;
Criação de diretrizes e melhores práticas para a implementação e uso da ferramenta de interpretabilidade em projetos internos

Plano de Trabalhos - Semestre 1

Elaboração do estado da arte;
Avaliação das Ferramentas Existentes;
Desenvolvimento de nova Ferramenta/Abordagem;
Teste e Validação;
Relatório Intermédio

Plano de Trabalhos - Semestre 2

Documentação e elaboração de Diretrizes;
Coleta de feedback e realização de ajustes;
Elaboração do relatório final, relatório de dissertação.

Condições

Integração no Programa GENIUS Investigação da Inova-Ria.
Entidade Promotora: Inova-Ria
Entidade de acolhimento: Altice Labs
Com possibilidade de integrar uma Bolsa de Investigação - Programa GENIUS - durante a realização do projeto de Dissertação - Integração numa equipa de I&D na Empresa Altice Labs .
Valor de bolsa de acordo com tabelas da FCT (ver pdf em (www.Inova-Ria.pt).
Período de realização de acordo com o enquadramento da Universidade.
• Horário: De acordo com enquadramento da Universidade
• Formato: híbrido ou remoto (a combinar)
• Meios: atribuição de um PC portátil e acessos à rede Interna da Altice Labs
• Kit de Acolhimento
• Onboarding nas equipas da Altice Labs, com atribuição de um tutor full-time
• Possibilidade de participar em todas as iniciativas de partilha de conhecimento ou de entretenimento levadas a cabo pela Altice Labs
• Possibilidade de entrada nos quadros da empresa

Os alunos interessados deverão enviar para genius@inova-ria.pt ao cc Dra Regina Maia Sacchetti (963618710).
• Curriculum Vitae;
• Disciplinas realizadas até ao momento com médias; simples documento eletrónico, que poderá obter no portal académico .

Processo de Seleção: Entrevista Inova-Ria - PROGRAMA GENIUS na qual fará parte o Orientador do projeto de forma a esclarecer a temática envolvida.

Observações

Aspetos Inovadores
Desenvolvimento de métodos ou ferramentas que abordem especificamente os desafios de interpretabilidade;
Integração de técnicas de visualização de dados avançadas para melhorar a compreensão dos modelos;
Proposição de uma abordagem adaptável que possa ser facilmente personalizada para diferentes tipos de modelos e casos de uso dentro
da AlticeLabs.

Ferramentas a utilizar
Linguagens de programação: Python;
Bibliotecas de Machine Learning: scikit-learn, TensorFlow, PyTorch, etc;
Ferramentas de interpretabilidade: SHAP, LIME, etc;
Software de visualização de dados: Matplotlib, Seaborn, Plotly.

Competências Chave Requeridas
Entendimento sólido dos princípios de machine learning, incluindo classificação, clustering e regressão;
Linguagem de programação: Python;
Capacidade Analítica:
Assertividade na discussão de conceitos e tecnologias.
Orientador (nome e e-mail)
Maria Manuel Castro - maria-m-castro@alticelabs.com
Para concorrer podes enviar a tua candidatura, envia e-mail para o Programa GENIUS: genius@inova-ria.pt

Orientador

Maria Manuel Castro
maria-m-castro@alticelabs.com 📩