Propostas submetidas

DEI - FCTUC
Gerado a 2025-07-30 02:10:07 (Europe/Lisbon).
Voltar

Titulo Estágio

Adversarial attacks for Evolutionary Self-Supervised learning

Local do Estágio

Departamento de Engenharia Informática da Universidade de Coimbra

Enquadramento

Ataques adversariais são técnicas de geração de dados sintéticos que exploram vulnerabilidades em modelos de aprendizagem automática, nomeadamente redes neuronais, através da introdução de pequenas perturbações nos dados de entrada. Estas alterações, muitas vezes imperceptíveis ao olho humano, podem induzir o modelo a cometer erros de classificação com elevada confiança.


Por outro lado, a aprendizagem auto-supervisionada (self-supervised learning) procura treinar modelos sem recorrer ao uso de etiquetas de forma explícita. Em vez disso, este paradigma de aprendizagem utiliza o próprio conjunto de dados de entrada para criar pseudo-etiquetas. Estas pseudo-etiquetas alimentam modelos de aprendizagem para que estes aprendam representações robustas do conjunto de dados de entrada. Adicionalmente, estes modelos auto-supervisionados podem ser procurados com base em abordagens de neuroevolução, através da pesquisa de arquitecturas e hiperparâmetros que optimizem um ou vários critérios.


Uma vez que a robustez das representações depende diretamente do conjunto de dados de entrada, este vai ter um papel crucial para o sucesso do modelo em resolver uma dada tarefa. Torna-se assim relevante identificar e analisar a susceptibilidade de redes neuronais a ataques adversariais e delinear estratégias para mitigar vulnerabilidades.


No contexto desta dissertação pretende-se analisar as abordagens existentes e criar uma framework para avaliar e mitigar o impacto de ataques adversariais em redes neuronais submetidas a aprendizagem auto-supervisionada com base em neuroevolução contrastando com as abordagens tradicionais.

Objetivo

- Levantamento do estado da arte em ataques adversariais no contexto de aprendizagem auto supervisionada
- Criação de framework para avaliação e mitigação da susceptibilidade a ataques adversariais em abordagens de auto supervisionadas com base em neuroevolução.

Plano de Trabalhos - Semestre 1

T1 – Análise e levantamento de abordagens de aprendizagem auto-supervisionada e ataques adversariais
T2 - Proposta de framework
T3 – Escrita de relatório intermédio.

Plano de Trabalhos - Semestre 2

T1 – Implementação de framework
T2 - Testes comparativos com abordagens do estado da arte.
T3 - Refinamento do sistema;
T3 – Escrita do relatório final.

Condições

Este trabalho será realizado nos grupos de investigação Cognitive and Media Systems (CMS/CISUC) e bio-inspired Artificial Intelligence (bAI/CISUC). Serão disponibilizados recursos computacionais para a execução do plano de trabalhos.

Existe a possibilidade bolsa de investigação para Licenciado de pelo menos 3 meses, renovável por igual período mediante acordo entre o orientador e o/a aluno/a. A bolsa seguirá as diretrizes das bolsas mensais da Fundação para a Ciência e Tecnologia (FCT).

Observações

A modalidade dos dados serão datasets de imagens. As fontes serão benchmark académicos e.g. cifar10, cifar100, imagenet.

Orientador

João Correia / Penousal Machado
jncor@dei.uc.pt 📩