Propostas Submetidas

DEI - FCTUC
Gerado a 2025-07-17 14:35:28 (Europe/Lisbon).
Voltar

Titulo Estágio

Adversarial attacks for Self-Supervised learning Neuroevolution

Áreas de especialidade

Sistemas Inteligentes

Local do Estágio

Departamento de Engenharia Informática da Universidade de Coimbra

Enquadramento

Ataques adversariais são técnicas de geração de dados sintéticos que exploram vulnerabilidades em modelos de aprendizagem automática, nomeadamente redes neuronais, através da introdução de pequenas perturbações nos dados de entrada. Estas alterações, muitas vezes imperceptíveis ao olho humano, podem induzir o modelo a cometer erros de classificação com elevada confiança.


Por outro lado, a aprendizagem auto-supervisionada (self-supervised learning) procura treinar modelos sem recorrer ao uso de etiquetas de forma explícita. Em vez disso, este paradigma de aprendizagem utiliza o próprio conjunto de dados de entrada para criar pseudo-etiquetas. Estas pseudo-etiquetas alimentam modelos de aprendizagem para que estes aprendam representações robustas do conjunto de dados de entrada. Adicionalmente, estes modelos auto-supervisionados podem ser procurados com base em abordagens de neuroevolução, através da pesquisa de arquitecturas e hiperparâmetros que optimizem um ou vários critérios.


Uma vez que a robustez das representações depende diretamente do conjunto de dados de entrada, este vai ter um papel crucial para o sucesso do modelo em resolver uma dada tarefa. Torna-se assim relevante identificar e analisar a susceptibilidade de redes neuronais a ataques adversariais e delinear estratégias para mitigar vulnerabilidades.


No contexto desta dissertação pretende-se analisar as abordagens existentes e criar uma framework para avaliar e mitigar o impacto de ataques adversariais em redes neuronais submetidas a aprendizagem auto-supervisionada com base em neuroevolução contrastando com as abordagens tradicionais.

Para este estudo, a modalidade dos dados a ser trabalhada serão dados de imagens. Neste contexto, os datasets para validação serão os mais relevantes pela comunidade académica no tópico como por exemplo cifar10, cifar100, imagenet, sujeito a possível actualização mediante as conclusões do levantamento do estado da arte. Dado o contexto, os ataques adversariais a serem estudados será com ênfase em ataques adversariais white-box (com acesso ao modelo), podendo vir a serem explorados ataques black-box se se mostrar favorável. Parte dos ataaques adversariais encontram-se recolhidos e implementados de um trabalho prévio que poderão ser adaptados ao contexto desta tese.

Objetivo

- Levantamento do estado da arte em ataques adversariais no contexto de aprendizagem auto supervisionada
- Criação de framework para avaliação e mitigação da susceptibilidade a ataques adversariais em abordagens de auto supervisionadas com base em neuroevolução.

Plano de Trabalhos - Semestre 1

T1 – Análise e levantamento de abordagens de ataques adversariais no contexto de aprendizagem auto supervisionada
T2 - Proposta de framework
T3 – Escrita de relatório intermédio.

Plano de Trabalhos - Semestre 2

T1 – Implementação de framework
T2 - Testes comparativos com abordagens do estado da arte.
T3 - Refinamento do sistema;
T3 – Escrita do relatório final.

Condições

Este trabalho será realizado nos grupos de investigação Cognitive and Media Systems (CMS/CISUC) e bio-inspired Artificial Intelligence (bAI/CISUC). Serão disponibilizados recursos computacionais para a execução do plano de trabalhos.

Existe a possibilidade bolsa de investigação para Licenciado de pelo menos 3 meses, renovável por igual período mediante acordo entre o orientador e o/a aluno/a. A bolsa seguirá as diretrizes das bolsas mensais da Fundação para a Ciência e Tecnologia (FCT).

Orientador

João Correia / Penousal Machado
jncor@dei.uc.pt 📩