Propostas com aluno Identificado

DEI - FCTUC
Gerado a 2025-08-10 09:27:06 (Europe/Lisbon).
Voltar

Titulo Estágio

Cibersegurança da Inteligência Artificial: Riscos, Estratégias de Defesa e Cenário Regulatório

Local do Estágio

DEI-FCTUC

Enquadramento

A rápida adoção de sistemas de IA em setores críticos (como saúde, finanças e
infraestrutura) introduz vulnerabilidades únicas, como ataques adversariais,
envenenamento de dados e exploração de vieses algorítmicos. Segundo o relatório MITRE
ATLAS (2024), 42% dos ataques a modelos de IA em 2023 visaram manipulação de dados
de treinamento. Esta dissertação abordará:
• Problema: Falta de padrões robustos para proteger modelos de IA contra explorações maliciosas.
• Relevância: Alinhamento com o AI Act da UE e a Estratégia Brasileira de IA (2024),
que exigem segurança como pilar da governança de IA.

Objetivo

Objetivo Geral:
Desenvolver um framework de avaliação de riscos para sistemas de IA, integrando
técnicas de defesa adversarial e conformidade regulatória.

Objetivos Específicos:
• Identificar vetores de ataque contra IA (ex.: adversarial attacks, model stealing).
• Implementar testes de robustez em modelos de ML usando datasets públicos (ex.: CIFAR-10 com ataques FGSM).
• Propor diretrizes para políticas de segurança de IA alinhadas ao AI Act e LGPD.

Resultados Esperados:
• Relatório técnico com vulnerabilidades mapeadas (baseado em MITRE ATLAS).
• Protótipo de deteção de adversarial attacks em Python (TensorFlow/PyTorch).
• Recomendações para regulamentação brasileira.

Plano de Trabalhos - Semestre 1

T1.1 – Revisão da literatura:
• Descrição: Análise de ameaças (adversarial attacks, deepfackes) e frameworks (NIST AI RMF).
• Resultado: Artigo de revisão sistematizada
• Calendarização: Mês 1-2

T1.2 – Coleta de dados:
• Descrição: Seleção de datasets e ferramentas
• Resultado: Base de dados para testes
• Calendarização: Mês 3

T1.3 – Modelagem de Ataques:
• Descrição: Implementação de adversarial attacks
• Resultado: Código e relatório preliminar
• Calendarização: Mês 4-5

T1.4 – Análise Regulatória:
• Descrição: comparação AI Act e LGPD.
• Resultado: Matriz de requisitos legais
• Calendarização: Mês 6

Plano de Trabalhos - Semestre 2

T2.1 – Desenvolvimento de Defesas:
• Implementação de adversarial training e deteção com SHAP/LIME
• Resultado: Protótipo funcional
• Calendarização: Mês 1-2

T2.2 – Validação Experimental:
• Descrição: Testes com ferramentas de segurança
• Resultado: Métricas de eficácia
• Calendarização: Mês 3-4

T2.3 – Redação e Disseminação:
• Descrição: Finalização da dissertação se submissão para eventos
• Calendarização: Mês 5-6

Condições

Acesso a laboratórios do CISUC;
Licenças de software (TensorFlow, PyTorch).

Observações

N/A

Orientador

Bruno Miguel de Oliveira Sousa
bmsousa@dei.uc.pt 📩