skip to Main Content

Attività di ricerca:

Il gruppo di ricerca RELATE conduce attività avanzate nel campo dell’apprendimento automatico e dell’intelligenza artificiale spiegabile, con l’obiettivo di sviluppare sistemi trasparenti, sicuri e responsabili, in linea con i principi della Trustworthy AI promossi a livello internazionale. Le ricerche si concentrano sull’analisi, progettazione e sviluppo di modelli e metodologie che integrano affidabilità, interpretabilità e robustezza, affrontando sia gli aspetti teorici sia le implicazioni applicative in domini complessi e sensibili.

Le competenze del gruppo si estendono alla Computational Science, che integra modellazione, calcolo parallelo, ottimizzazione e analisi di sistemi complessi, applicando tecniche di High Performance Computing (HPC) alla simulazione di processi fisici e geologici per il rischio naturale e ambientale. In tale ambito, le attività mirano allo sviputto di una piattaforma basata su un’architettura scalabile e AI-driven, combina machine learning, HPC, IoT e agentic reasoning per la modellazione predittiva del rischio, il monitoraggio in tempo reale e l’analisi di allerta precoce, promuovendo un approccio data-driven e spiegabile alla gestione sostenibile di sistemi complessi.

RELATE indaga approcci explainable-by-design, che comprendono modelli simbolici interpretabili, alberi decisionali, regole di decisione e tecniche di regressione sparsificata, e approcci post-hoc, (es. LIME, SHAP e spiegazioni controfattuali), finalizzati a rendere comprensibili i processi decisionali di modelli complessi. L’attenzione è rivolta all’analisi di dati complessi mediante representation learning, graph neural networks e autoencoder interpretabili, con l’obiettivo di estrarre strutture informative significative e comprensibili anche in presenza di incertezze e rumore.

Parallelamente, il gruppo esplora paradigmi emergenti quali il self-supervised learning, il meta-learning e gli approcci neuro-symbolic, al fine di costruire modelli capaci di apprendere da dati non etichettati, adattarsi rapidamente a nuovi compiti e combinare la flessibilità dell’apprendimento statistico con la struttura formale della conoscenza simbolica. In tale quadro si inseriscono anche le attività di ricerca su Agentic AI e sistemi RAG (Retrieval-Augmented Generation), orientate alla realizzazione di agenti autonomi, contestualmente consapevoli e capaci di interagire con ambienti complessi, combinando meccanismi di ragionamento esplicito, memoria contestuale e recupero dinamico della conoscenza. Tali approcci consentono di rafforzare la capacità dei sistemi intelligenti di spiegare, giustificare e adattare le proprie decisioni, integrando fonti esterne di informazione e mantenendo tracciabilità e coerenza epistemica.

Ulteriore ambito di ricerca riguarda le Security Intelligence Techniques, orientate alla concezione e sviluppo di metodologie intelligenti per la sicurezza, la privacy e l’integrità dei dati, con particolare attenzione a identificazione sicura, autenticazione robusta, anticontraffazione e tracciabilità end-to-end (Supply-chain), sfruttando tecnologie di cyber-physical security basate su Physical Unclonable Functions (PUF) e soluzioni distribuite Blockchain/DLT.

Contestualmente, RELATE sviluppa soluzioni avanzate per la Deep Image Analysis, finalizzate all’analisi automatica, semantica e contestuale di immagini mediante modelli di IA trasparenti, affidabili e spiegabili. Le attività comprendono la progettazione di reti neurali profonde, modelli generativi, sistemi di segmentazione semantica, riconoscimento multimodale e algoritmi interpretabili capaci di fornire spiegazioni visive e descrittive delle decisioni automatizzate, con applicazioni nei settori della sicurezza, diagnostica medica e monitoraggio ambientale.

In modo complementare agli approcci interpretabili, RELATE esplora la modellazione probabilistica bayesiana, con enfasi su modelli gerarchici a fattori latenti, che, pur non essendo explainable-by-design, consentono di esplicitare le assunzioni sottostanti, modellare la variabilità dei dati e quantificare l’incertezza associata alle inferenze, fornendo una forma avanzata di trasparenza epistemica.

Obiettivi

RELATE è un gruppo multidisciplinare di ricercatori e tecnologi impegnati in attività di ricerca di base e applicata nel campo dell’intelligenza artificiale affidabile, spiegabile e interpretabile. Le attività di ricerca si sviluppano attraverso una cooperazione sinergica tra diverse aree, tra cui data mining, (deep) machine learning, computational intelligence e high performance computing. In particolare, il gruppo si focalizza sulla progettazione di sistemi intelligenti basati sulla conoscenza, in grado di apprendere da grandi volumi di dati, adattarsi a contesti complessi e fornire interpretazioni significative dei modelli, delle previsioni e dei processi decisionali, con applicazioni che spaziano dalla ricerca scientifica all’industria.

Campi di applicazione

Le soluzioni sviluppate da RELATE trovano applicazione in contesti ad alta complessità e rilevanza strategica, quali High-Performance Computing (HPC), Industry 4.0, Cybersecurity e Healthcare, affrontando sfide legate alla scalabilità, alla sicurezza dei dati, alla spiegabilità dei modelli e all’efficienza computazionale.

Area Tematica

Intelligenza artificiale

Keywords

Explainable AI, Computer vision, High-Performance Computing. Trustworthy Computing.

Responsabile del Gruppo

Agostino Forestiero

 

Back To Top