COMPASS 2026

Libro degli Abstract

Raccolta completa dei contributi di ricerca e degli abstract dei talk per COMPASS 2026.

Le reti neurali a grafo (GNN) sono efficaci per la classificazione dei nodi quando le etichette possono sfruttare le informazioni dei vicini locali. Tuttavia, possono incontrare difficoltà quando la previsione dipende da interazioni a lungo raggio, a causa di problemi noti come l'oversquashing. Per affrontare questo problema, lavori precedenti hanno proposto il rewiring della topologia del grafo per migliorare la propagazione del segnale. In questo lavoro, introduciamo RAwR, un metodo di rewiring innovativo ed efficiente che crea un grafo quoziente da una partizione equa e lo connette al grafo di input. Ciò consente una comunicazione più rapida tra nodi con lo stesso ruolo strutturale (ovvero, la stessa colorazione del grafo di Weisfeiler-Leman) e riduce la resistenza effettiva totale. Inoltre, una definizione approssimata della partizione equa consente un restringimento controllabile del grafo quoziente fino a quando non collassa in un singolo nodo, recuperando così la nota tecnica di rewiring Master Node. Attraverso un ampio benchmark di valutazione, che include dataset omofili ed eterofili standard e grafi sintetici progettati specificamente per interazioni a lungo raggio, RAwR ottiene risultati all'avanguardia. Indaghiamo inoltre analiticamente i miglioramenti che RAwR può ottenere in un modello idealizzato teacher-student di GNN lineari, spiegando quando e perché il rewiring basato sul ruolo è d'aiuto. Questa intuizione teorica porta alla definizione dello Spectral Role Lift (SRL), una misura utile per identificare la partizione equa approssimata che porta alle migliori prestazioni.

L'attribuzione delle caratteristiche è il paradigma dominante per spiegare le previsioni di modelli complessi di machine learning come le reti neurali. Tuttavia, la maggior parte dei metodi esistenti offre scarse garanzie di riflettere il processo decisionale del modello. Definiamo la nozione di allineamento esplicativo e sosteniamo che sia centrale per una modellazione predittiva affidabile: in breve, richiede che le spiegazioni sottendano direttamente le previsioni anziché servire come razionalizzazioni. Presentiamo la leggibilità del modello come principio di progettazione che consente l'allineamento e le Pointwise-interpretable Networks (PiNets) come framework di modellazione per perseguirlo in un contesto di deep learning. Le PiNets combinano l'intelligenza statistica con una struttura pseudo-lineare che produce previsioni lineari per singola istanza in uno spazio di caratteristiche arbitrario. Illustriamo il loro utilizzo in compiti di classificazione e segmentazione delle immagini, dimostrando che le PiNets producono spiegazioni che non sono solo allineate per progettazione, ma anche fedeli attraverso altre dimensioni: significatività, robustezza e sufficienza.

La presentazione sosterrà che l'ascesa delle strategie di disinformazione guidate dall'IA altera fondamentalmente il rapporto tra libertà di espressione e stato di diritto ampliando, accelerando e oscurando la comunicazione politica manipolatoria su una scala senza precedenti. Questo sviluppo sfida il ruolo classico della magistratura come garante della libera espressione, aumentando il rischio che interventi giustificati da sistemi di IA opachi possano essere usati in modo improprio in contesti di regressione democratica. In questo panorama trasformato, strumenti UE come il Digital Services Act e l'AI Act riconfigurano lo stato di diritto imponendo obblighi di trasparenza, responsabilità e mitigazione del rischio ad attori privati le cui tecnologie di IA modellano sempre più il discorso democratico.

L’avvento dell’IA, in particolare dell’IA generativa, solleva numerose preoccupazioni riguardo alla protezione degli individui più esposti ai rischi derivanti dall’uso pervasivo delle nuove tecnologie in vari aspetti della vita quotidiana. Il legislatore dell’UE ha riconosciuto queste sfide, imponendo di conseguenza il rispetto della categoria dei cosiddetti soggetti "vulnerabili". La discussione mira ad affrontare il concetto di vulnerabilità alla luce dell’AI Act, prospettando un modello di governance in cui la protezione della fragilità diventi il parametro fondamentale per la legittimità stessa dell’innovazione tecnologica.

Il panorama normativo dell’Unione Europea ha visto due tendenze diverse negli ultimi anni: dopo un’ondata di regolamenti che ci hanno lasciato l’AI Act, il Digital Services Act, il Data Governance Act, il Data Act (solo per citarne alcuni) e altri atti legislativi storici, la nuova direzione va verso la semplificazione, seguendo la narrazione che "la regolamentazione soffoca l’innovazione". Questo talk metterà in discussione questo assunto e discuterà pratiche di ricerca responsabile per favorire l’innovazione etica nel campo delle nuove tecnologie.

In un mondo pervaso dall'intelligenza artificiale, la legge deve mantenere un ruolo predominante nella salvaguardia dei diritti umani, degli interessi e della certezza del diritto. Tuttavia, è sempre più difficile per la regolamentazione tenere il passo con tecnologie in rapida evoluzione. Una questione chiave riguarda l'interpretazione dell'AI Act, in particolare l'articolo 5(1)(a), che vieta i sistemi di IA che utilizzano tecniche manipolatorie, ingannevoli o subliminali che causano danni significativi. Tuttavia, la nozione di "danno significativo" non è definita, lasciando agli interpreti il compito di determinarne il significato e aumentando la discrezionalità e l'incertezza del diritto. In un contesto altamente tecnologico, è quindi cruciale identificare la soglia oltre la quale il danno diventa significativo, al fine di prevenire situazioni pregiudizievoli e ambiguità nell'applicazione. Ciò richiede l'analisi della legislazione europea sul danno, le sue sottocategorie e concetti correlati come la gravità e la violazione legale. Un caso di studio interessante è quello degli assistenti virtuali basati sulla voce, che utilizzano tecniche NLP e API per fornire risposte tempestive agli utenti. In che modo questi sistemi potrebbero manipolare o ingannare gli utenti e portare a scelte inconsapevoli? E a quali condizioni tale condotta potrebbe causare un danno significativo? Questa analisi mira a identificare quando tali comportamenti equivalgono a manipolazione, inganno o influenza subliminale, fornendo orientamenti sia ex ante per gli sviluppatori che ex post per gli utenti interessati.

Che tipo di agire e, di conseguenza, di responsabilità sorge nel contesto dei sistemi di intelligenza artificiale? Da un lato, un sistema di intelligenza artificiale appare capace di un "agire senza azione" – cioè senza un soggetto – che emerge proprio nel nostro rapporto con il sistema stesso. Ciò richiederebbe un regime di responsabilità morale diverso da quello della colpa tout court. Piuttosto, partendo dal riconoscimento delle vulnerabilità degli agenti coinvolti, sembrerebbe sorgere una sorta di responsabilità dinamicamente negoziata. D’altro canto, ciò appare in linea con l’orientamento giuridico più generale, che tende verso la responsabilità senza colpa, o responsabilità oggettiva. Mettendo da parte le sfumature dottrinali, potrebbe esserci una corrispondenza tra i due domini, quello etico e quello legale. Un tale approccio, che verrà descritto durante l’intervento, potrebbe rendere giustizia alle soluzioni già proposte, come la registrazione delle interazioni prevista dall’AI Act dell’UE.

L’innovazione emerge da modelli di collaborazione complessi - tra inventori, aziende o istituzioni. Tuttavia, non si sa molto sulla struttura mesoscopica complessiva attorno alla quale si auto-organizza l’attività inventiva. In questo studio, affrontiamo il problema utilizzando i dati sui brevetti per analizzare sia le reti individuali (co-inventorship) che quelle organizzative (co-ownership) in tre domini strategici (intelligenza artificiale, biotecnologia e semiconduttori). Caratterizziamo la struttura a mesoscala (in termini di cluster) di ogni dominio confrontando due metodi alternativi: una baseline standard - la massimizzazione della modularità - e uno basato sulla minimizzazione del Bayesian Information Criterion, all’interno dello Stochastic Block Model e della sua variante corretta per il grado. Troviamo che, in tutti i settori, le reti degli inventori sono più dense e più raggruppate di quelle delle organizzazioni - coerentemente con la presenza di piccoli team ricorrenti inseriti in gerarchie istituzionali più ampie - mentre le reti delle organizzazioni hanno strutture basate sui ruoli gerarchici più nitide, con poche aziende di collegamento che coordinano quelle più periferiche. Troviamo inoltre che le meso-strutture scoperte sono collegate all’output dell’innovazione. In particolare, le curve di Lorenz delle citazioni future mostrano una disuguaglianza pervasiva nell’influenza tecnologica: in tutti i settori e metodi, sia le reti degli inventori (specialmente) che quelle delle organizzazioni mostrano costantemente alti livelli di concentrazione di citazioni in alcuni dei cluster scoperti. I nostri risultati dimostrano che il metodo basato sulla modularità di base potrebbe non essere in grado di catturare appieno il modo in cui le collaborazioni guidano la diffusione dell’impatto inventivo attraverso i domini tecnologici. Ciò è dovuto alla presenza di gerarchie locali che richiedono strumenti più raffinati basati sull’inferenza bayesiana.

Le reti bipartite forniscono una visione fondamentale dell’organizzazione dei sistemi complessi del mondo reale. Una sfida chiave nella modellazione di questi sistemi è l’ideazione di una proiezione monopartitica che preservi le intricate informazioni codificate all’interno della struttura bipartita originale. Proponiamo un algoritmo non supervisionato per ottenere proiezioni statisticamente validate di reti bipartite signed, secondo cui due nodi che condividono un numero statisticamente significativo di motivi concordanti (discordanti) sono collegati da un arco positivo (negativo). Valutando la significatività statistica attraverso quattro distinti Exponential Random Graph Models (ERGM), generiamo p-value specifici per i collegamenti filtrati tramite correzione per test multipli. Dopo aver convalidato il metodo su configurazioni sintetiche da un modello generativo completamente controllabile, lo applichiamo a tre reti sociali del mondo reale. In tutti i casi, l’algoritmo rileva strutture mesoscopiche non banali che non possono essere spiegate dai vincoli dei modelli nulli, svelando così l’autentica complessità signed del sistema sottostante. Infine, mostriamo come la flessibilità intrinseca del nostro framework consenta facili estensioni a modelli nulli più sofisticati e a diversi sistemi complessi.