L'attribuzione delle caratteristiche è il paradigma dominante per spiegare le previsioni di modelli complessi di machine learning come le reti neurali. Tuttavia, la maggior parte dei metodi esistenti offre scarse garanzie di riflettere il processo decisionale del modello. Definiamo la nozione di allineamento esplicativo e sosteniamo che sia centrale per una modellazione predittiva affidabile: in breve, richiede che le spiegazioni sottendano direttamente le previsioni anziché servire come razionalizzazioni. Presentiamo la leggibilità del modello come principio di progettazione che consente l'allineamento e le Pointwise-interpretable Networks (PiNets) come framework di modellazione per perseguirlo in un contesto di deep learning. Le PiNets combinano l'intelligenza statistica con una struttura pseudo-lineare che produce previsioni lineari per singola istanza in uno spazio di caratteristiche arbitrario. Illustriamo il loro utilizzo in compiti di classificazione e segmentazione delle immagini, dimostrando che le PiNets producono spiegazioni che non sono solo allineate per progettazione, ma anche fedeli attraverso altre dimensioni: significatività, robustezza e sufficienza.
Corentin Lobet
Scuola Superiore Sant’Anna
Corentin Lobet è un dottorando presso la Scuola Superiore Sant’Anna. La sua ricerca spazia dalla modellazione statistica e dall’IA spiegabile al ruolo degli errori dei modelli nel plasmare le disuguaglianze e l’instabilità nella società.