← Torna ai relatori
Vittoria Caponecchia

Affiliazione

Scuola Superiore Sant’Anna e Università di Pisa

Relatrice del Panel 2

Vittoria Caponecchia

Biografia

Vittoria Caponecchia è una dottoranda in Artificial Intelligence for Society presso la Scuola Superiore Sant’Anna di Pisa. Ha conseguito la laurea in Giurisprudenza presso l’Università di Firenze e ha completato la pratica forense presso uno studio legale di Pistoia. La sua ricerca dottorale si concentra sulla classificazione dei sistemi di IA basata sul concetto di danno significativo, con particolare attenzione alla tutela dei consumatori.

Contributi al workshop

Il danno significativo nel diritto dell’UE: quando gli assistenti virtuali vocali sono proibiti

In un mondo pervaso dall'intelligenza artificiale, la legge deve mantenere un ruolo predominante nella salvaguardia dei diritti umani, degli interessi e della certezza del diritto. Tuttavia, è sempre più difficile per la regolamentazione tenere il passo con tecnologie in rapida evoluzione. Una questione chiave riguarda l'interpretazione dell'AI Act, in particolare l'articolo 5(1)(a), che vieta i sistemi di IA che utilizzano tecniche manipolatorie, ingannevoli o subliminali che causano danni significativi. Tuttavia, la nozione di "danno significativo" non è definita, lasciando agli interpreti il compito di determinarne il significato e aumentando la discrezionalità e l'incertezza del diritto. In un contesto altamente tecnologico, è quindi cruciale identificare la soglia oltre la quale il danno diventa significativo, al fine di prevenire situazioni pregiudizievoli e ambiguità nell'applicazione. Ciò richiede l'analisi della legislazione europea sul danno, le sue sottocategorie e concetti correlati come la gravità e la violazione legale. Un caso di studio interessante è quello degli assistenti virtuali basati sulla voce, che utilizzano tecniche NLP e API per fornire risposte tempestive agli utenti. In che modo questi sistemi potrebbero manipolare o ingannare gli utenti e portare a scelte inconsapevoli? E a quali condizioni tale condotta potrebbe causare un danno significativo? Questa analisi mira a identificare quando tali comportamenti equivalgono a manipolazione, inganno o influenza subliminale, fornendo orientamenti sia ex ante per gli sviluppatori che ex post per gli utenti interessati.