Che cosa consideriamo davvero “violenza”?
È una domanda che sembra intuitiva, quasi ovvia. Ma basta entrare nei dettagli per scoprire quanto sia in realtà complessa.
Da questa domanda nasce lo studio “On the Concept of Violence: A Comparative Study of Human and AI Judgments”, pubblicato su arXiv, firmato da Mariachiara Stellato, Francesco Lancia, Chiara Galeazzi e Nico Curti. Il lavoro mette a confronto il modo in cui gli esseri umani e i modelli di intelligenza artificiale interpretano situazioni potenzialmente violente, rivelando differenze sorprendenti nel modo in cui valutiamo il contesto e le sfumature morali.
Un esperimento nato in radio
L’idea dello studio è stata testata in modo originale: attraverso un sondaggio lanciato in diretta radiofonica durante il programma “Chiacchiericcio” di Radio Deejay. Durante la trasmissione, è stato chiesto al pubblico di classificare 22 situazioni controverse (ad esempio insulti online, esclusione sociale o frasi pronunciate in contesti ambigui) scegliendo tra tre possibili risposte:
- violenza
- non violenza
- dipende dal contesto
In poche ore sono state raccolte oltre 3.000 risposte, offrendo un campione ricco e variegato di percezioni umane. Su intuizione del gruppo di ricercatori e ricercatrici che si occupano di AI, le situazioni sono state sottoposte a 18 diversi modelli di intelligenza artificiale, chiedendo loro di fornire la stessa classificazione.
Dove umani e AI sono d’accordo (e dove no)
Nei casi più evidenti, il risultato è rassicurante: esseri umani e sistemi di AI tendono a concordare. Ma quando le situazioni diventano più ambigue, emergono differenze significative.
- Le persone mostrano maggiore variabilità nelle risposte
- Gli esseri umani usano più spesso la categoria “dipende dal contesto”
- I modelli di AI tendono invece a dare giudizi più netti e meno sfumati
In altre parole, mentre gli esseri umani valutano più facilmente le intenzioni, il contesto e le relazioni sociali, le AI tendono a semplificare le decisioni in categorie più rigide.
Le AI non riflettono semplicemente le opinioni umane
Uno dei risultati più interessanti dello studio è che le AI non si limitano a replicare il pensiero umano.
I modelli analizzati mostrano infatti criteri di valutazione propri, spesso derivati dai bias presenti nei dati di addestramento o nelle scelte progettuali degli sviluppatori. Questo può portare a classificazioni che divergono dalle nostre intuizioni morali o sociali.
Perché è un risultato importante
In un momento storico in cui sempre più decisioni — o valutazioni — vengono delegate a sistemi di intelligenza artificiale, comprendere come e dove questi sistemi differiscono dal giudizio umano diventa cruciale.
Lo studio suggerisce che le AI possono essere strumenti utili, ma non neutrali: il modo in cui interpretano concetti complessi come la violenza può riflettere semplificazioni o distorsioni che è importante conoscere.
Proprio per questo, analizzarne limiti, bias e differenze rispetto al giudizio umano è una delle sfide centrali della ricerca contemporanea sull’intelligenza artificiale.