Trasparenza Algoritmica

Un nuovo imperativo tecnologico

In un mondo sempre più digitalizzato, gli algoritmi sono diventati parte integrante della nostra vita quotidiana. Essi determinano ciò che vediamo nei social media, come vengono gestite le nostre finanze, come vengono effettuate le assunzioni e molto altro. Tuttavia, mentre la loro presenza diventa sempre più pervasiva, aumenta anche la preoccupazione per la mancanza di trasparenza algoritmica.

La trasparenza algoritmica si riferisce alla capacità di capire come un algoritmo prende le sue decisioni. Questo concetto è fondamentale per garantire l'equità, l'accountability e l'evitare la discriminazione nei sistemi basati su algoritmi.

Tuttavia, la trasparenza negli algoritmi non è semplice come potrebbe sembrare. Molti algoritmi sono proprietari e non trasparenti, rendendo difficile per i regolatori e il pubblico comprendere come funzionano. Inoltre, la complessità intrinseca degli algoritmi moderni, come quelli utilizzati nel machine learning, può rendere difficile anche per gli esperti capire esattamente come vengono prese le decisioni.


Alcuni strumenti per l'audit di algoritmi

Metodologie e strumenti per condurre audit sugli algoritmi: si tratta di un progetto di ricerca presso il Khoury College of Computer Sciences alla Northeastern University. Stanno sviluppando metodologie e strumenti per condurre audit sugli algoritmi in ambiti come i mercati online, i siti web di assunzione e i servizi finanziari. La ricerca fornirà metodologie, codice open source e dataset a ricercatori accademici e regolatori​​.

Strumento di trasparenza OECD.AI: si tratta di un insieme di strumenti sviluppati da OECD.AI per l'audit dei sistemi algoritmici. I tipi di strumenti includono un processo di audit, uno standard, un framework di gestione dei rischi, un framework di valutazione, uno strumento di sviluppo del prodotto, linee guida, un processo di documentazione e una checklist​​.

IndieLabel: sviluppato da ricercatori della Stanford e dell'Università della Pennsylvania, IndieLabel è uno strumento basato sul web che permette agli utenti finali di fare audit sugli algoritmi. È stato usato come prova di concetto per fare audit su Perspective API, un algoritmo di moderazione dei contenuti ampiamente utilizzato. Lo strumento è unico in quanto è centrato sull'utente e modella le opinioni dell'utente finale su un intero set di dati. Gli auditor possono etichettare i contenuti, scegliere un'area tematica per l'audit, visualizzare e selezionare esempi da segnalare allo sviluppatore e scrivere note che descrivono perché il contenuto è o non è tossico dal punto di vista dell'utente​.