di Teresa Numerico
Il motore di ricerca, a dispetto dei suoi proclami, applica una strategia di esclusione dell’alterità di vedute. Come dimostra il caso di Timnit Gebru, licenziata per un articolo non approvato.
Timnit Gebru è stata licenziata da Google all’inizio di dicembre 2020. Aveva la corresponsabilità della squadra dedicata all’etica dell’intelligenza artificiale nell’azienda ed era una delle più note dipendenti afroamericane del motore di ricerca.
Secondo Jeff Dean, capo della divisione Intelligenza Artificiale, un articolo per il quale aveva chiesto l’approvazione – che aveva contribuito a scrivere – non superava gli standard di qualità aziendali. Alle proteste di Gebru è scattato, immediato, il licenziamento.
Il caso è rilevante perché dimostra una più generale tendenza del motore di ricerca e delle grandi aziende Internet a usare l’etica dell’Intelligenza Artificiale solo per i grandi titoli delle pubbliche relazioni, mentre quando si tratta di approfondire i problemi e discutere nel merito delle pratiche tecniche non accetta di essere criticata. È la nota pratica dell’ethics washing: fare finta di seguire una serie di norme auto-definite, solo per potersi autoassolvere quando si esercitano pratiche discriminatorie, basate su stereotipi e pregiudizi.
Il problema della diversità dei lavoratori delle aziende della Silicon Valley è impossibile da sottovalutare. La maggior parte dei programmatori, venture capitalist, imprenditori che lavorano in quell’area, non solo sono maschi bianchi, ma sono anche formati nelle facoltà scientifiche delle università esclusive della Ivy League che – essendo molto costose – presuppongono anche una precisa appartenenza di classe.
Tutti i tentativi di aumentare la diversità di genere, etnica e sociale dei lavoratori non è andata oltre l’adozione di progetti speciali da reclamizzare nelle conferenze stampa, come mostra l’impietoso memoir di Anna Wiener La Valle oscura (Adelphi, 2020).
L’episodio del licenziamento di Gebru è un’eloquente prova che – nella Silicon Valley – qualsiasi buona intenzione è destinata a infrangersi al primo stormire di fronde di una contrapposizione culturale e politica. Alcuni dipendenti di Google, infatti, hanno testimoniato che nessuno ha passato al vaglio contenutistico gli articoli di cui sono autori, segnalando così come questa valutazione del lavoro di Gebru sia irrituale e pretestuosa.
Il giudizio di merito svela – se ce ne fosse ancora bisogno – il meccanismo di potere appena nascosto dietro la foglia di fico della qualità scientifica. Google non perde occasione per mostrare le due verità della sua ideologia, da una parte campione di diversità, dall’altra pronta a sanzionare una delle sue dipendenti più rilevanti rispetto a questa politica. La tentazione di una strategia di esclusione dell’alterità di vedute esprime il vero nucleo immorale e coloniale del tecnopotere, incapace di tenere fede ai suoi proclami pubblici.
La Mit Technology Review, in un articolo del 4 dicembre scorso, ha descritto i contenuti del testo incriminato. Lo scritto analizzava gli strumenti di natural language processing usati da Google e argomentava intorno a quattro rischi relativi al loro uso per comprendere e riprodurre testi secondo i dettami degli algoritmi adottati.
La prima questione problematica è la grande richiesta energetica necessaria per addestrare e riaddestrare anche solo una delle reti neurali di deep learning usate per la comprensione dei testi. Secondo una serie di studi citati è possibile misurare il carbon footprint prodotto per ottenere un
sistema di IA, in grado di interpretare i testi.
È molto difficile definire un’unità di misura univoca per valutare il peso dell’inquinamento prodotto dall’addestramento di questi sistemi, ma è evidente che i costi energetici siano molto ingenti, anche considerando l’obsolescenza dei materiali usati, il loro smaltimento, l’uso dell’energia per eseguire i calcoli e refrigerare le macchine. Sebbene i meccanismi che presiedono all’addestramento siano virtuali, i dispositivi hanno una materialità costosa, ingombrante e un consumo energetico rilevante.
Il secondo rischio preso in esame dall’articolo incriminato era legato all’addestramento di queste reti neurali sui corpora di testi incontrollati presi da Internet che tendono a perpetrare e reiterare pregiudizi razzisti, sessisti e sociali.
Il terzo rischio ipotizzato si concentra sulla capacità manipolatoria sul linguaggio che non si accompagna a una vera comprensione dei testi. Tale prospettiva spinge a privilegiare questi modelli a discapito di altri che invece potrebbero condurre a una maggiore comprensione del linguaggio, attraverso corpora più ristretti e controllati, con costi di addestramento meno ingenti.
L’ultimo rischio è relativo all’uso degli strumenti per produrre testi che simulano quelli scritti da esseri umani, che potrebbero incrementare il potere di generare automaticamente false informazioni, amplificandone la diffusione con l’obiettivo di intossicare la vita democratica.
Una delle ipotesi sul motivo di una reazione così smisurata contro Timnit Gebru per un articolo che sostanzialmente non proponeva una ricerca innovativa ma solo una rassegna della letteratura critica, è che si sia toccato un nervo sensibile. Il progetto, infatti, prendeva di mira l’ultimo strumento di Natural Language Processing usato da Google, il Transformer language model proposto nel 2017, che recentemente ha dato luogo all’ultimo modello Bert, che viene utilizzato per comprendere le domande per la ricerca sul web, ancora al centro dei ricavi del motore.
L’analisi del linguaggio è particolarmente delicata. Sappiamo che Bert utilizza una rete neurale molto efficiente, le cui prestazioni non si comprendono pienamente. Il sistema di deep learning non ha una vera comprensione del linguaggio, ma costruisce inferenze basate sulla sua capacità di apprendere stereotipi. Il metodo non consente di esercitare l’euristica del senso comune: per esempio, sebbene comprenda che si può camminare dentro una casa e che una casa può essere grande, non deduce da queste conoscenze che una casa sia più grande di una persona.
Ha difficoltà a comprendere le relazioni tra i numeri e non ha una comprensione del mondo nel senso che non sa mettere in relazione le capacità di un oggetto con le sue caratteristiche, oltre a non saper ragionare sui termini astratti. Eppure è in grado di fare correttamente una sintesi di un testo complesso, di produrre testi accettabili sintatticamente, oltre che di supportare la traduzione in modo efficace. Il carattere manipolatorio dello strumento è quindi estremamente preoccupante perché svuota il linguaggio del suo valore, dal momento che può essere usato per mimare la capacità linguistica umana, senza padroneggiare il significato che veicola.
Un’altra preoccupante osservazione riguarda l’aumento di intensità computazionale richiesta dalle ricerche nell’intelligenza artificiale che rende tutti gli studiosi sempre più dipendenti dalle disponibilità dei data center della Silicon Valley.
In un recente articolo di Nur Ahmed e Muntasir Wahed dal titolo The De-democratization of AI: Deep Learning and the Compute Divide in Artificial Intelligence Research si dimostra che dal 2012 nelle maggiori conferenze di informatica americane siano aumentati nettamente i contributi dei dipendenti delle aziende Internet da soli o in collaborazione con i ricercatori delle principali istituzioni universitarie.
Il rischio è la creazione di un compute divide, che avrebbe come conseguenza una pericolosa privatizzazione della conoscenza di questo settore. Tale privatizzazione riguarderebbe anche le prestigiose istituzioni accademiche dipendenti dal «potere, dall’expertise e dai data center» delle aziende Internet per mettere alla prova le loro ipotesi di ricerca.
L’intelligenza artificiale è un campo sempre più cruciale per lo sviluppo economico e per il controllo sociale; se la sua evoluzione stesse esclusivamente nelle mani dei giganti della Silicon Valley, ciò potrebbe avere effetti preoccupanti per le trasformazioni delle democrazie nei Paesi occidentali. Sarebbe utile avere un progetto strategico per contrastare questo esito nefasto sia per la conoscenza, sia per l’autonomia e la libertà della politica nell’Unione Europea.
È per questo forse che le grandi aziende Internet stanno incrementando la loro attività di lobbying a Bruxelles: non vogliono essere disturbate dalla regolazione e, nel frattempo, controllano che non si creino potenziali concorrenti nel settore.
Riferimenti bibliografici
Ahmed, N., & Wahed, M. (2020). The De-democratization of AI: Deep Learning and the Compute Divide in Artificial Intelligence Research. arXiv preprint arXiv:2010.15581.
Clarke L. (2020) Big Techs carbon problem, NewStatesman, 26/11/2020
Hao K. (2020) We read the paper that forced Timnit Gebru out of Google. Here’s what it says, MIT
Technology Review 4/12/2020
Rogers, A., Kovaleva, O., & Rumshisky, A. (2020). A primer in bertology: What we know about how bert works. arXiv preprint arXiv:2002.12327.
Satariano A., Stevis-Gridneff M. (2020) Big Tech Turns Its Lobbyists Loose on Europe, Alarming Regulators, New York Times 14/12/2020
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep
Wakabayashi D. (2020) Google Chief Apologizes for A.I. Researcher’s Dismissal, New York Times 9/12/2020,
(il manifesto, 3 gennaio 2021)