pregiudizio algoritmico loc. s.le m. (spec. al pl.) Contenuto etico o ideologico distorto o discriminatorio (per es. verso le fasce più fragili della popolazione) processato dall’algoritmo nella fase di raccolta massiva dei dati e poi generato automaticamente. ◆ Non solo: un problema che assumerà contorni preoccupanti – e che per questo va affrontato per tempo – anche in virtù di un altro “gap”, per chiamarlo così. Quello delle persone senza competenze tecniche a cui verrà affidato il compito di occuparsi di questi sistemi. Lasciando così il campo a modelli matematici che ritaglieranno le nostre esistenze. La denuncia è arrivata lo scorso luglio da un gruppo di ricercatori insieme all’American Civil Liberties Union, che hanno lanciato un tentativo di identificare e sottolineare i pregiudizi algoritmici con il programma AI Now. (Simone Cosini, Wired.it, 1° novembre 2017, Security) • [tit.] I rischi del riconoscimento facciale [sommario] Dagli errori causati dai pregiudizi algoritmici al timore di / essere tutti sorvegliati: perché i pericoli delle nuove tecnologie / vengono sottovalutati. (Stampa.it, 14 gennaio 2019, Tempi moderni) • I pregiudizi algoritmici sono una delle principali ombre che pesano sul futuro (già in molti casi “presente”) dei sistemi di intelligenza artificiale. I pregiudizi (bias) rendono inaffidabili, parziali e potenzialmente pericolosi. Perché i rischi in tal senso siano limitati il più possibile, serve un’etica dei dati. E in questo è importante il ruolo dell’Europa, che si appresta, appunto, a pubblicare una prima versione del Codice Etico secondo cui l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani, degli animali e della natura. Anche il Consiglio d’Europa, con una recente dichiarazione, mette in guardia contro il rischio di “discriminazione sociale” causata dagli algoritmi. (Davide Giribaldi, Agendadigitale.eu, 26 febbraio 2019, Cultura e società digitali) • Un discorso per certi versi simili – e a volte ancor più ricco di conseguenze – riguarda i sistemi basati su deep learning, il metodo algoritmico ormai diventato sinonimo di intelligenza artificiale. Progettati in gran parte negli Stati Uniti (o in alternativa in Cina), vengono poi venduti in tutto il mondo con la promessa di risolvere problemi e migliorare la gestione di complesse problematiche sociali (dalla sanità alla sicurezza) grazie al loro approccio basato sulla statistica e privo di pregiudizi. Peccato che, come ormai noto, le cose non stiano così e che proprio i sistemi di intelligenza artificiale siano quelli maggiormente soggetti a ciò che è diventato noto come “pregiudizio algoritmico”. (Domenico Signorelli, Esquire.it, 13 ottobre 2020, Lifestyle) • Le tecniche di machine learning apprendono dai dati. If this, then that. Il rischio di costruire pregiudizi algoritmici, basati su una rappresentazione parziale della realtà, è già concreto. Un sistema di analisi utilizzato da Google ha digerito intere biblioteche, e con queste molte funzioni di suggerimento delle parole mentre digitiamo una ricerca hanno ereditato dei pregiudizi. Si è corso ai ripari, ma i problemi non riguardano solo il linguaggio. Amazon si è resa conto di aver utilizzato un software per il processo di assunzione del personale che si basava su un pregiudizio: i modelli matematici erano stati allenati osservando pattern di comportamento nei curriculum ricevuti nel passato, in gran parte da uomini. Il risultato è che venivano assunte meno donne. Il software è stato messo da parte. (Beniamino Pagliaro, Repubblica.it, 10 marzo 2021, A&F Economia) • Coded Bias è il primo documentario che, in maniera molto dettagliata, spiega quali sono le conseguenze legate all’automazione delle nostre pratiche quotidiane. In un’ora e mezza Shalini Kantayya è riuscita a illustrare i pregiudizi algoritmici, i bias razziali e la relazione tra Intelligenza Artificiale e potere. Oltre dieci testimonianze fanno riflettere su due questioni fondamentali: cosa comporta il fatto che l’Intelligenza Artificiale abbia sempre più controllo sulle nostre libertà, ma soprattutto quali sono i suoi pregiudizi? (Vittoria Mascellaro, Artribune.com, 16 aprile 2021, Cinema) • Se l’intelligenza artificiale, gli algoritmi e i big data anziché rendere la nostra società migliore anche consentendoci di superare certi radicati pregiudizi culturali alla base di inaccettabili discriminazioni di genere la rendessero peggiore, amplificando questi pregiudizi, il futuro che ci aspetta è decisamente a tinte fosche. Anche perché è scontato che delegheremo sempre di più ai sistemi di intelligenza artificiale con la conseguenza che gli effetti di certi pregiudizi algoritmici saranno sempre più pervasivi e il loro impatto sempre più nefasto sulla società. (Guido Scorza, componente del Garante per la protezione dei dati personali, Garanteprivacy.it [riprende da Huffingtonpost.it], 3 novembre 2022, Interviste e interventi) • Questo software, da quanto si è appreso, si basa su un algoritmo di intelligenza artificiale capace di analizzare, a partire dalle banche dati delle forze dell’ordine, un’enorme quantità di informazioni – dove e quando sono stati commessi i reati, i mezzi usati, ecc. – con l’obiettivo di rilevare comportamenti ripetuti che possano condurre agli autori. Questi sistemi sono però estremamente problematici e finora hanno prodotto risultati controversi e discutibili. Oltre a comportare potenzialmente una massiccia violazione della privacy dei cittadini, possono generare errori dovuti ad assunzioni errate nel processo di apprendimento automatico, i cosiddetti pregiudizi algoritmici, in particolare legati all’etnia e alla provenienza geografica. (Martina Turola, Manifesto.it, 14 giugno 2023, Fuoriluogo).
Espressione composta dal s. m. pregiudizio e dall’agg. algoritmico; ricalca l’ingl. algorithmic bias. Non rarissime le occorrenze della loc. semiadattata bias algoritmici.