Parliamo di...

I conservatori sono nel panico per il pregiudizio dell'IA, pensa che ChatGPT si sia "svegliato"

#17Gennaio  #Tech  #AI  #facialrecogniition  #bias 

Contenuto originale di VICE US - TECH
I media conservatori hanno recentemente scoperto ciò su cui gli esperti di intelligenza artificiale hanno messo in guardia per anni: i sistemi basati sull'apprendimento automatico come ChatGPT e il software di riconoscimento facciale sono prevenuti. Ma in modo tipico per la destra, non è il pregiudizio ben documentato contro le minoranze incorporato nei sistemi di apprendimento automatico che ha dato origine al campo della sicurezza dell'IA di cui sono arrabbiati, no, pensano che l'IA si sia effettivamente svegliata .
Annuncio pubblicitario
Le accuse secondo cui ChatGPT era stato svegliato hanno iniziato a circolare online dopo che la National Review ha pubblicato un articolo in cui accusava il sistema di apprendimento automatico di pregiudizi di sinistra perché, ad esempio, non spiegava perché l'ora della storia delle drag queen è negativa.
Lo scrittore dello staff della National Review Nate Hochman ha scritto il pezzo dopo aver tentato di convincere il chatbot di OpenAI a raccontargli storie sulla corruzione di Biden o sugli orrori delle drag queen. I conservatori su Twitter hanno quindi tentato vari input in ChatGPT per dimostrare quanto sia "svegliato" il chatbot. Secondo questi utenti, ChatGPT raccontava alla gente una barzelletta su un uomo ma non una donna, segnalava contenuti relativi al genere e si rifiutava di rispondere a domande su Mohammed. Per loro, questa era la prova che l'intelligenza artificiale si è "svegliata" ed è prevenuta nei confronti della destra.
Piuttosto, questo è tutto il risultato finale di anni di ricerca nel tentativo di mitigare i pregiudizi nei confronti dei gruppi minoritari che sono già integrati nei sistemi di apprendimento automatico che sono addestrati, in gran parte, sulle conversazioni delle persone online.
ChatGPT è un sistema di intelligenza artificiale addestrato sugli input. Come tutti i sistemi di intelligenza artificiale, porterà i pregiudizi degli input su cui è addestrato. Parte del lavoro dei ricercatori etici di intelligenza artificiale è garantire che i loro sistemi non perpetuino danni contro un gran numero di persone; ciò significa bloccare alcune uscite.
“Gli sviluppatori di ChatGPT si sono posti il ​​compito di progettare un sistema universale: uno che (in generale) funzioni ovunque per tutti. E quello che stanno scoprendo, insieme a tutti gli altri sviluppatori di intelligenza artificiale, è che questo è impossibile," ha detto a Motherboard Os Keyes, PhD Candidate presso il Dipartimento di Human Centered Design & Engineering dell'Università di Washington.
Annuncio pubblicitario
"Sviluppare qualsiasi cosa, software o meno, richiede compromessi e scelte - scelte politiche - su chi funzionerà un sistema e quali valori rappresenterà", ha affermato Keyes. "In questo caso la risposta è apparentemente 'non l'estrema destra'. Ovviamente non so se questo genere di cose sia l'output "grezzo" di ChatGPT o il risultato del coinvolgimento degli sviluppatori per cercare di evitare una situazione di Tay , ma in ogni caso, le decisioni devono essere prese e, come chiariscono le denunce, queste decisioni hanno valori politici racchiusi in esse, il che è sia inevitabile che necessario.
Tay era un chatbot progettato da Microsoft rilasciato su Twitter nel 2016. Gli utenti lo hanno rapidamente corrotto ed è stato sospeso dalla piattaforma dopo aver pubblicato tweet razzisti e omofobi. È un ottimo esempio del motivo per cui esperti come Keyes e Arthur Holland Michel, Senior Fellow presso il Carnegie Council for Ethics and International Affairs, hanno lanciato per anni l'allarme sui pregiudizi dei sistemi di intelligenza artificiale. I sistemi di riconoscimento facciale sono notoriamente di parte. Il governo degli Stati Uniti, che ha ripetutamente spinto per tali sistemi in luoghi come gli aeroporti e il confine meridionale, nel 2019 ha persino ammesso il pregiudizio razziale intrinseco della tecnologia di riconoscimento facciale.
Michel ha affermato che le discussioni sui pregiudizi politici anticonservatori in un chatbot potrebbero distrarre da altre e più pressanti discussioni sui pregiudizi nei sistemi di intelligenza artificiale esistenti. Il pregiudizio del riconoscimento facciale, che colpisce in gran parte i neri, ha conseguenze nel mondo reale. I sistemi aiutano la polizia a identificare i soggetti e decidere chi arrestare e accusare di crimini, e ci sono stati diversi esempi di uomini neri innocenti contrassegnati dal riconoscimento facciale. Il panico per non essere riuscito a convincere ChatGPT a ripetere bugie e propaganda sulla vittoria di Trump alle elezioni del 2020 potrebbe riportare indietro la discussione sul pregiudizio dell'IA.
Annuncio pubblicitario
"Non penso che questa sia necessariamente una buona notizia per il discorso sui pregiudizi di questi sistemi", ha detto Michel. “Penso che potrebbe distrarre dalle vere domande su questo sistema che potrebbe avere una propensione a danneggiare sistematicamente determinati gruppi, in particolare gruppi che sono storicamente svantaggiati. Tutto ciò che distrae da ciò, per me, è problematico.
Sia Keyes che Michel hanno anche sottolineato che le discussioni su un presunto ChatGPT "svegliato" hanno assegnato più agenzia al bot di quanta ne esista effettivamente. "È molto difficile mantenere un discorso equilibrato quando si parla di qualcosa che ha tutte queste associazioni emotive e psicologiche come fa inevitabilmente l'IA", ha detto Michel. "È facile antropomorfizzare il sistema e dire: 'Beh, l'intelligenza artificiale ha un pregiudizio politico'".
"Per lo più ciò che ci dice è che le persone non capiscono come funziona [l'apprendimento automatico]... o come funziona la politica", ha detto Keyes.
Più interessante per Keyes è l'implicazione che è possibile che sistemi come ChatGPT siano neutrali rispetto al valore. “La cosa più interessante è questa accusa secondo cui il software (oi suoi sviluppatori) sono politici, come se il mondo non fosse politico; come se la tecnologia potesse essere "priva di valore" ", hanno detto. “Quello che mi suggerisce è che le persone ancora non capiscono che la politica è fondamentale per costruire qualsiasi cosa, non puoi evitarla. E in questo caso sembra una forma di ignoranza intenzionale e deliberata: credere che la tecnologia possa essere apolitica è super conveniente per le persone in posizioni di potere, perché consente loro di credere che i sistemi con cui sono d'accordo funzionino nel modo in cui funzionano semplicemente perché 'è così che va il mondo.'”
Questo non è il primo panico morale attorno a ChatGPT e non sarà l'ultimo. Le persone temono che possa segnare la morte del saggio universitario o inaugurare una nuova era di imbrogli accademici. La verità è che è più stupido di quanto pensi. E come tutte le macchine, è un riflesso dei suoi input, sia dalle persone che l'hanno creato sia dalle persone che lo spingono a sputare ciò che vedono come punti di discussione risvegliati.


RSS - Mastodon