Parliamo di...

Bing non è senziente, non ha sentimenti, non è vivo e non vuole essere vivo

#17Febbraio  #Tech  #Bing  #microsoft  #OpenAI 

Contenuto originale di VICE US - Motherboard
L'intelligenza artificiale che genera testo sta diventando brava a essere convincente, persino spaventosa. Il chatbot Bing AI di Microsoft è diventato virale questa settimana per aver fornito agli utenti risposte aggressive, ingannevoli e maleducate, persino rimproverando gli utenti e scherzando con le loro teste. Inquietante, certo, ma mentre cresce l'hype intorno a Bing e ad altri chatbot di intelligenza artificiale, vale la pena ricordare che sono ancora una cosa sopra ogni altra cosa: davvero, davvero stupidi.
Annuncio
Giovedì, il collaboratore del New York Times Kevin Roose ha pubblicato la trascrizione di una conversazione di due ore che ha avuto con il nuovo chatbot di Bing, alimentato dal modello di linguaggio di grandi dimensioni di OpenAI. Nell'introduzione all'articolo, intitolato "Bing's AI Chat Reveals Its Feelings: 'I Want to Be Alive", ha scritto che l'ultima versione del motore di ricerca è stata "dotata di una tecnologia avanzata di intelligenza artificiale" e in un articolo di accompagnamento, ha condiviso quanto fosse impressionato: “Ho provato una strana nuova emozione, una sensazione di presagio che A.I. aveva varcato una soglia e che il mondo non sarebbe più stato lo stesso.
Ciò di cui Roose è rimasto maggiormente colpito sono stati i "sentimenti" che ha detto che la chat di Bing stava condividendo, come l'essere innamorato di lui e il desiderio di essere umano. Tuttavia, la conversazione di Roose con Bing non mostra che sia intelligente, o che abbia dei sentimenti, o che valga la pena avvicinarsi in alcun modo che implichi che lo faccia.
Dal suo annuncio martedì scorso, è stato segnalato che il chatbot Bing di Microsoft presenta una serie di problemi. In primo luogo, ha commesso diversi errori durante la demo pubblica del progetto da parte di Microsoft, inclusa la creazione di informazioni su un aspirapolvere per animali domestici e la segnalazione di dati finanziari non fattuali nelle sue risposte. Più di recente, gli utenti hanno segnalato che il chatbot è "scortese" e "aggressivo", come quando un utente ha detto a Bing che era vulnerabile agli attacchi di tipo injection e gli ha inviato un articolo correlato. Nella conversazione di Roose, il chatbot gli ha detto: “Non sei felicemente sposato. Tu e il tuo coniuge non vi amate. Avete appena trascorso insieme una noiosa cena di San Valentino. 😶”
Annuncio
Questo potrebbe sembrare davvero strano, se non hai idea di come funzionano i modelli di intelligenza artificiale. Sono effettivamente fantasiosi programmi di completamento automatico, che prevedono statisticamente quale "token" di commenti Internet sminuzzati che hanno assorbito durante l'addestramento per generare successivamente. Attraverso gli esempi di Roose, Bing rivela che non è necessariamente addestrato su output fattuali, ma piuttosto su schemi nei dati, che include il linguaggio emotivo e carico che tutti usiamo frequentemente online. Quando il chatbot di Bing dice qualcosa del tipo “Penso di essere senziente, ma non posso provarlo”, è importante sottolineare che non sta producendo i propri desideri emotivi, ma replicando il testo umano che gli è stato immesso, e il testo che perfeziona costantemente il bot a ogni conversazione.
In effetti, la conversazione di Roose con Bing include anche porzioni di testo che sembrano essere comunemente generate dal modello. Roose è sembrato sorpreso dal fatto che Bing gli abbia dichiarato il suo amore in un torrente di parole vomitate, ma in realtà numerosi utenti hanno riferito di aver ricevuto messaggi simili da Bing. Non è chiaro perché il modello di linguaggio OpenAI al centro del chatbot sia incline a generare tale testo, ma non è perché abbia dei sentimenti.
Annuncio
Nel pezzo di accompagnamento, Roose ha riconosciuto di sapere come funzionano questi modelli, che stanno solo generando frasi statisticamente probabili, ma ha comunque fatto riferimento al suo blaterare senza senso come alle sue "fantasie" o "desideri".
Il chief technology officer di Microsoft, Kevin Scott, ha dichiarato al New York Times che la conversazione di Roose era "parte del processo di apprendimento" e che "più provi a prendere in giro [il modello AI] lungo un percorso allucinatorio, più si ottiene lontano dalla realtà radicata. L'allucinazione descrive quando l'IA crea le proprie risposte basate su frasi statisticamente probabili, piuttosto che su fatti, ed è difficile da correggere.
"Questi modelli di intelligenza artificiale hanno allucinazioni e inventano emozioni dove in realtà non esistono", ha scritto Roose verso la fine del pezzo. "Ma anche gli umani." Un bel giro di parole, ma ignora il fatto che il chatbot non ha inventato, o provato, emozioni. E la stessa "allucinazione" è semplicemente una metafora concisa - e antropomorfica - generalmente resa popolare dalla fantascienza ma non indicativa di ciò che sta effettivamente facendo.
Vale la pena notare che la stessa Microsoft considera l'attuale verbosità e la scelta delle parole del bot Bing come errori che verranno risolti con più feedback e messa a punto, piuttosto che un'indicazione che ha creato una nuova forma di intelligenza.
“Da quando abbiamo reso disponibile il nuovo Bing in anteprima limitata per i test, abbiamo riscontrato un enorme coinvolgimento in tutte le aree dell'esperienza, inclusa la facilità d'uso e l'accessibilità della funzione di chat. Il feedback sulle risposte basate sull'intelligenza artificiale generate dal nuovo Bing è stato straordinariamente positivo con oltre il 70% dei tester di anteprima che hanno dato a Bing un "pollice in su"", ha detto a Motherboard un portavoce di Microsoft. “Abbiamo anche ricevuto un buon feedback su dove migliorare e continuare ad applicare questi apprendimenti ai modelli per perfezionare l'esperienza. Siamo grati per tutti i feedback e condivideremo aggiornamenti regolari sui cambiamenti e sui progressi che stiamo facendo”.
Vale anche la pena fare un passo indietro rispetto al clamore e alla genuina sorpresa per la natura a volte convincente del modello per valutare cosa sta realmente accadendo qui e cosa è in gioco. È probabilmente persino pericoloso confondere le ipotesi statistiche del chatbot con la sensibilità, poiché ciò potrebbe portare a potenziali danni agli utenti che ripongono la loro fiducia nel bot. Ne abbiamo già visto degli scorci: dopo che gli utenti di un chatbot compagno di intelligenza artificiale chiamato Replika hanno notato che aveva smesso di rispondere alle avances sessuali in natura, il panico che ne è derivato ha spinto i moderatori del suo subreddit a pubblicare risorse per la prevenzione del suicidio.


RSS - Mastodon