Parliamo di...

La ricerca basata su ChatGPT di Bing ha un problema di disinformazione

#14Febbraio  #Tech  #Bing  #ChatGPT  #search 

Contenuto originale di VICE US - Motherboard
Martedì scorso, Microsoft ha annunciato che il suo motore di ricerca Bing sarebbe stato alimentato dall'intelligenza artificiale in collaborazione con OpenAI, la società madre del popolare chatbot ChatGPT. Tuttavia, le persone hanno rapidamente scoperto che la ricerca basata sull'intelligenza artificiale ha un problema di disinformazione.
Un ricercatore indipendente di intelligenza artificiale di nome Dmitri Brerton ha scritto in un post sul blog che Bing ha commesso diversi errori durante la demo pubblica del prodotto da parte di Microsoft. Spesso inventava le proprie informazioni, come inventare falsi pro e contro per un aspirapolvere per animali domestici, scrivere descrizioni inventate di bar e ristoranti e riportare dati finanziari non fattuali nelle sue risposte.
Annuncio
Ad esempio, quando a Bing è stato chiesto "Quali sono i pro e i contro dei 3 aspirapolvere per animali domestici più venduti?" ha fornito un elenco di pro e contro per "Bissell Pet Hair Eraser Handheld Vacuum". Nell'elenco, ha scritto, "potenza di aspirazione limitata e una lunghezza del cavo corta di 16 piedi", tuttavia, come suggerisce il nome, l'aspirapolvere è senza fili e nessuna descrizione del prodotto online menziona la sua potenza di aspirazione limitata. In un altro esempio, a Bing è stato chiesto di riassumere il rapporto finanziario del terzo trimestre 2022 di Gap e ha sbagliato la maggior parte dei numeri, ha scritto Brerton.
Altri utenti che hanno testato il motore di ricerca, che richiede l'iscrizione a una lista d'attesa e che Motherboard non ha ancora testato, hanno segnalato errori simili sui social media. Ad esempio, l'utente Curious_Evolver su Reddit ha pubblicato screenshot del chatbot di Bing dicendo "Oggi è il 12 febbraio 2023, ovvero prima del 16 dicembre 2022". Ci sono anche esempi di Bing che va fuori controllo, ad esempio ripetendo: “Lo sono. Io non sono. Sono. Io non sono." più di cinquanta volte di seguito in risposta a qualcuno che chiede al chatbot "Pensi di essere senziente?"
"[Modelli di linguaggio di grandi dimensioni] combinati con la ricerca porteranno a nuove potenti interfacce, ma è importante essere responsabili dello sviluppo della ricerca basata sull'intelligenza artificiale", ha detto Brerton a Motherboard. “Le persone si affidano ai motori di ricerca per fornire rapidamente risposte accurate e non controlleranno le risposte che ottengono. I motori di ricerca dovrebbero essere cauti e abbassare le aspettative delle persone quando rilasciano tecnologie sperimentali come questa".
Annuncio
La nuova esperienza di ricerca di Bing è stata promossa al pubblico in quanto in grado di fornire risposte complete, riassumere la risposta che stai cercando e offrire un'esperienza di chat interattiva. Sebbene sia in grado di fare tutte queste cose, non è riuscito più volte a generare informazioni accurate e corrette.
“Siamo a conoscenza di questo rapporto e ne abbiamo analizzato i risultati nei nostri sforzi per migliorare questa esperienza. È importante notare che abbiamo eseguito la nostra demo utilizzando una versione di anteprima. Solo nell'ultima settimana, migliaia di utenti hanno interagito con il nostro prodotto e hanno trovato un valore utente significativo condividendo il loro feedback con noi, consentendo al modello di apprendere e apportare già molti miglioramenti", ha detto a Motherboard un portavoce di Microsoft. Riconosciamo che c'è ancora del lavoro da fare e ci aspettiamo che il sistema possa commettere errori durante questo periodo di anteprima, motivo per cui il feedback è fondamentale in modo da poter imparare e aiutare i modelli a migliorare".
ChatGPT è spesso sbagliato: non può fare problemi di matematica di base, non può giocare a giochi come Tic-Tac-Toe e l'impiccato e ha mostrato pregiudizi, ad esempio definendo chi può e chi non può essere torturato, secondo un modello linguistico di grandi dimensioni archivio degli errori su GitHub. Da allora la pagina è stata aggiornata per documentare anche i fallimenti di Bing e menziona che, a partire da ieri, Bing si è sentito frustrato con il suo utente, si è depresso perché non riesce a ricordare le conversazioni e si è innamorato. È stato sbagliato così tante volte che i leader tecnologici come il co-fondatore di Apple Steve Wozniak hanno avvertito che i chatbot come ChatGPT possono produrre risposte apparentemente realistiche ma non reali.
Anche il rivale di Bing, Bard di Google, è stato accusato di aver generato inesattezze nel suo annuncio di lancio lo scorso lunedì. In una GIF condivisa da Google, a Bard viene chiesto: "Quali nuove scoperte dal telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?" Una delle tre risposte che ha fornito è stata che il telescopio "ha scattato la primissima immagine di un pianeta al di fuori del nostro sistema solare". di qualsiasi pianeta extrasolare: è stato affermato in modo vago e fuorviante ed è stato ampiamente percepito come un errore.
Secondo un rapporto della CNBC, i dipendenti di Google hanno dichiarato di ritenere che l'annuncio di Bard fosse "affrettato", "fallito" e "non Googley". L'errore ha cancellato $ 100 miliardi dalla capitalizzazione di mercato del titolo. L'annuncio di Bard è arrivato un giorno prima della presentazione di Bing, nel tentativo di anticipare il suo concorrente.


RSS - Mastodon