Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

Podcast RSI - Google fonde le uova, MrBeast sotto attacco e altri inciampi dell'intelligenza artificiale

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso www.rsi.ch/ildisinformatico/.

---

[CLIP: spezzone del finto spot di MrBeast]

L’intelligenza artificiale produce risultati notevolissimi nella generazione e nel riconoscimento di immagini, nell’analisi di dati e testi e nell’elaborazione di suoni, come nel caso delle voci sintetiche che sentirete qua e là in questo podcast, ma non sempre le cose vanno così lisce come viene raccontato da tanti annunci commerciali pieni di entusiasmo in questo settore.

La voce che avete appena sentito, per esempio, sembra quella di MrBeast, lo YouTuber più seguito del mondo, ma è in realtà un falso che gli sta causando parecchi guai. Intanto macOS fa pasticci attivando automaticamente una funzione che fa comparire fuochi d’artificio e palloncini festosi anche nel mezzo di riunioni video serissime; gli esperti dimostrano che una delle difese più gettonate contro le immagini false online è sostanzialmente inutile; e l’intelligenza artificiale fa dire a Google che le uova si possono fondere e altre sciocchezze che è meglio conoscere e capire per non farsi ingannare.

Benvenuti alla puntata del 6 ottobre 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e in questo caso agli inciampi che l’intelligenza artificiale subisce quando non viene supervisionata adeguatamente e quando chi la usa ne è così innamorato che non pensa alle sue conseguenze. Io sono Paolo Attivissimo.

[SIGLA di apertura]

macOS e i palloncini a sorpresa

Sono un terapeuta e quindi è poco professionale che mi compaiano all’improvviso dei palloncini mentre il mio cliente sta parlando di un suo trauma”. Scrive così, in un forum di assistenza tecnica di Zoom, una delle vittime dell’ultimo aggiornamento di macOS, denominato Sonoma, che ha introdotto le cosiddette Reazioni automatiche: in pratica, se fate alcuni gesti specifici con le mani davanti alla telecamera di un Mac recente durante una videoconferenza o una videochiamata, quei gesti faranno partire automaticamente delle animazioni sovrapposte alla vostra immagine e inserite anche dietro di voi grazie all’intelligenza artificiale.

I palloncini di cui si lamenta il terapeuta, per esempio, compaiono se si fa il gesto di vittoria o di pace, con l’indice e il medio che formano una V e il palmo rivolto verso l’osservatore.

Tutti i gesti sono elencati in una pagina apposita del sito di Apple, ma il problema è che Apple ha deciso che era una buona idea attivare automaticamente questa nuova funzione a tutti gli utenti, senza avvisarli, per cui molte persone si sono trovate in imbarazzo, durante riunioni, consulti medici o altre videochiamate piuttosto delicate, quando sono comparsi a sorpresa palloncini, coriandoli, fuochi d’artificio, raggi laser, cuoricini e altre frivolezze facilmente fuori luogo, generate dal riconoscimento automatico delle immagini di macOS Sonoma.

Oltretutto questi malcapitati utenti non sono riusciti a capire cosa avesse prodotto questi effetti speciali indesiderati, perché non si sono resi conto che stavano gesticolando e che a un certo punto le loro mani avevano assunto una delle posizioni riconosciute automaticamente da macOS. Anzi, non sapevano nemmeno che Apple avesse attivato questa funzione.

Per evitare gaffe, come quella che è successa a me, fortunatamente in una videoriunione informale, bisogna cliccare in macOS sull’icona verde a forma di telecamera che compare sulla barra menu quando un’applicazione sta appunto usando la telecamera, e poi cliccare sul pulsante verde Reazioni in modo che diventi grigio.

Sembra insomma che Apple si sia innamorata così tanto di questa nuova funzione da dimenticarsi una delle regole principali del software: quando si introduce una novità importante, bisogna avvisare gli utenti e soprattutto renderla opt-in, ossia lasciarla disattivata e proporla agli utenti anziché imporla a sorpresa.

Tom Hanks e MrBeast travolti dai deepfake

MrBeast, lo YouTuber più seguito del pianeta, con 189 milioni di iscritti, è famoso per i suoi video sempre più costosi, spettacolari e assurdi in cui regala auto o altri beni a sorpresa oppure offre premi molto ingenti. Qualcuno ha deciso di approfittare della sua fama creando uno spot pubblicitario su TikTok in cui MrBeast, in voce e in video, diceva di offrire un iPhone 15 Pro a 10.000 spettatori in cambio di due dollari.

[CLIP: falso spot di MrBeast]

Ma si trattava di un deepfake talmente ben fatto che ha superato i controlli di TikTok ed è stato pubblicato, rimanendo online per alcune ore. Il paradosso è che questo deepfake è stato realizzato usando l’intelligenza artificiale per simulare la voce e il volto di MrBeast e anche TikTok usa l’intelligenza artificiale, insieme a dei moderatori umani, per vagliare le pubblicità. In altre parole, l’intelligenza artificiale dell’inserzionista disonesto ha battuto quella di TikTok. Il fatto che MrBeast pubblichi davvero video in cui fa regali costosi ha reso plausibile l’offerta dello spot fraudolento, e i controllori umani non si sono fermati a verificare la cosa più elementare, ossia la fonte dello spot, che non era legata affatto a MrBeast.

Anche il notissimo attore Tom Hanks è stato vittima di un deepfake pubblicitario fraudolento che promuoveva su Internet un’assicurazione dentistica usando la sua voce e il suo volto. Le due celebrità hanno usato i propri canali social per mettere in guardia gli utenti, ma è chiaro, come scrive anche MrBeast, che “questo è un problema serio” e che c’è da chiedersi se le piattaforme social siano “pronte a gestire la crescente diffusione dei deepfake” ingannevoli, adottando controlli più efficaci, o se hanno intenzione invece di continuare a scaricare sugli utenti i danni della loro disinvoltura e tenersi i profitti che ne derivano. Sembra infatti davvero strano che queste aziende così ipertecnologiche non siano capaci di fare una cosa così semplice come verificare le credenziali dei loro inserzionisti.

Visualizza questo post su Instagram

Un post condiviso da Tom Hanks (@tomhanks)

Fonti: TechCrunch, Gizmodo, Ars Technica.

Il watermarking, “filigrana” contro i falsi dell’IA, non funziona

Una delle soluzioni proposte più spesso per arginare il fenomeno delle immagini sintetiche indistinguibili da quelle reali è il cosiddetto watermarking: l’inserimento obbligatorio di indicatori visibili o comunque rilevabili tramite software in tutte le immagini generate dall’intelligenza artificiale.

Molte aziende del settore, come Meta, Amazon, Google e OpenAI, hanno sottoscritto impegni a usare varie tecnologie, incluso in particolare il watermarking, per contrastare la disinformazione. L’idea di fondo è che le immagini sintetiche vengano riconosciute e contrassegnate come false in tempo reale, man mano che vengono generate o pubblicate.

Per esempio, un’immagine sintetica inviata a Instagram per la pubblicazione verrebbe riconosciuta e modificata dal social network per inserirvi un indicatore, una sorta di filigrana digitale che verrebbe rilevata dall’app di Instagram presente sui dispositivi degli utenti. L’app potrebbe così avvisare gli utenti che stanno guardando un’immagine non reale. A fine agosto scorso, Google ha presentato SynthID, un software che promette di fare proprio questo lavoro di identificazione e marcatura.

Ma gli esperti hanno già trovato il modo di rimuovere facilmente questi indicatori, usando paradossalmente proprio l’intelligenza artificiale. Una delle loro tecniche consiste nell’aggiungere all’immagine del cosiddetto rumore digitale casuale per distruggere il watermark e poi nel ricostruire l’immagine usando metodi ben noti nel settore per eliminare il rumore aggiunto in precedenza. Nei loro test sono riusciti a rimuovere con successo uno dei watermark più robusti, RivaGAN, in oltre il 90% delle immagini.

Un altro metodo ancora più insidioso è lo spoofing, in cui un aggressore inietta in un’immagine reale un indicatore che la contrassegna come sintetica, creando confusione e danno reputazionale a chi ha realizzato o diffuso l’immagine: in pratica, fa credere al pubblico che un’immagine vera sia in realtà falsa e che chi l’ha pubblicata sia un bugiardo.

La conclusione degli addetti ai lavori, insomma, è che nonostante le promesse dei grandi nomi commerciali di Internet il watermarking è inaffidabile e rischia di creare più confusione che benefici, rendendo inutile anche questo tentativo di meccanizzare la fiducia, che sembra essere un tema ricorrente di questo periodo in informatica. Forse la fiducia va conquistata usando approcci meno automatizzati ma più collaudati e comprensibili anche per i non tecnici, come la provenienza di un’immagine, ossia la reputazione e l’attendibilità di chi l’ha prodotta e di chi l’ha diffusa e pubblicata.

Fonte aggiuntiva: Ars Technica.

Secondo Google le uova si possono fondere: l’ha detto Quora, che l’ha letto su ChatGPT

Già da qualche tempo gli esperti avvisano di non usare ChatGPT, Bing Chat e altre intelligenze artificiali testuali come strumenti per la ricerca di informazioni, perché tendono a generare risposte fantasiose e inaffidabili a causa di un problema noto come allucinazione o confabulazione. Per cercare informazioni attendibili, dicono, bisogna usare i motori di ricerca. Ma c’è un problema: i motori di ricerca stanno cominciando a integrare nei loro risultati anche le pseudoinformazioni generate dalle intelligenze artificiali e stanno quindi perdendo la propria affidabilità.

Uno degli esempi più chiari e comici di questa tendenza è arrivato pochi giorni fa, quando un utente che si fa chiamare Tyler Glaiel ha notato che la risposta breve o snippet in primo piano di Google alla domanda “è possibile fondere le uova” era “Sì, si può far fondere un uovo. Il modo più comune è riscaldarlo usando un fornello o un forno a microonde.”

Giusto per chiarezza e per evitare equivoci, no, le uova non si possono fondere, come si fonde il cioccolato, il metallo o il ghiaccio applicando calore. Se si applica del calore a un uovo, la sua struttura chimica cambia. Se il calore è sufficientemente intenso, l’uovo si cuoce, non si fonde.

La risposta di Google è quindi sbagliata, e Google l’ha presa da Quora, un sito molto popolare nel quale gli utenti pubblicano domande e risposte su qualunque argomento. L’ha presa da lì perché Quora fa in modo di comparire in cima ai risultati di Google (cioè fa la cosiddetta search engine optimization o SEO). Ma la risposta di Quora è clamorosamente sbagliata, perché da qualche tempo Quora integra nelle risposte fornite dagli utenti anche quelle generate dall’intelligenza artificiale, e la frase sulla possibilità di fondere un uovo è stata generata usando ChatGPT, secondo quello che dichiara Quora.

Ma in realtà Quora non usa la versione più recente di ChatGPT; ne usa una versione vecchia che notoriamente produce risultati molto inaffidabili ed è addirittura sconsigliata dal produttore, OpenAI.

In altre parole, la risposta sbagliata di Google non è di Google, ma è di Quora, che a sua volta l’ha presa da ChatGPT.

L’errore ora è stato corretto, ma il metodo usato da Quora e da Google per fornire risposte alle ricerche degli utenti è pericolosamente inattendibile. Cosa anche peggiore, molte risposte generate da intelligenze artificiali vengono lette e assorbite da Google, creando un circolo vizioso che peggiora l’attendibilità del motore di ricerca.

A volte, fra l’altro, questo circolo vizioso è del tutto involontario: per esempio, il testo di questo podcast e tutti gli articoli che parlano di questa vicenda delle uova che si fondono contengono ovviamente la risposta sbagliata alla domanda “è possibile fondere le uova?”, perché la citano per raccontarla e smentirla, ma questi testi verranno letti da Google e dalle intelligenze artificiali, che quindi rileveranno che molti siti contengono la frase “si può far fondere un uovo”, senza capire che viene citata per avvisare che è sbagliata, e pertanto la considereranno attendibile e significativa e la presenteranno come risposta a chi cerca informazioni sull’argomento, amplificandola ulteriormente.

Ed è così che nonostante le migliori intenzioni una bugia diventa una verità apparentemente certificata, per mancanza di supervisione da parte di un’intelligenza reale.

Fonte aggiuntiva: Ars Technica.

----

Morale della storia, anzi delle storie che avete appena ascoltato: l’intelligenza artificiale è un ottimo strumento, ma ha bisogno di essere affiancata dall’intelligenza umana, che la deve sorvegliare per farla lavorare bene e salvarla quando inciampa o raggiunge i propri limiti. Ma questo affiancamento umano costa, e troppo spesso l’adozione dell’intelligenza artificiale viene vista invece come un’occasione per tagliare le spese, infischiandosene delle conseguenze, invece di offrire un servizio migliore. E i risultati, purtroppo, si vedono.



This post first appeared on Viaggrego - Rassegne Stampa, please read the originial post: here

Share the post

Podcast RSI - Google fonde le uova, MrBeast sotto attacco e altri inciampi dell'intelligenza artificiale

×

Subscribe to Viaggrego - Rassegne Stampa

Get updates delivered right to your inbox!

Thank you for your subscription

×