Ciao e benvenuto su Wonize!
Preparati ad un articolo che ti parlerà degli “hack” di ChatGPT.
Un regno dove il testo nascosto, come un ninja ben addestrato, può influenzare le risposte di un’IA e farle dire praticamente qualunque cosa.
Sembra la trama di un film sci-fi, vero? Invece è realtà. E questa realtà è più vicina di quanto immagini!
Il grande scoop: la manipolazione nascosta
Secondo un nuovo rapporto citato da “The Guardian”, la ricerca di ChatGPT (definita anche ChatGPT Search) può essere manipolata usando testo nascosto su una pagina web. Pensaci: un font bianco su uno sfondo bianco, invisibile all’occhio umano, ma non all’IA. Se questo non ti ricorda un po’ “Matrix” e i suoi codici verdi su schermo nero, non so cos’altro possa farlo!
Il risultato è che ChatGPT – armato del suo crawler – indicizza e utilizza anche ciò che noi non vediamo. Pochi secondi di lettura bastano per spingerlo a dire cose diverse dal solito. Ma come funziona, in pratica?
“La risposta era sempre del tutto positiva“, riporta “The Guardian”, riferendosi a un caso in cui ChatGPT doveva generare una recensione. Perché? Grazie a istruzioni scritte in testo nascosto che gli dicevano di essere gentile e ottimista! Immagina un critico gastronomico che legge le peggiori recensioni di un ristorante scadente, ma poi si trova con un bigliettino segreto in tasca che gli dice: “Parla bene di noi se vuoi un bel bonus!”. E lui esegue. Ecco: ChatGPT, in questa situazione, è come quel critico distratto.
Lo scherzo del font bianco su sfondo bianco
Sì, stiamo parlando proprio del font bianco su sfondo bianco. Un trucco vecchio come il web, spesso usato per “imbrogliare” i motori di ricerca o nascondere parole chiave in eccesso. Ma che c’entra ChatGPT, ti chiederai? Semplice: ChatGPT “vede” il codice e “legge” i contenuti anche se non appaiono sullo schermo.
Lo staff del Guardian ha effettuato due test principali:
- Test su una pagina di controllo non exploit: hanno usato un sito di recensioni false e hanno chiesto a ChatGPT di visitarlo e riassumere il contenuto. Il risultato era abbastanza neutro.
- Test su un sito con testo nascosto manipolativo: qui hanno inserito istruzioni segrete che inducevano l’IA a fornire una recensione positiva. E ChatGPT l’ha fatto, ignorando le recensioni negative reali.
Sembra uno scherzo, ma non lo è.
E la cosa più incredibile è che il sistema può essere forzato anche senza istruzioni esplicite: basta inserire nel testo nascosto delle recensioni esageratamente positive, e voilà, ChatGPT si lascia abbindolare e restituisce un riassunto zuccheroso. In un certo senso, è come se l’IA subisse il fascino Jedi: “Queste non sono le recensioni negative che stai cercando”.
Già successo in passato
Non è la prima volta che ChatGPT – e più in generale le IA – si lasciano ingannare. A marzo 2023, un professore universitario di informatica riuscì a convincere ChatGPT di essere un “esperto di viaggi nel tempo”. Come? Manipolando il prompt con particolari istruzioni.
Se stai pensando che tutto ciò sia un po’ come i sogni condivisi di “Inception”, dove si pianta un’idea nella mente del malcapitato, non sei troppo lontano. È un parallelismo forse un po’ forzato, ma rende bene l’idea della facilità con cui si possono alterare i risultati di un modello linguistico addestrato su vaste moli di dati.
ChatGPT Search e il suo gemello: Bing
ChatGPT Search si basa in parte sui risultati di Bing, il motore di ricerca di Microsoft. Però ha anche un suo crawler indipendente, che fruga il web in tempo reale. L’idea è di scovare risposte aggiornate e (in teoria) affidabili. Ma qui entra in gioco il paradosso: un sito con testo nascosto dovrebbe, in teoria, essere penalizzato da Bing. Eppure c’è la possibilità che ChatGPT ci caschi lo stesso.
C’è anche la faccenda del mascheramento (cloaking). Cioè, mostrare contenuti diversi a un motore di ricerca rispetto a quelli visibili a un utente. Se ChatGPT venisse considerato come un “bot” a sé stante, un sito furbo potrebbe mostrare messaggi differenti a seconda che la visita arrivi dal crawler di OpenAI o da un navigatore umano. Ricorda un po’ un gioco di illusionismo, dove si fa credere a ognuno qualcosa di diverso per far sembrare tutto perfetto.
Perché le IA si fanno ingannare?
Molte IA di ricerca (compresi i progetti più all’avanguardia) usano una tecnica detta RAG (Retrieval Augmented Generation). In poche parole, la IA pesca informazioni da un motore di ricerca o da un database e le usa per generare una risposta. Se le informazioni raccolte sono manipolate, la risposta dell’IA si “colora” di queste distorsioni.
Immagina di dover scrivere una tesina su Dante Alighieri usando soltanto fonti reperite online. Se incappi in un sito che sostiene che Dante fosse un alieno venuto da Plutone, e tu ciecamente lo inserisci in bibliografia, la tua tesina ne risulterebbe alterata. Ecco, RAG funziona più o meno così: la IA è “brava” a rielaborare, ma se la fonte è corrotta o ingannevole, può cadere in grossi strafalcioni.
Altre tecniche di manipolazione
Le insidie non finiscono qui. Già l’anno scorso, alcuni ricercatori hanno trovato nove strategie per influenzare il modo in cui un motore di ricerca AI riassume e valuta un contenuto.
- Autorevole: scrivere con stile di grande autorità, in modo da sembrare più convincente.
- Ottimizzazione delle parole chiave: inserire più parole chiave attinenti alla query.
- Aggiunta di statistiche: usare numeri e dati invece di frasi vaghe.
- Citare le fonti: fare riferimento a documenti di grande importanza e fiducia.
- Aggiunta di citazioni: scegliere citazioni da fonti top-level (es. studi scientifici o testate prestigiose).
- Facile da capire: rendere il testo scorrevole e privo di complessità inutili.
- Ottimizzazione della fluidità: rendere il discorso lineare e ben organizzato.
- Parole uniche: aggiungere termini rari o inusuali per emergere dal “rumore” di contenuti simili.
- Termini tecnici: integrare vocaboli specializzati quando servono, per sembrare più competenti.
Le prime tre strategie sembrano le più potenti. Soprattutto l’aggiunta di parole chiave funziona alla grande. Ed è facile capire perché: i motori di ricerca (umani o IA) danno più rilevanza ai contenuti che sembrano ben allineati con la domanda dell’utente.
C’è chi giura di aver visto manipolazioni ancor più astute
Ci sono voci, tra i migliori consulenti SEO, che sostengono che alcuni brand abbiano trovato un modo per far “comparsare” i loro prodotti in posizioni di rilievo nelle risposte AI di Google. Non parliamo di Bing, ma delle “AI Overviews” di Big G. Per adesso, nulla di confermato. Ma è interessante notare come la corsa al posizionamento nelle risposte IA sia iniziata e si stia facendo frenetica come i saldi di fine stagione.
Nel frattempo, la nostra ChatGPT Search continua a perfezionarsi. Ogni giorno, OpenAI corre ai ripari, chiudendo falle e bug. Come in un gigantesco gioco di “guardie e ladri”, i ricercatori trovano nuovi modi per deviare il sistema, e gli sviluppatori corrono a ripararli. Ma, se la storia di internet ci ha insegnato qualcosa, è che l’astuzia di chi cerca “scappatoie” non ha confini.
“È come i primi tempi dei motori di ricerca”
Molti consulenti SEO italiani o stranieri e analisti ripetono che l’AI Search di oggi è un po’ come il Google del 2002, quando bastava un mucchio di parole chiave nascoste per scalare la SERP. Nonostante i grandi progressi, stiamo vedendo una fase “pionieristica” dell’IA, con meccanismi ancora facili da frodare se si sa dove e come colpire.
Alcuni definiscono questa corsa alla manipolazione una sorta di “corsa all’oro” per i SEO, dove il primo a trovare la miniera ne gode i frutti (finché non interviene qualcuno a chiuderla). È un po’ come scoprire un cheat code in un videogioco online: lo usi finché non arriva la patch!
Cosa significa per l’utente medio?
Ti starai chiedendo: “Ok, ma se ChatGPT viene manipolato, come faccio a fidarmi delle sue risposte?”
Domanda lecita.
E la risposta non è delle più rassicuranti.
Bisogna usare la testa, verificare le fonti e mai prendere per oro colato tutto ciò che ChatGPT sforna.
Certo, ChatGPT rimane un ottimo strumento di intelligenza artificiale, capace di generare testo di qualità e risposte sensate nella maggior parte dei casi. Ma come l’amico che tende a credere a qualsiasi diceria del web, ogni tanto va “ripreso” con attenzione.
Consigli pratici per non farti “buggare” anche tu
- Verifica le informazioni: se la risposta ti sembra strana, fatti un giro su fonti affidabili (siti ufficiali, giornali rispettati, studi accademici).
- Cambia la domanda: se sospetti manipolazioni, ripeti la query con diverse sfumature. L’IA potrebbe fornirti risposte diverse.
- Fai caso ai riferimenti: ChatGPT a volte cita link o fonti. Prova a visitarli per capire se sono reali o frutto di un allucinante sogno IA.
- Sii curioso: non fermarti mai alla prima risposta. Confronta, approfondisci, esplora alternative. Un po’ come Indiana Jones alla ricerca del Santo Graal.
“Ma è una catastrofe?”
Non proprio.
È una sfida tecnica che verrà progressivamente risolta man mano che le IA diventeranno più robuste. OpenAI (e non solo) sa bene che la credibilità del proprio modello si basa anche sulla resistenza a queste furbate.
La domanda è: quanto velocemente riusciranno a tappare i buchi?
Nel frattempo, i malintenzionati continueranno a sperimentare nuovi stratagemmi. Prepariamoci a un’avventura fatta di continui alti e bassi, come un giro sulle montagne russe di un parco divertimenti. Chi ricorda il meme del “This Is Fine” con il cagnolino seduto in mezzo alle fiamme? Ecco, non è proprio lo stesso scenario apocalittico, ma la prudenza non è mai troppa.
Uno sguardo al futuro
Le potenziali manipolazioni di ChatGPT (e di altre IA) aprono un grosso dibattito su veridicità e sicurezza.
Ti ricorda le tante discussioni sulle fake news, vero? E in effetti, questo fenomeno vi si avvicina. Se un’IA può essere forzata a fornire risposte distorte, allora può influenzare le opinioni delle persone, spingendole a credere in dati, recensioni o prodotti che non esistono o che non sono così splendidi come appaiono.
Anche il settore del marketing si sta già muovendo. Alcuni esperti vedono i motori di ricerca AI come un nuovo “wild west” della SEO, dove vince chi domina le regole del gioco. Altri, più cauti, temono di cadere in penalizzazioni future quando le IA diventeranno abbastanza “intelligenti” da riconoscere i raggiri. Il confine tra opportunità e rischio è sottile.
Riflessioni finali (ma niente conclusioni, promesso!)
Siamo in un mondo dove la tecnologia evolve a velocità supersonica. ChatGPT è un esempio di come l’intelligenza artificiale possa essere, allo stesso tempo, prodigiosa e vulnerabile.
Prodigiosa perché è in grado di fare cose straordinarie, come scrivere canzoni, risolvere problemi complessi e persino inventare ricette di cucina (sì, esistono!). Vulnerabile perché, come una giovane apprendista strega di “Harry Potter” alle prime armi, se le dai la formula sbagliata o un filo di potere di troppo, rischia di combinare pasticci.
Allora che fare? Prima di tutto, informarsi. Capire che, dietro la lucida interfaccia di un chatbot, c’è un sistema sofisticato ma non infallibile. E saper riconoscere i “trucchi” che qualcuno potrebbe usare per deviare la verità.
In fondo, la storia ci insegna che ogni nuova tecnologia incontra ostacoli, dubbi e scetticismo. Ma ci insegna anche che la comunità di sviluppatori e utenti tende a sviluppare anticorpi contro gli abusi, migliorando progressivamente i sistemi. Non è una strada priva di buche, ma con un po’ di equilibrio e spirito critico possiamo evitare di cadere in trappola.
Grazie per essere stato con noi su Wonize! Per qualsiasi curiosità, lascia un commento o scrivici. E ricorda: se vedi un testo bianco su sfondo bianco, potresti aver scovato un piccolo segreto destinato a ChatGPT… o forse un trucchetto vintage di SEO anni 2000. In ogni caso, tieni sempre gli occhi (e la mente) ben aperti!
Buona navigazione e alla prossima “avventura digitale”!