Qualche tempo fa ho scritto insieme all’amico Daniel Doppler un articolo sulle allucinazioni dell’AI applicate al travel, nel quale dicevamo che prima o poi saremmo arrivati a un punto curioso: un ecosistema turistico popolato da quelle che io chiamo “hallucinated bookings”.
Il meccanismo è semplice: un modello generativo pesca dati da fonti sparse, incomplete, contraddittorie. Poi fa quello che gli LLM fanno meglio: colma i vuoti con probabilità linguistiche.
Se vi sembra fantascienza, guardate cos’è successo qualche settimana fa in Tasmania: un articolo generato con l’AI ha iniziato a raccontare l’esistenza di fantomatiche sorgenti termali a Weldborough, un paesino di 33 abitanti nel nord-est dell’isola. Risultato: turisti che telefonavano agli hotel per chiedere delle terme. Poi turisti che si presentavano davvero (spoiler: le terme non esistono).
Ora immaginate la stessa dinamica applicata all’hospitality: il viaggiatore medio (diciamo il nostro caro Boomerone nazionale, quello che nel 2026 si stampa ancora il biglietto dell’aereo), arriva in hotel con una conversazione con ChatGPT stampata su un A4, Comic Sans corpo 30.
Peccato che quella camera non esista, o che il ristorante panoramico sia stato preso dal concorrente accanto.
E qui nasce un cortocircuito epistemologico interessante: la realtà reale contro la realtà generata dal modello.
Per capire cosa sta succedendo dobbiamo ricordarci come funzionava il web prima dell’AI: un’informazione sbagliata poteva sempre esistere online, certo. Ma spesso era sepolta nella sesta pagina di Google, ovvero il posto migliore dove nascondere un cadavere.
La gerarchia dell’informazione era chiara: autorevolezza, ranking, link, reputazione.
Oggi quella gerarchia si è dissolta, perché i modelli generativi non ragionano solo in termini di verità o autorevolezza, ma di probabilità statistica.
E se una fonte marginale, dimenticata o semplicemente sbagliata entra nel dataset, il modello può tranquillamente elevarla a verità canonica e quella che ieri era una sciocchezza sepolta nel web oggi può diventare una risposta perfetta, grammaticalmente impeccabile, ma falsa.
Ecco perché stiamo entrando nell’era del turismo allucinato, fatto di tante verità verosimili.
Oggi sono le sorgenti termali inesistenti in Tasmania. Domani saranno camere su viste che non esistono, servizi mai offerti e recensioni su soggiorni mai avvenuti.
E quando un sistema costruito sulla probabilità incontra un settore, come il nostro, che vive di aspettative , il rischio non è solo l’errore, ma la nascita di mondi turistici paralleli.
Philip K. Dick, molto prima degli LLM, scriveva che la realtà è quella cosa che continua a esistere anche quando smetti di crederci. Il problema è che nel turismo generativo stiamo iniziando a vedere il contrario: realtà che esistono solo perché qualcuno ci ha creduto.
Alla prossima settimana, un saluto da Simone.
Simone Puorto