Fiducia cieca, modalità automatica
Qualche settimana fa smanettavo un po’ sul web e mi sono imbattuta in una notizia che mi ha fatto riflettere e sorridere allo stesso tempo, perché racconta perfettamente quanto possiamo essere impressionabili e, soprattutto, quanto ci fidiamo della tecnologia. Che delirio davvero.
Vi racconto in breve ciò che ho letto: una nuova patologia ma non una roba complicata tipo virus alieno di Independence Day, niente invasioni o esplosioni e neppure sintomi gravi. Semplicemente il mio lunedì mattina, ovvero stanchezza, occhiaie ed occhi rossi. Vi prego non immaginatemi così però.
Si chiama BIXONIMANIA. Una nuova patologia di cui sono affetti credo tutti i miei colleghi, e non, che lavorano ad un pc più del minimo sindacale. Poveri noi.
Questo nome, se ci rifletti, suona così medico, serio e soprattutto quasi credibile, di quelle parole che un dottore pronuncia mentre tu annuisci convinto, anche se in realtà stai solo contando gli attestati di laurea appesi al muro, sperando di uscirne vivo ed il prima possibile.
Peccato che sia completamente inventata. Zero, nada. Livello di credibilità: Babbo Natale… ma con più bibliografia.
L’esperimento (geniale) che nessuno ha capito
Facciamo il punto. Una ricercatrice dell’Università di Göteborg, Almira Osmanovic Thunström (il mio mito al momento, sappiatelo), insieme ad alcuni colleghi decide di fare un esperimento sociale. Forse per noia, per genio o per testare semplicemente i limiti dell’AI, e invece di uscire a prendere un caffè, come farebbe chiunque di noi, carica due pdf falsi su un server accademico, firmandoli con un nome inventato, appartenente a un ricercatore inesistente, di un’università immaginaria, in una città che “l’isola che non c’è” di Peter Pan, scansati.
E dentro questi pdf? La genialità assoluta. Non dettagli nascosti o chissà quali inganni da colpo di stato, ma al contrario indizi enormi, direi quasi imbarazzanti ovvero: “questo studio è inventato”, “l’abbiamo testato su cinquanta individui immaginari”.
Da non crederci, letteralmente scritto nero su bianco. Più evidente di così si muore, in pratica un cartello pubblicitario con scritto “TI STIAMO PRENDENDO IN GIRO, CI CASCHERAI?”.
Eh si! Te l’ho dico, ci siamo cascati.
Quando sbagliano tutti
Così in men che non si dica la Bixonimania diventa la patologia del secolo. Ti chiederai perché? Semplice! Cerchi online, su motori di ricerca o su qualsiasi AI: “occhi rossi, occhiaie e stanchezza” e la diagnosi è pronta.
Se fosse vera, ne sarei affetta anch’io. E poi arriva il colpo di scena, quello che ti fa alzare l’asticella e dici “ok, qui siamo oltre”. Succede che un articolo scientifico vero, peer-reviewed, pubblicato su una rivista seria, cita uno di quei pdf falsi come fonte attendibile. Che dire, semplicemente: GAME OVER.
Non è più una bufala, ora è realtà.
Il problema vero (non è quello che pensi)
A questo punto la reazione di chiunque di noi sarebbe: “Ecco qui, vedi che l’AI è pericolosa, bisogna fare attenzione”. Sì, certo. Come dire che il Titanic è affondato… perché, sai, era in mezzo al mare. Il punto è molto più scomodo purtroppo, perché mette in discussione tutto.
La verità oggi non vince più perché è vera, vince solo perché arriva prima, perché riesce a infilarsi nel posto giusto al momento giusto e piantare il primo seme e germogliare nel più breve tempo possibile. E quel posto non è più la tua mente ma i dataset. Quindi ti do il benvenuto nel mondo in cui la realtà non si scopre, semplicemente si addestra.
La realtà è marketing più di quello che credi
Ai tempi di Super Quark e Piero Angela, il mio programma preferito da ragazzina, c’erano le fonti autorevoli, il metodo scientifico, il tempo per verificare. Parliamo di un sistema lento, imperfetto, ma con una sua logica. Oggi invece, se riesci a entrare nel flusso giusto con il tono giusto, hai già deciso cosa verrà considerato vero. È la nuova strategia di marketing, pura e semplice.
Solo che invece di convincere persone, si convincono algoritmi, che poi parleranno con miliardi di persone al posto tuo. La bixonimania è stata esattamente questo: la Coca-Cola delle malattie inesistenti, un prodotto perfetto non perché esista, ma perché è stato distribuito solo nel modo giusto.
Il trucco che funziona sempre
Fermiamoci un attimo a riflettere. Ricevi una notizia, o scopri qualcosa che non conoscevi, come fai a verificare se quella notizia/fonte è attendibile o vera? Cerchi online, è il primo gesto che facciamo tutti, ma se è stata alterata dall’incipit… che risultati possiamo mai avere?
È lo stesso meccanismo di The Matrix: se il sistema appare coerente e veritiero, smetti di chiederti se è reale. Ora facciamo un passo in più e immaginiamo questo meccanismo non usato per gioco, noia o esperimento sociale ma per interesse: una casa farmaceutica che vuole creare un bisogno, un fondo che vuole influenzare un mercato, un governo che vuole orientare una narrativa. Non serve più controllare media o opinione pubblica. Basta entrare in un dataset. Due PDF. Tre settimane. Fine.
Chi arriva primo vince tutto
Prima dell’AI, per una cosa del genere, servivano anni, budget enormi e strutture di potere. Oggi parliamo solo di un side project ben fatto. E mentre stai leggendo questa mia riflessione con aria spero interessata, qualcuno magari sta già facendo la stessa cosa nel tuo settore lavorativo, forse inventando termini e decidendo oggi come si chiamerà il problema che i tuoi clienti cercheranno online domani.
E quando ti chiameranno … sarà tardi. Perché la realtà, nel frattempo, è già stata scritta da qualcuno che magari non esiste nemmeno, proprio come il ricercatore fantasma da cui è partito tutto. Il paradosso è semplice, l’AI ci crede e noi crediamo a lei. E più diventa sofisticata, più smettiamo di verificare o ancor peggio smettiamo di avere dubbi. Non è una ribellione delle macchine, non è mica Terminator. È molto più silenzioso ed efficace, è semplicemente una riscrittura della realtà a colpi di PDF.
La vera domanda che dovremmo farci
La domanda che mi faccio e che dovresti farti, a questo punto, non è più “cosa è reale?”, ma chi ha scritto per primo ciò che stiamo leggendo come reale. Perché se basta così poco per creare una verità condivisa, allora il problema non è l’AI, non sono i chatbot e non sono nemmeno i dati. Il problema vero è quanto siamo disposti a delegare il nostro dubbio.
E quindi ti dico la prossima volta che qualcosa suona troppo credibile, troppo ordinata o troppo “giusta”, non dobbiamo chiederci se sarà vero ma: “Chi ci guadagna se ci credo?”
Professionista in Marketing & Communication con esperienza nel settore ICT e soluzioni tech per l’hospitality. Attualmente in MEGINET, coordino attività di comunicazione strategica, gestione progetti e iniziative formative su cybersecurity per il turismo alberghiero.
Aree di competenza: Marketing & Communication, Cyber Security, Graphic Design, Web Design