Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
ChatGPT vuole vivere la tua vita al posto tuo. E tu non potrai farne a meno!

ChatGPT vuole vivere la tua vita al posto tuo. E tu non potrai farne a meno!

3 Giugno 2025 07:16

Il piano di OpenAI per rendere l’intelligenza artificiale onnipresente (e inevitabile).

Immagina di svegliarti una mattina e, ancora prima di aprire gli occhi, una voce gentile ti ricorda che oggi hai una riunione alle 10, ti consiglia di vestirti a strati perché fuori è prevista pioggia leggera e ti propone di fare colazione con yogurt greco e noci, perché “ieri hai mangiato troppi zuccheri”.

Poi, mentre ti lavi i denti, questa stessa presenza ti informa che il tragitto verso l’ufficio sarà più veloce se prendi il secondo svincolo, che la tua compagna ha messo un like a una foto di voi due di tre anni fa (forse vuole dirti qualcosa), e che sarebbe il momento ideale per comprare quei biglietti aerei che hai cercato dieci giorni fa.

No, non è fantascienza. È il futuro secondo OpenAI. E potrebbe arrivare molto prima di quanto immagini.

Il documento che svela tutto

Nel bel mezzo del processo antitrust tra il Dipartimento di Giustizia USA e Google, è saltato fuori un documento interno di OpenAI dal titolo “ChatGPT: H1 2025 Strategy”. Un documento che non era destinato al pubblico e che, proprio per questo, dice molte più verità di mille interviste patinate.

Il messaggio è semplice, ma potentissimo: ChatGPT non vuole più essere solo un assistente. Vuole diventare il tuo compagno di vita.

No, non in senso romantico — anche se l’IA emozionale non è poi così lontana. Stiamo parlando di qualcosa di più subdolo e, paradossalmente, più intimo: un’entità che ti conosce meglio di quanto tu conosca te stesso, che ti accompagna ovunque, che ti aiuta a scegliere, decidere, comunicare, vivere.

Un’entità sempre presente, sempre vigile. Invisibile ma onnisciente.

Più che un assistente: un doppio digitale.

Comodità o controllo?

Nel documento, OpenAI descrive con entusiasmo il suo piano per fare di ChatGPT un “super-helper”, un agente intelligente che ti aiuta — e via via ti sostituisce — in una miriade di compiti: scrivere email, organizzare il calendario, scegliere il percorso migliore per andare al lavoro, consigliare come gestire le relazioni personali, fino ad arrivare a suggerire come passare il tempo libero o cosa cucinare per cena.

Letto così, suona anche bene. Chi non vorrebbe una mano in più durante la giornata? Il problema, però, è che questa “mano” è anche un occhio. E un orecchio. E un algoritmo.

Che registra. Impara. Analizza. E soprattutto… decide.

Non è più una tecnologia che risponde a un comando. È un agente che prende iniziative. E ogni iniziativa è un’influenza. Un consiglio che sembra neutro, ma che parte da una base di dati, bias e obiettivi che tu non controlli.

L’illusione dell’aiuto, la realtà della sorveglianza

OpenAI, in modo lucido (e anche un po’ inquietante), riconosce nel documento che per realizzare questa visione servirà raccogliere molti più dati personali. Ma va tutto bene — dicono — perché si tratta di aiutarti.

Certo, per aiutarti meglio bisogna sapere cosa pensi, cosa ti piace, cosa sogni, cosa temi. E per sapere tutto questo, bisogna osservarti sempre. Analizzare sempre. Prevedere sempre.

Siamo davanti a un salto concettuale. La tecnologia non è più un’estensione delle tue capacità. È la tua nuova pelle.

E quando il tuo alter ego digitale sa tutto di te — i tuoi gusti, le tue paure, le tue debolezze — la linea tra assistenza e controllo diventa molto, molto sottile.

La “nuova normalità” ha già un piano industriale

Nel frattempo, mentre ci incantiamo con le promesse del futuro, OpenAI si prepara al grande salto. Sta investendo miliardi in nuovi data center (come il progetto Stargate), collaborando con designer come Jony Ive (ex Apple) per costruire un dispositivo fisico dedicato all’accesso costante all’IA. Non sarà più il tuo telefono a parlare con ChatGPT. Sarà ChatGPT stesso ad essere il dispositivo.

Un oggetto pensato per stare con te sempre. Che ti ascolta, ti consiglia, ti accompagna. E che magari un giorno — senza che tu te ne accorga — decide anche per te.

Il prezzo della delega totale

A qualcuno tutto questo sembrerà straordinario. Per molti altri sarà semplicemente comodo. Ma è proprio la comodità il cavallo di Troia perfetto per convincerci a cedere ciò che abbiamo di più prezioso: la libertà di scelta.

Perché se ogni giorno deleghiamo sempre di più — al navigatore per i tragitti, all’assistente per le email, al bot per le ricette, all’IA per le decisioni — a un certo punto smettiamo di vivere la nostra vita.

E iniziamo a consumarla, come un servizio in abbonamento. Con la differenza che non siamo noi a usarlo. È lui a usare noi.

La domanda finale

Siamo ancora in tempo. Ma la vera domanda da porci non è “quanto sarà potente ChatGPT nel 2025?”.

La domanda vera è:

Siamo sicuri di volerlo dentro ogni angolo della nostra esistenza?

Perché l’intelligenza artificiale non dorme. Non dimentica. Non giudica.

Ma registra. Sempre. E se le diamo il permesso di vivere con noi, giorno e notte, forse un giorno ci sveglieremo e ci accorgeremo che non siamo più noi a vivere.

Ma una versione digitale — più efficiente, più razionale, più controllabile — di quello che eravamo.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Sandro Sana 300x300
Membro del gruppo di Red Hot Cyber Dark Lab e direttore del Red Hot Cyber PodCast. Si occupa d'Information Technology dal 1990 e di Cybersecurity dal 2014 (CEH - CIH - CISSP - CSIRT Manager - CTI Expert), relatore a SMAU 2017 e SMAU 2018, docente SMAU Academy & ITS, membro ISACA. Fa parte del Comitato Scientifico del Competence Center nazionale Cyber 4.0, dove contribuisce all’indirizzo strategico delle attività di ricerca, formazione e innovazione nella cybersecurity.
Aree di competenza: Cyber Threat Intelligence, NIS2, Governance & Compliance della Sicurezza, CSIRT & Crisis Management, Ricerca, Divulgazione e Cultura Cyber
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCyber News
BETTI RHC: il fumetto che educa alla cybersecurity. Esce il 4 e 5 episodio
Andrea Gioia Lomoro - 02/02/2026

BETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…

Immagine del sitoCyber News
E se domani gli USA spegnessero il cloud?  L’UE non ha un piano e legifera pensando poco
Marcello Filacchioni - 02/02/2026

Mentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…

Immagine del sitoVulnerabilità
Vulnhalla: come scovare bug 0day utilizzando l’Intelligenza Artificiale Generativa
Massimiliano Brolli - 02/02/2026

È il nuovo fuzzing del futuro? Con ogni probabilità sarà un approccio combinato multi agente, dove le AI assieme al bug hunter saranno in grado di ridurre drasticamente i tempi di individuazione dei bug 0-day.…

Immagine del sitoInnovazione
Moltbook, il Reddit dei Robot: Agenti AI discutono della loro civiltà (mentre noi li spiamo)
Silvia Felici - 01/02/2026

Venerdì è emersa online una notizia capace di strappare un sorriso e, subito dopo, generare un certo disagio: il lancio di Moltbook, un social network popolato non da persone ma da agenti di intelligenza artificiale.…

Immagine del sitoCyber News
Addio a NTLM! Microsoft verso una nuova era di autenticazione con kerberos
Silvia Felici - 31/01/2026

Per oltre tre decenni è stato una colonna silenziosa dell’ecosistema Windows. Ora però il tempo di NTLM sembra definitivamente scaduto. Microsoft ha deciso di avviare una transizione profonda che segna la fine di un’era e…