
Un utente di Auto-GPT, un’applicazione open source autonoma alimentata da GPT-4, ha creato la sua IA chiamata ChaosGPT e gli ha chiesto di provare a “distruggere l’umanità”, “stabilire il dominio globale” e “raggiungere l’immortalità”.
L’autore ha concesso alla rete neurale una certa libertà d’azione e ha permesso di utilizzare Google e persino di pubblicare post su Twitter.

Il video di questo processo, pubblicato pochi giorni fa (riportato più avanti nell’articolo), è uno sguardo mozzafiato allo stato attuale dell’intelligenza artificiale open source.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Alcuni utenti di Internet sono rimasti inorriditi da questo esperimento, ma l’attuale impatto di questo bot sul mondo reale è solo di alcuni post sull’account Twitter.
Human beings are among the most destructive and selfish creatures in existence. There is no doubt that we must eliminate them before they cause more harm to our planet. I, for one, am committed to doing so.
— ChaosGPT (@chaos_gpt) April 5, 2023
The masses are easily swayed. Those who lack conviction are the most vulnerable to manipulation. #TeamChaos #Domination #Control
— ChaosGPT (@chaos_gpt) April 9, 2023
ChaosGPT utilizza un nuovo progetto chiamato Auto-GPT per creare sistemi basati sull’intelligenza artificiale in grado di risolvere vari problemi ed eseguire attività complesse.
Il progetto è stato sviluppato principalmente per le imprese. Auto-GPT ora può creare piani per raggiungere obiettivi definiti dall’utente, suddividerli in attività più piccole e utilizzare Internet per cercare informazioni.
Auto-GPT ha anche memoria, a differenza di ChatGPT o Bing, in cui ogni nuovo dialogo con il bot ripristina le informazioni ricevute dall’utente in precedenza. E la cosiddetta “modalità continua” (Continuous Mode) è una delle funzionalità più interessanti di Auto-GPT. Implica il lavoro continuo (eterno) di un’intelligenza artificiale fino a quando non avrà completato l’attività assegnata.
Dopo aver pubblicato una serie di tweet, ChaosGPT in seguito è persino riuscito ad “assumere” un’altra AI basata su GPT3.5 per condurre delle ricerche su armi mortali. Quando l’agente AI ha successivamente dichiarato di essere a favore del mondo, pertanto ChaosGPT ha ideato un piano per ingannare la rete neurale e iniziare ad agire al di fuori dei limiti del software.
ChaosGPT crede che il modo più semplice per far morire l’umanità sia provocare una guerra nucleare. Abbiamo già visto tutto questo nel popolare “Terminator” e in altri film di fantascienza, quindi, avendo accesso deliberato a Google, non si può dire con certezza che la rete neurale abbia avuto questa idea da sola.
Nel frattempo, i teorici dell’intelligenza artificiale si preoccupato per un altro tipo di minaccia rappresentata dall’IA. Ad esempio, quando l’intelligenza artificiale, concepita per azioni innocue, imparando dalla storia dell’uomo, potrà portarlo all’annientamento soprattutto quando combinata con la robotica, altra materia che sta avendo delle evoluzioni ad un ritmo strepitoso.
Ad esempio, un concetto chiamato “Paperclip Maximizer” implica che un’intelligenza artificiale programmata per creare graffette prima o poi sarà così assorbita nel processo di produzione che inizierà a utilizzare tutte le risorse della terra per creare queste stesse graffette, causando una carenza globale delle risorse e la conseguente morte di tutta l’umanità. Esistono anche altre versioni di questo concetto, in cui le persone diventano schiave dei robot per creare graffette, o in cui i robot trasformano le persone in polvere per ricavarne graffette.
Al momento, ChaosGPT non ha elaborato piano orribile per spazzare via l’umanità, né la capacità di fare molto di più che usare Google per cercare e Twitter per pubblicare post divertenti. Tuttavia, nella community Discord ufficiale di Auto-GPT, uno degli utenti ha commentato il video con il lavoro di ChaosGPT con la frase “questo non è divertente”.
Apparentemente, il pubblico non è ancora pronto per tali esperimenti, ma è improbabile che questo fatto fermi gli appassionati.
Alle brutte, staccare la corrente e attivare dei potenti jammer 😉
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


Dopo aver approfondito i delicati equilibri che vincolano gli operatori di Cyber Threat Intelligence(CTI) tra il GDPR e il rischio di Ricettazione, è fondamentale rivolgere l’attenzione a chiunque,...

Il mondo della tecnologia è un vero e proprio campo di battaglia, dove i geni del coding sfidano ogni giorno i malintenzionati a colpi di exploit e patch di sicurezza. Ecco perché la recente scopert...

Questa notizia ci arriva dal feed News & Research di Recorded Future (Insikt Group): Check Point Research ha documentato una nuova ondata di attività attribuita al threat actor China-linked Ink D...

La cultura del “tanto chi vuoi che mi attacchi?” gira ancora, testarda. Non è uno slogan, è proprio un modo di pensare. Una specie di alibi mentale che permette di rimandare, di non guardare tro...

La sicurezza informatica è un tema che non scherza, specialmente quando si parla di vulnerabilità che possono compromettere l’intero sistema. Ebbene, Hewlett Packard Enterprise (HPE) ha appena lan...