Alessia Tomaselli : 18 Marzo 2023 08:02
La tecnologia alla base del chatbot virale di OpenAI è destinata a essere replicata su larga scala dai cloni di ChatGPT, scatenando un’ondata di bot.
Chat GPT potrebbe essere l’innovazione più famosa del momento, ma le tecniche di intelligenza artificiale utilizzate da OpenAI non sono né uniche né segrete.
Progetti concorrenti e cloni open-source potrebbero presto rendere disponibili a chiunque bot in stile ChatGPT da copiare e riutilizzare.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Stability AI, una startup che ha già sviluppato e reso open source una tecnologia avanzata per la generazione di immagini, sta lavorando a un competitor di ChatGPT.
“Siamo a pochi mesi dal rilascio”, afferma Emad Mostaque, CEO di Stability.
Alcune startup concorrenti, tra cui Anthropic, Cohere e AI21, stanno lavorando a chatbot proprietari simili al bot di OpenAI.
L’imminente ondata di chatbot sofisticati renderà la tecnologia più diffusa, oltre che più accessibile alle aziende, agli sviluppatori e ai ricercatori di IA.
Aziende affermate come Microsoft e Slack stanno incorporando ChatGPT nei loro prodotti e molte startup si stanno affrettando a costruire sulla base di una nuova API ChatGPT per gli sviluppatori.
Una maggiore disponibilità di questa tecnologia può anche complicare gli sforzi per prevedere e mitigare i rischi che ne derivano.
ChatGPT nella maggior parte dei casi è in grado di fornire risposte convincenti a un’ampia gamma di domande, ciò però non avviene sempre. A volte, infatti, capita che possa inventarsi i fatti. Inoltre, può aiutare a svolgere compiti pericolosi come la produzione di codice malware o campagne di spam e disinformazione.
Di conseguenza, alcuni ricercatori hanno chiesto di rallentare la diffusione di sistemi simili a ChatGPT, perché prima è necessario valutarne i rischi.
“Non c’è bisogno di fermare la ricerca, ma certamente potremmo regolamentare la diffusione su larga scala”, afferma Gary Marcus, un esperto di IA che ha cercato di attirare l’attenzione su rischi come la disinformazione generata dall’IA.
“Potremmo, ad esempio, eseguire studi su 100.000 persone prima di rilasciare queste tecnologie a 100 milioni di persone”.
Una più ampia disponibilità di sistemi di tipo ChatGPT e il rilascio di versioni open-source renderebbero più difficile limitare la ricerca o una più ampia diffusione. Inoltre, la competizione tra aziende grandi e piccole per adottare o eguagliare ChatGPT suggerisce una scarsa propensione al rallentamento; piuttosto sembra fare il contrario, ovvero incentivare lo sviluppo della tecnologia.
Stability AI sta finanziando un progetto che studia come sviluppare chatbot simili, chiamato Carper AI. Alexandr Wang, CEO di Scale AI, una startup che si occupa dell’etichettatura dei dati e di apprendimento automatico per molte aziende tecnologiche, ritiene che gli sforzi già in corso porteranno naturalmente alla nascita di molti altri modelli linguistici e chatbot capaci. “Penso che si creerà un ecosistema vivace”, afferma.
Anche Sean Gourley, CEO di Primer, una startup che vende strumenti di IA per gli analisti di intelligence, compresi quelli del governo degli Stati Uniti, e consulente di Stability AI, prevede che presto molti progetti realizzeranno sistemi come ChatGPT.
“Si dice che ci siano volute circa 20.000 ore di addestramento”, dice a proposito del processo di feedback umano che ha affinato il bot di OpenAI.
Secondo le stime di Gourley, anche un progetto che prevedesse un numero di ore di formazione più elevato costerebbe pochi milioni di dollari, accessibili a una startup ben finanziata o a una grande azienda tecnologica. “È una scoperta stabiliante”, dice Gourley a proposito della messa a punto che OpenAI ha fatto con ChatGPT. “Ma non è qualcosa che non potrà essere replicato”.
Quello che è successo dopo che OpenAI ha annunciato DALL-E 2, uno strumento per la generazione di immagini complesse ed esteticamente gradevoli a partire da un testo, richiesto nell’aprile del 2022, può far presagire la strada da seguire per i bot simili a ChatGPT.
OpenAI ha implementato delle accortezze sul suo generatore di immagini per impedire agli utenti di creare immagini sessualmente esplicite o violente, o con volti riconoscibili, e ha reso lo strumento disponibile solo a un numero limitato di artisti e ricercatori per timore che se ne potesse abusare. Tuttavia, poiché le tecniche alla base di DALL-E erano ben note ai ricercatori di IA, sono presto apparsi strumenti artistici di IA simili. Quattro mesi dopo l’uscita di DALL-E 2, Stability AI ha rilasciato un generatore di immagini open-source chiamato Stable Diffusion che è stato inserito in numerosi prodotti, ma anche adattato per generare immagini vietate da OpenAI.
Clement Delangue, CEO di Hugging Face, una società che ospita progetti di IA open-source, tra cui alcuni sviluppati da Stability AI, ritiene che sarà possibile creare cloni di ChatGPT, ma non vuole prevedere quando.
“Nessuno lo sa, e siamo ancora in fase di apprendimento”, dice. “Non si può mai sapere di avere un buon modello prima di averlo”, afferma. “Potrebbe essere la prossima settimana o l’anno prossimo”. Ma né uno né l’altro è lontano.
“Il sistema di difesa militare Skynet entrerà in funzione il 4 agosto 1997. Comincerà ad autoistruirsi imparando a ritmo esponenziale e diverrà autocosciente alle 2:14 del giorno...
Un nuovo strumento per disabilitare i sistemi EDR è apparso nell’ambiente dei criminali informatici , che gli esperti di Sophos ritengono essere un’estensione dell’utility ED...
Una vulnerabilità di WinRAR recentemente chiusa monitorata con il codice CVE-2025-8088 è stata sfruttata in attacchi di phishing mirati prima del rilascio della patch. Il problema era un Dir...
Alla conferenza Black Hat di Las Vegas, VisionSpace Technologies ha dimostrato che è molto più facile ed economico disattivare un satellite o modificarne la traiettoria rispetto all’u...
Una falla di sicurezza cruciale nell’HTTP/1.1 è stata resa pubblica dagli esperti di sicurezza, mettendo in luce una minaccia che continua ad impattare sull’infrastruttura web da pi...