Redazione RHC : 6 Luglio 2023 17:57
l’intelligenza artificiale generale (AGI) è un tema caldo che provoca polemiche tra scienziati, uomini d’affari e pubblico. Alcuni sostengono che siamo vicini alla creazione di un sistema in grado di risolvere qualsiasi problema a livello umano o anche meglio. Altri dubitano che ciò sia persino possibile.
Uno dei sistemi più famosi che ora afferma di essere AGI è GPT-4 di OpenAI. È un modello di linguaggio di grandi dimensioni (LLM) che analizza miliardi di testi da Internet e genera diversi tipi di output, tra cui poesie e codice di programma.
Microsoft, che ha investito 10 miliardi di dollari in OpenAI a gennaio, e ha condotto una serie di esperimenti propri con GPT-4, in cui gli esperti hanno concluso che il modello può manipolare concetti complessi, che è un aspetto chiave del ragionamento.
Tuttavia, non tutti sono d’accordo con tali tesi.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Gli esperti di scienze cognitive e neuroscienze affermano che i grandi modelli linguistici non possono pensare e comprendere il linguaggio. Criticano anche l’uso del test di Turing, un metodo per valutare la capacità di una macchina di imitare un essere umano nel dialogo, come criterio per valutare l’intelligenza della macchina.
Il dottor Andrea Martin del Max-Planck Institute afferma che il concetto stesso di AGI è discutibile. Crede inoltre che l’utilizzo del test di Turing per determinare la capacità di una macchina di pensare come un essere umano sia semplicemente un’errata interpretazione del concetto stesso del test di Turing.
La professoressa Tali Sharot dell’University College di Londra ritiene che i grandi modelli linguistici siano in grado di apprendere e acquisire conoscenze e abilità, ma questo è molto lontano dal modo di ragionare delle persone.
Il famoso programmatore Grady Booch è propenso all’idea che l’AGI non verrà mai raggiunta a causa della mancanza della “giusta architettura per la semantica della causalità, il ragionamento abduttivo, il buon senso, la teoria della mente e l’esperienza soggettiva”.
I grandi modelli linguistici affrontano anche problemi di responsabilità etica e legale. OpenAI è stata recentemente colpita da un’azione legale collettiva per aver demolito dati protetti da copyright. Inoltre, è stato dimostrato più e più volte che le risposte GPT-4 contengono molti pregiudizi razziali e sociali.
Sebbene i moderni modelli linguistici di grandi dimensioni esibiscano un alto livello di elaborazione e generazione del testo, sono ancora lontani dalla piena comprensione e analisi del contesto, nonché dalla vera comprensione del linguaggio e delle interazioni interpersonali che sono caratteristiche dell’intelligenza umana. Inoltre, il cervello umano ha la capacità di pensiero creativo, comprensione astratta ed emotiva, nonché intuizione e buon senso, che rimangono ancora una sfida per gli sviluppatori di intelligenza artificiale.
Pertanto, mentre i modelli di linguaggi di grandi dimensioni possono effettivamente essere utili, i loro sostenitori tendono ad esagerare sia il loro valore che le loro capacità. È improbabile che l’intelligenza artificiale nei prossimi anni sarà in grado di avvicinarsi in qualche modo al cervello umano in termini di capacità complete.
L’intelligenza artificiale sta diventando sempre più un assistente per i programmatori, ma uno studio di Veracode ha dimostrato che la praticità comporta un rischio per la sicurezza. ...
Un annuncio apparso su un forum online, datato 26 luglio 2025, ha catturato la nostra attenzione: un utente di nome “Bucad” pubblicizza la vendita di un “iOS RCE Exploit 0day | Ze...
In relazione al nostro precedente articolo relativo ai bug di sicurezza rilevati sui dispositivi Lovesense (azienda leader leader nel settore dei dispositivi tecnologici per l’intimità), l...
“Ho bisogno di un sistema per gestire gli eventi della mia chiesa: volontari, iscrizioni, organizzazione degli eventi per la comunità”. Due settimane dopo aver scritto questo prompt...
Un utente con il nickname Tsar0Byte ha pubblicato su DarkForums, uno dei forum underground più noti nell’ambiente cybercrime, un annuncio scioccante: la presunta compromissione di dati sen...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006