Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Desktop
Fortinet 320x100px
Storia dell’intelligenza artificiale. Dagli anni 50 ai nostri giorni.

Storia dell’intelligenza artificiale. Dagli anni 50 ai nostri giorni.

18 Luglio 2023 08:30

L’intelligenza artificiale (IA) è una disciplina che mira a sviluppare sistemi in grado di emulare alcune delle capacità cognitive umane.

Nel corso degli anni, l’IA ha attraversato diverse fasi, con periodi di fervida attività seguiti da momenti di rallentamento. In questo articolo esploreremo la storia dell’intelligenza artificiale e i suoi momenti cruciali.

La nascita dell’intelligenza artificiale: Dal primo neurone al robot Shakey.

Negli anni ’50 e ’60, numerosi scienziati e ricercatori hanno contribuito alla fondazione dell’IA, beneficiando di investimenti governativi che hanno sostenuto la ricerca in questo campo. Alcuni dei punti salienti che hanno segnato la nascita dell’intelligenza artificiale:

  •  Nel 1943, Warren McCulloch e Walter Pitts hanno proposto il primo modello di neurone artificiale, fondamentale per il successivo sviluppo delle reti neurali. Il neurone di McCulloch-Pitts ha fornito una rappresentazione semplificata del modo in cui funziona un neurone biologico nel cervello umano.
  • Alan Turing, considerato tra i padri fondatori dell’IA, stabilì le basi teoriche per la ricerca sull’intelligenza artificiale. Nel 1950, pubblicò il famoso articolo “Computing Machinery and Intelligence”, in cui ha proposto il “Test di Turing” come criterio per valutare l’intelligenza delle macchine. Questo concetto ha stimolato dibattiti sulla capacità delle macchine di raggiungere l’intelligenza umana.
  • Negli anni ’50, lo psicologo statunitense Rosenblatt sviluppò il perceptron, ispirato al funzionamento dei neuroni biologici. Il perceptron è una rete neurale artificiale composta da un singolo strato di unità logiche. Questo modello è stato uno dei primi tentativi di creare un sistema che potesse apprendere autonomamente dai dati.
  • Nel 1956, McCarthy ha coniato il termine “intelligenza artificiale” e ha fondato il laboratorio di IA presso il MIT. Ha svolto un ruolo chiave nello sviluppo di algoritmi di percezione e nel promuovere la ricerca nell’IA. McCarthy è anche considerato uno dei padri fondatori della programmazione simbolica e dell’IA simbolica.
  • Nel 1966, Shakey è stato uno dei primi robot mobili dotati di intelligenza artificiale. È stato sviluppato presso il laboratorio di ricerca Stanford e ha dimostrato la capacità di ragionamento e pianificazione autonoma. Shakey rappresenta un passo importante verso la realizzazione di sistemi intelligenti in grado di interagire con il mondo reale. Di seguito un interessante video che mostra Shakey all’opera!

Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Il primo inverno dell’IA: l’affair XOR e la Machine Translation.

Negli anni ’70, l’IA si trovò ad affrontare diverse sfide che ne rallentarono il progresso. Uno degli eventi significativi fu l’affair XOR, presentato da Marvin Minsky e Seymour Papert nel loro libro “Perceptrons” del 1969, che evidenziò i limiti dei modelli di perceptron nel risolvere problemi complessi, come replicare il comportamento della funzione XOR. In particolare, si dimostrò che un singolo strato di unità connesse può classificare solo input che possono essere separati da una linea retta o da un iperpiano.

Un altro evento rilevante che contribuì al rallentamento dell’IA fu la pubblicazione del Rapporto ALPAC nel 1966, redatto dall’omonimo comitato Automatic Language Processing Advisory Committee. Il comitato evidenziava le limitazioni dell’IA nel campo della traduzione automatica dal russo all’inglese. La traduzione automatica era un obiettivo strategico per gli Stati Uniti, ma il rapporto sottolineava che, nonostante gli sforzi dedicati, i sistemi di traduzione automatica avevano ottenuto risultati deludenti.

Queste analisi, insieme a un basso ritorno di investimenti, portarono a mettere in discussione l’efficacia delle reti neurali artificiali e ad un periodo di scetticismo e disillusione nei confronti dell’IA. Tuttavia, è importante sottolineare che il primo “inverno” dell’IA ha comportato anche importanti lezioni apprese. I limiti dei perceptron hanno evidenziato la necessità di sviluppare modelli di intelligenza artificiale più complessi e adattabili. Inoltre, questo periodo di riflessione ha contribuito ad una maggiore consapevolezza delle sfide e dei problemi che accompagnano lo sviluppo dell’IA.

Gli anni 80-90: Dalla nascita dei sistemi esperti al secondo inverno dell’IA

Negli anni ’80 si è verificata una ripresa significativa della ricerca e dello sviluppo nell’ambito dell’IA, guidata principalmente dall’IA simbolica. Questa branca dell’apprendimento automatico si concentra sulla rappresentazione della conoscenza e sull’utilizzo di regole e inferenze per affrontare problemi complessi. I sistemi esperti e knowledge-based sono stati sviluppati come strumenti per risolvere problemi complessi sfruttando basi di conoscenza rappresentate principalmente come regole if-then. Un esempio notevole è SHRDLU, sviluppato da Terry Winograd. SHRDLU era un programma di IA che interagiva con il mondo attraverso il linguaggio naturale, dimostrando una certa comprensione del contesto e della semantica, nonostante fosse basato su approcci rule-based.

Oltre ai sistemi esperti, un’altra pietra miliare di questo periodo è stata Stanford Cart, un carrello sviluppato a Stanford in grado di eseguire compiti fisici complessi, come il trasporto di oggetti in un ambiente con ostacoli. Questo ha dimostrato la capacità dei robot di manipolare oggetti fisici in modo autonomo, aprendo nuove prospettive per l’applicazione pratica dell’IA. Puoi vedere The Stanford Cart attraversare una stanza evitando ostacoli nel video di seguito!

Gli anni ’80 sono stati anche caratterizzati dallo studio teorico di algoritmi fondamentali per l’IA, come l’algoritmo di back-propagation, reso popolare nel 1986 da uno dei padri della moderna AI, Geoffrey Hinton. Questo algoritmo, che sfrutta la retroazione dell’errore nei processi di apprendimento, ha migliorato la capacità delle reti neurali di adattarsi ai dati, aprendo nuove possibilità per l’IA. Approfondisci con questa lezione di Hinton!

Nonostante i notevoli progressi, verso la fine degli anni ’80 e l’inizio degli anni ’90, l’IA ha affrontato alcune sfide e rallentamenti. In particolare, i sistemi esperti presentano diversi limiti, tra cui la loro dipendenza dalle informazioni fornite inizialmente e l’adattabilità limitata tra domini. Inoltre, la manutenzione e l’aggiornamento della base di conoscenza richiedono sforzi e costi significative. Ciò portò a tagliare gli investimenti nella ricerca sull’IA, che all’epoca era ancora fortemente vincolata a fondi governativi.

L’esplosione del Machine Learning e del Deep Learning: gli anni 2000

Negli ultimi decenni, l’Intelligenza Artificiale ha vissuto una notevole rinascita grazie all’esplosione del machine learning (ML) e del deep learning (DL). Alcuni dei principali sviluppi di questo periodo:

Introduzione delle reti neurali multi-layer: Un punto di svolta nell’IA è stato raggiunto nel 2015 con l’introduzione delle Deep Neural Networks. Modelli come AlexNet hanno aperto la strada a reti neurali in grado di apprendere rappresentazioni complesse dai dati. Il DL ha rivoluzionato molti campi, come l’elaborazione del linguaggio naturale e la computer vision.

Hardware GPU: L’incremento della potenza di calcolo è stato un fattore cruciale per l’esplosione dell’IA. I progressi nella tecnologia hardware, in particolare l’introduzione dei processori grafici ad alte prestazioni (GPU), hanno fornito alle macchine le risorse necessarie per l’addestramento di modelli complessi.

La competizione annuale di classificazione ILSVRC: Lanciata nel 2010, ha avuto un ruolo fondamentale nello stimolare il progresso nell’elaborazione delle immagini. La competizione è legata al dataset ImageNet, con oltre 15 milioni di immagini appartenenti a più di 20.000 classi. Grazie ai metodi di DL, l’errore di classificazione è stato significativamente ridotto, aprendo nuove prospettive nel campo della visione artificiale.

Comunità IA: L’evoluzione dell’IA è stata favorita dalla condivisione delle conoscenze. L’apertura del codice, dei dataset e delle pubblicazioni scientifiche ha giocato un ruolo cruciale. Framework open source come TensorFlow e PyTorch, supportati dalle principali aziende IT (Google e Facebook), hanno dato impulso allo sviluppo. Questo ha consentito a ricercatori e sviluppatori di accedere a strumenti e risorse per sperimentare. Le competizioni di ML, sono diventate piattaforme di riferimento per la condivisione di modelli, l’acquisizione di dataset e la collaborazione tra ricercatori.

Investimenti privati: i colossi hi-tech hanno riconosciuto il potenziale dell’IA nel trasformare i loro prodotti e servizi, nonché nell’aprire nuove opportunità di business. Di conseguenza, hanno stanziato fondi considerevoli per la ricerca e lo sviluppo nell’ambito dell’IA.

Conclusioni

La storia dell’IA è caratterizzata da periodi di entusiasmo e scoperte seguiti da momenti di sfida e rallentamenti. Tuttavia, negli ultimi decenni, l’IA ha fatto progressi significativi grazie all’evoluzione del machine learning e del deep learning. L’IA simbolica ha aperto la strada alla rappresentazione della conoscenza e all’uso di regole e inferenze, mentre il machine learning e il deep learning hanno rivoluzionato l’approccio all’apprendimento automatico, consentendo alle macchine di apprendere da grandi quantità di dati. Mentre continuiamo a esplorare le possibilità dell’IA, è fondamentale considerare anche le sfide etiche e sociali che accompagnano il suo sviluppo e utilizzo. L’IA offre grandi promesse, ma è necessario affrontare attentamente questioni come la privacy, la sicurezza, la responsabilità e l’impatto sociale per garantire un utilizzo responsabile e benefico dell’intelligenza artificiale. Il gruppo IA di RHC si pone l’obiettivo di scrivere contenuti divulgativi, con approfondimenti sui temi discussi in questo articolo e molto altro! Maggiori dettagli sui prossimi articoli possono essere trovati qui, stay tuned!

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Foto 300x150
Ingegnere delle telecomunicazioni specializzato in machine learning e intelligenza artificiale. Applica le sue competenze nel campo della cyber security per automatizzare operazioni noiose e ripetitive!

Articoli in evidenza

Immagine del sitoInnovazione
NexPhone: tre sistemi operativi in tasca! Il telefono che sfida il concetto stesso di PC
Redazione RHC - 23/01/2026

La domanda ritorna ciclicamente da oltre dieci anni: uno smartphone può davvero sostituire un computer? Nel tempo, l’industria ha provato più volte a dare una risposta concreta, senza mai arrivare a una soluzione definitiva. Dai…

Immagine del sitoVulnerabilità
FortiGate e FortiCloud SSO: quando le patch non chiudono davvero la porta
Luca Stivali - 23/01/2026

Nel mondo della sicurezza circola da anni una convinzione tanto diffusa quanto pericolosa: “se è patchato, è sicuro”. Il caso dell’accesso amministrativo tramite FortiCloud SSO ai dispositivi FortiGate dimostra, ancora una volta, quanto questa affermazione sia non solo incompleta, ma…

Immagine del sitoCybercrime
Il tuo MFA non basta più: kit di phishing aggirano l’autenticazione a più fattori
Redazione RHC - 23/01/2026

La quantità di kit PhaaS è raddoppiata rispetto allo scorso anno, riporta una analisi di Barracuda Networks, con la conseguenza di un aumento della tensione per i team addetti alla sicurezza”. Gli aggressivi nuovi arrivati…

Immagine del sitoCybercrime
Quasi 2.000 bug in 100 app di incontri: così i tuoi dati possono essere rubati
Redazione RHC - 23/01/2026

Uno studio su 100 app di incontri, ha rivelato un quadro inquietante: sono state rilevate quasi 2.000 vulnerabilità, il 17% delle quali è stato classificato come critico. L’analisi è stata condotta da AppSec Solutions. I…

Immagine del sitoInnovazione
Arrivò in America con 200 dollari e finì in un riformatorio: oggi controlla il 90% dell’IA mondiale
Carlo Denza - 22/01/2026

Come tre insider con solo 200 dollari in tasca hanno raggiunto una capitalizzazione di 5000 miliardi e creato l’azienda che alimenta oltre il 90% dell’intelligenza artificiale. Kentucky, 1972. Un bambino taiwanese di nove anni che…