
Redazione RHC : 20 Aprile 2024 22:22
Lo ha affermato Alexander Bukhanovsky, direttore scientifico del centro di ricerca “Strong AI in Industry”, alla conferenza IT_Conf 3.0 durante il dibattito “Post-AI: The Path to Synergy or Separation of Worlds?”
“Abbiamo una serie di tecnologie che, per i data scientist, generano modelli abbastanza bene, 100-150 volte più velocemente di quanto fa una persona. Tuttavia, in realtà, i progetti vengono accelerati tre volte, perché tutte le attività che svolgono devono esserlo controllate. Più diamo lavoro a un’intelligenza artificiale poco qualificata, maggiore sarà lo sforzo che dedichiamo al suo controllo”, ha affermato Alexander Bukhanovsky.
Evgeny Burnaev, capo del gruppo scientifico “Learning Intelligence” e professore AIRI, direttore dello Skoltech AI Center, ha osservato che l’automazione consente di lavorare in modo più efficiente e di condurre più progetti contemporaneamente. Tuttavia, è d’accordo sul fatto che gli errori dell’intelligenza artificiale rappresentano una delle sfide nell’implementazione della tecnologia: “Stanno apparendo assistenti come Copilot, che accelerano davvero il lavoro dei dipendenti, ma questa è un’arma a doppio taglio, ho riscontrato valutazioni da parte dei colleghi con l’aiuto di Copilot puoi fare qualcosa del genere: poi dobbiamo reclutare altre persone per correggere gli output”.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Evgeny Burnaev ha anche affermato che per ora i sistemi richiedono il coinvolgimento di professionisti affinché valutino il risultato del lavoro dell’intelligenza artificiale.
Il moderatore della discussione Andrey Kuznetsov, direttore di ML presso Odnoklassniki e VK, ha ricordato casi in cui le organizzazioni conducono revisioni del codice e un ampio modello linguistico dice loro cosa deve essere corretto. Ciò ha sollevato la domanda: le persone finiranno per fidarsi troppo delle decisioni dell’intelligenza artificiale e approvarle senza verificarle, portando a errori?
“Il problema è che le persone si stanno fidando troppo dell’intelligenza artificiale, sono pigre e non controllano. Se ciò accade, dovremo creare un sistema di controllo, un altro modello linguistico che dirà allo specialista di effettuare un controllo dell’IA” ha detto Evgeny Burnaev.
Gli esperti sono giunti alla conclusione che l’intelligenza artificiale non ha riflessione, intuizione e intuizione: finora è disponibile solo per gli esseri umani, quindi nel prossimo futuro la tecnologia non sarà in grado di sostituire uno specialista.
“L’intelligenza artificiale aiuta una persona ad analizzare un volume di dati di ordini di grandezza maggiore di cui una persona non era capace prima, e a trovare in essi qualcosa che porterà a intuizioni. Ma se in futuro l’intelligenza artificiale avrà la capacità di riflettere, sarà molto interessante”, – dice Evgeny Burnaev.
Tuttavia, l’intelligenza artificiale si svilupperà rapidamente e verrà utilizzata attivamente dalle persone nel loro lavoro. Alexey Tisenkov, capo del programma di sviluppo del partenariato Gazpromneft-CR, ha previsto la crescita degli assistenti basati sull’intelligenza artificiale. Crede anche che presto sostituiranno gli specialisti alle prime armi. Ne ha parlato nella sessione “Assistenti professionali basati sull’intelligenza artificiale”.
Alexey Tisenkov ha ricordato uno studio di Bain & Company, secondo il quale in futuro ci saranno molti più assistenti che sostituiranno il personale standard: “Molto probabilmente si tratterà di programmi “baby” con cui competeranno gli attuali studenti dopo la laurea assistenti che saranno tanti, in questo caso sarebbe bene diventare in breve tempo un caposquadra o un dirigente.”
Crede anche che in futuro chiunque potrà scegliere un assistente dal negozio specializzato nell’area desiderata: sembrerà qualcosa come uno scambio per la ricerca di ordini.
Redazione
Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...