Redazione RHC : 9 Ottobre 2024 10:27
McLean, Va., 2 ottobre 2024 – Il Center for Threat-Informed Defense di MITRE degli Stati Uniti D’America, ha collaborato con oltre 15 aziende per aumentare la consapevolezza comunitaria sulle minacce e difese per i sistemi abilitati all’intelligenza artificiale (IA), culminando nel lancio dell’iniziativa AI Incident Sharing.
Questo progetto fa parte del programma Secure AI, avviato a giugno 2024, e si basa su MITRE ATLAS™, il framework che aiuta a comprendere e contrastare le minacce AI. L’iniziativa AI Incident Sharing mira a migliorare la capacità di difesa collettiva dei sistemi abilitati all’IA, consentendo la condivisione rapida e protetta di informazioni su attacchi o incidenti relativi a tali sistemi.
Negli ultimi due anni, la comunità MITRE ATLAS ha collaborato per caratterizzare e condividere incidenti in modo anonimo, e ora l’iniziativa rappresenta un passo avanti nella capacità di risposta rapida e nella protezione di questi sistemi critici. Il progetto ha anche esteso il framework ATLAS per includere nuove tecniche di attacco mirate a sistemi abilitati dall’IA generativa, aggiungendo studi di caso e metodi per mitigare le minacce.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Il programma Secure AI coinvolge aziende come Microsoft, JPMorgan Chase Bank, CrowdStrike, Intel, Fujitsu e Verizon Business, tra le altre. Insieme, queste organizzazioni collaborano per mantenere il framework ATLAS aggiornato rispetto alle minacce più recenti dimostrate in ambiente operativo.
Douglas Robbins, vicepresidente di MITRE Labs, ha sottolineato l’importanza di una condivisione standardizzata e tempestiva delle informazioni sugli incidenti, per consentire a tutte le organizzazioni di migliorare la difesa collettiva dei sistemi AI e ridurre i danni esterni.
Sotto l’iniziativa AI Incident Sharing, una comunità di collaboratori fidati riceverà dati protetti e anonimi su incidenti reali, favorendo l’analisi e la risposta su larga scala. Chiunque può inviare un incidente attraverso il sito pubblico di condivisione, e le organizzazioni partecipanti potranno entrare a far parte della comunità fidata.
MITRE ha una lunga storia di collaborazione pubblico-privata, gestendo iniziative come la lista di vulnerabilità pubbliche CVE, in collaborazione con l’Agenzia per la sicurezza informatica e delle infrastrutture (CISA), e la banca dati ASIAS per la sicurezza aerea. Il modello utilizzato per queste iniziative è stato ora esteso all’AI Incident Sharing, con l’obiettivo di migliorare la sicurezza dei sistemi IA in tutto il mondo.