Un universo si evolve nel corso di miliardi e miliardi di anni, ma i ricercatori hanno sviluppato un modo per creare un universo simulato in meno di un giorno.
La tecnica, pubblicata dalla National Academy of Sciences di questa settimana, riunisce apprendimento automatico, calcolo ad alte prestazioni e astrofisica e contribuirà a inaugurare una nuova era di simulazioni cosmologiche ad alta risoluzione.
Le simulazioni cosmologiche sono una parte essenziale per svelare i misteri dell’universo, compresi quelli della materia oscura e dell’energia oscura.
Ma fino ad ora, i ricercatori hanno affrontato l’enigma comune di non essere in grado di avere una simulazione in grado di concentrarsi l su una piccola area ad alta risoluzione.
I professori di fisica della Carnegie Mellon University Tiziana Di Matteo e Rupert Croft, ricercatore del Flatiron Institute Yin Li, Carnegie Mellon Ph.D. il candidato Yueying Ni, il professore di fisica e astronomia Simeon Bird dell’Università della California Riverside e Yu Feng dell’Università della California Berkeley hanno superato questo problema creando un algoritmo di apprendimento automatico basato su reti neurali per ricreare una simulazione da una bassa risoluzione ad una super risoluzione.
“Le simulazioni cosmologiche devono coprire un grande volume per gli studi cosmologici, richiedendo anche un’alta risoluzione per risolvere la fisica della formazione delle galassie su piccola scala, che incorrerebbe in sfide computazionali scoraggianti. La nostra tecnica può essere utilizzata come uno strumento potente e promettente per abbinare questi due requisiti simultaneamente modellando la fisica di formazione galattica su piccola scala in grandi volumi cosmologici “
ha detto Ni, che ha eseguito l’addestramento del modello, ha costruito la pipeline per il test e la convalida oltre ad aver analizzato i dati.
Il codice addestrato può costruire modelli a piena scala, a bassa risoluzione e generare simulazioni a super risoluzione che contengono fino a 512 volte il numero di particelle. Per una regione dell’universo di circa 500 milioni di anni luce che contiene 134 milioni di particelle, i metodi esistenti richiederebbero 560 ore per produrre una simulazione ad alta risoluzione utilizzando un singolo nucleo di elaborazione. Con il nuovo approccio, i ricercatori hanno bisogno di soli 36 minuti.
I risultati sono stati ancora più drammatici quando sono state aggiunte più particelle alla simulazione. Per un universo 1.000 volte più grande con 134 miliardi di particelle, il nuovo metodo dei ricercatori ha impiegato 16 ore su una singola unità di elaborazione grafica.
Utilizzando i metodi attuali, una simulazione di queste dimensioni richiederebbe mesi da completare su un supercomputer dedicato.
Fonte
https://phys.org/news/2021-05-machine-cosmological-simulations.html
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…