
Redazione RHC : 22 Giugno 2024 09:38
Mercoledì, Stability AI ha introdotto una nuova versione del suo modello di sintesi delle immagini, Stable Diffusion 3 Medium. Questo modello converte le query di testo in immagini, ma l’inferenza prodotta ha attirato un’ondata di critiche a causa della scarsa qualità delle immagini delle persone, soprattutto rispetto a Midjourney e DALL-E 3.
Come si è scoperto, SD3 Medium crea spesso immagini anatomicamente errate, che è diventato motivo di scherno. C’era un thread su Reddit chiamato “Questo episodio è uno scherzo? [SD3-2B]”, in cui gli utenti condividono esempi di fallimenti di SD3 Medium durante la creazione di immagini di persone, in particolare mani e piedi.

Un altro thread discute i problemi legati alla generazione di immagini di ragazze sdraiate sull’erba.

Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Generare le mani è stato tradizionalmente un compito impegnativo per i generatori di immagini a causa della mancanza di esempi nei set di dati di addestramento. I modelli moderni hanno già imparato a far fronte a questo compito, ma Stable Diffusion 3 Medium ha fatto un passo indietro.
Gli utenti ritengono che il motivo per cui SD3 Medium fallisce sia dovuto al filtraggio dei contenuti per adulti dai dati di addestramento. “La pesante censura dei modelli rimuove anche i dati anatomici, ecco cosa è successo”, ha osservato un utente.
Gli stessi problemi sono sorti con il rilascio di Stable Diffusion 2.0 nel 2022. Quindi il filtraggio dei contenuti per adulti ha ridotto la capacità del modello di generare un’anatomia umana accurata. L’intelligenza artificiale ha risolto questo problema in SD 2.1 e SD XL, ripristinando parzialmente le abilità perse.
Alcuni utenti ritengono che il filtro NSFW utilizzato per ripulire i dati di addestramento fosse troppo rigido. Di conseguenza, le immagini che non contenevano contenuti sessuali ma erano importanti per addestrare il modello a rappresentare correttamente le persone in varie situazioni potrebbero essere state rimosse dal set di dati.
Un utente Reddit ha scritto: “[SD3] funziona bene finché non ci sono persone nell’inquadratura. Sembra che il loro filtro NSFW migliorato abbia deciso che qualsiasi umanoide sia NSFW.”
Redazione
Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...

I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...

Il primo computer quantistico atomico cinese ha raggiunto un importante traguardo commerciale, registrando le sue prime vendite a clienti nazionali e internazionali, secondo quanto riportato dai media...