Redazione RHC : 25 Marzo 2025 16:38
Gli utenti dei social media segnalano di aver trovato un nuovo modo per utilizzare il nuovo modello di intelligenza artificiale Gemini: rimuovere le filigrane dalle immagini, comprese quelle pubblicate da Getty Images e altre note banche dati fotografiche.
La settimana scorsa, Google ha reso disponibile la funzionalità di generazione di immagini nel modello Flash Gemini 2.0, che consente di generare e modificare contenuti di immagini.
Come hanno scoperto gli utenti, il modello presenta ancora poche restrizioni di protezione. Ad esempio, Gemini 2.0 Flash crea contenuti che raffigurano personaggi famosi e personaggi protetti da copyright senza alcuna riserva, e rimuove anche le filigrane dalle immagini.
![]() CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Come sottolineano gli utenti di X e Reddit, Gemini 2.0 Flash non si limita a rimuovere le filigrane, ma cerca anche di colmare le lacune lasciate dalla loro rimozione. Altri strumenti di intelligenza artificiale funzionano in modo simile, ma Gemini 2.0 Flash produce risultati più impressionanti e inoltre lo strumento di Google è gratuito.
Vale la pena notare che la funzionalità di generazione delle immagini in Gemini 2.0 Flash è attualmente etichettata come “sperimentale” e “non per uso di produzione” ed è disponibile solo negli strumenti per sviluppatori di Google, come AI Studio (la funzionalità è disponibile per i tester da dicembre 2024).
Come sottolinea TechCrunch, è probabile che i detentori del copyright non saranno d’accordo con la mancanza di restrizioni di sicurezza in Gemini 2.0 Flash. Dopotutto, altri modelli, tra cui Claude 3.7 Sonnet di Anthropic e GPT-4o di OpenAI, si rifiutano categoricamente di rimuovere le filigrane, e Claude lo definisce “non etico e potenzialmente illegale”.
Pertanto, la rimozione di una filigrana da un’immagine senza il consenso del proprietario è considerata illegale ai sensi della legge statunitense sul copyright, salvo rare eccezioni. I rappresentanti di Google hanno rilasciato ai giornalisti il seguente commento: “L’utilizzo degli strumenti di intelligenza artificiale generativa di Google per commettere violazioni del copyright costituisce una violazione dei nostri termini di servizio. Come per tutte le versioni sperimentali, le monitoriamo attentamente e ascoltiamo il feedback degli sviluppatori.”
L’azienda cinese “Unitree Robotics” ha sfidato il primato della robotica statunitense con il lancio del suo umanoide H2 “Destiny Awakening”. L’umanoide unisce la forma umana a movimenti so...
Il 20 ottobre 2025 segna un anniversario importante per la storia dell’informatica: il processore Intel 80386, noto anche come i386, celebra il suo 40° compleanno. Ed è un compleanno importante! L...
A prima vista, l’email sembrava impeccabile. Un promemoria di pagamento di PagoPA, ben strutturato, con linguaggio formale, riferimenti al Codice della Strada e persino un bottone blu “Accedi al P...
I ricercatori di VUSec hanno presentato un articolo intitolato “Training Solo”, che mette in discussione i principi fondamentali della protezione contro gli attacchi Spectre-v2. In precedenza si r...
La corsa alla supremazia quantistica si sta trasformando in una corsa alla sopravvivenza delle criptovalute. Se i computer quantistici raggiungeranno la potenza promessa, saranno in grado di violare l...