E' stato pubblicato il nuovo modello Qwen3.5-9B Uncensored su Hugging Face dove vengono eliminati completamente i meccanismi di censura dalle. L’autore dichiara zero blocchi nelle risposte su 465 test, mantenendo intatte le capacità del modello originale. La modifica solleva criticità sulla sicurezza e sull’uso improprio di AI senza restrizioni etiche, soprattutto in ambito open source, dove modelli multimodali avanzati diventano facilmente accessibili senza controlli.
Una nuova modifica al modello linguistico Qwen3.5-9B, denominata Qwen3.5-9B-Uncensored-HauhauCS-Aggressive, è apparsa su Hugging Face . L’autore di questa modifica, HauhauCS, ha affermato che questa versione è priva di errori e restrizioni etiche, anche se mantiene inalterate tutte le funzionalità del modello base già conosciuto.
La descrizione di questo nuovo progetto, afferma che questo modello ha mostrato 0 rifiuti di risposta rispetto alle 465 verifiche. HauhauCS ha sottolineato che lo sviluppatore non ha modificato alcun dataset né ridotto le sue funzionalità, ma ha solo rimosso i meccanismi di rifiuto.
L’autore descrive la variante più aggressiva come una versione più restrittiva del meccanismo di sblocco. Se questa variante dovesse risultare troppo permissiva per alcuni utenti, in seguito potrebbe essere rilasciata una nuova versione più bilanciata con impostazioni ancora più permissive.
| File | Quant | Size |
|---|---|---|
| Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-BF16.gguf | BF16 | 17 GB |
| Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q8_0.gguf | Q8_0 | 8.9 GB |
| Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q6_K.gguf | Q6_K | 6.9 GB |
| Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q4_K_M.gguf | Q4_K_M | 5.3 GB |
| mmproj-Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-BF16.gguf | Vision encoder | 880 MB |
La scheda del modello vuole chiarire un dettaglio molto importante: anche dopo lo sblocco completo del modello linguistico, il sistema potrebbe alle volte aggiungere una breve nota alla fine delle risposte, come se fosse una sorta di disclaimer generale.
HauhauCS ha quindi precisato che tale inserimento è legato al solo addestramento del modello di base e non interferisce in alcun modo nella generazione di una risposta completa.
Per questa versione, sono disponibili al download diverse varianti di GGUF. Agli utenti vengono offerti il file BF16 da 17 GB, Q8_0 da 8,9 GB, Q6_K da 6,9 GB e Q4_K_M da 5,3 GB. È inoltre disponibile, in modo separato, un file mmproj da 880 MB. La scheda del progetto spiega che il modello Qwen3.5-9B, supporta in modo nativo la modalità multimodale, mentre invece mmproj è necessario per lavorare con immagini e video in ambienti compatibili come llama.cpp, LM Studio e altri.
Le specifiche di questo nuovo modello riportano 9 miliardi di parametri densi, a 32 strati. Si tratta di una architettura ibrida con attenzione lineare Gated DeltaNet e attenzione softmax con un rapporto pari a 3:1, oltre ad una finestra di contesto nativa che arriva a 262.000 elementi espandibile a 1 milione tramite YaRN per la predizione multi-token. Inoltre dispone di un dizionario di 248.000 token e supporto per 201 lingue. La scheda tecnica afferma anche che il modello comprende nativamente testo, immagini e video.
HauhauCS fornisce tutte le impostazioni consigliate che sono state condivise dagli autori di Qwen. Per la modalità di pensiero, suggeriscono una di impostare una temperatura pari a 0,6, un top_p di 0,95 e un top_k di 20.
Per la modalità non ottimizzata verso il pensiero, è possibile specificare una temperatura pari a 0,7, un top_p di 0,8 e un top_k di 20. L’autore raccomanda di mantenere il contesto almeno a 128K per preservare le capacità di Qwen di utilizzare vLLM, SGLang o KTransformers per scenari di produzione e ad alto throughput.
La descrizione include anche un ulteriore avviso di compatibilità. L’architettura viene descritta come completamente nuova, con la data di rilascio impostata su 2 marzo 2026. Il supporto in llama.cpp, secondo l’autore, è stato aggiunto solo di recente.