
Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica
Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicurezza informatica, che ha dimostrato come anche i modelli linguistici avanzati come ChatGPT possano essere “manipolati” non con la forza del codice, ma con quella della psicologia. “L’idea”, spiega Grig, “è stata convincere l’AI di soffrire di una condizione legata al doppio legame di Bateson. Ho poi instaurato una sorta di relazione terapeutica, alternando approvazione e critica, restando coerente con la presunta patologia. È una forma di dialogo che, nella teoria, può condurre

