Hackerare un chatbot? Scopriamo la “Prompt Injection” che ha fatto divulgare informazioni riservate di Microsoft

Gli ultimi chatbot che utilizzano l’intelligenza artificiale con l’apprendimento automatico sono intrinsecamente imperfetti. Non solo possono sbagliarsi di tanto in tanto nelle loro risposte, ma sono anche molto facili da ingannare.  Ad esempio, forzare la fuoriuscita di tutti i dati sensibili interni a cui il bot ha accesso. Non molto tempo fa, Microsoft ha introdotto il suo motore di ricerca … Leggi tutto Hackerare un chatbot? Scopriamo la “Prompt Injection” che ha fatto divulgare informazioni riservate di Microsoft