Iniezione di Prompt: Il Maggiore Rischio di Sicurezza nelle Applicazioni AI
Un avvocato ha presentato un breve a una corte federale citando sei casi. Nessuno di essi esisteva. ChatGPT li aveva inventati — completi di nomi di casi realistici, numeri di fascicolo e ragionamenti legali plausibili. L’avvocato è stato sanzionato. La storia ha fatto notizia a livello nazionale. E illustra perfettamente perché l’inserimento di prompt rappresenta il problema di sicurezza che affligge l’IA.