Projekt OWASP (Open Web Application Security Project) opublikował listę 10 najważniejszych zagrożeń specyficznych dla aplikacji opartych na LLM. Zrozumienie tych ryzyk jest kluczowe dla budowania bezpiecznych systemów AI.
Kluczowe zagrożenia
LLM01: Prompt Injection
Manipulacja wejściem modelu w celu ominięcia zabezpieczeń. Może prowadzić do wycieku danych lub wykonania nieautoryzowanych akcji.
LLM02: Insecure Output Handling
Brak walidacji wyjścia modelu przed przekazaniem go do innych komponentów systemu (np. bazy danych, przeglądarki użytkownika). Może prowadzić do XSS lub SQL Injection.
LLM03: Training Data Poisoning
Zatruwanie danych treningowych w celu wprowadzenia ukrytych błędów lub tylnych furtek (backdoors) do modelu.
LLM06: Sensitive Information Disclosure
Ujawnienie przez model wrażliwych danych (PII, hasła), na których był trenowany, w odpowiedzi na sprytne zapytania użytkownika.
Podsumowanie
Bezpieczeństwo aplikacji LLM wymaga nowego podejścia. Tradycyjne metody (jak firewall) są niewystarczające. Konieczne jest stosowanie podejścia "Defense in Depth", obejmującego walidację wejścia/wyjścia, monitoring i regularne testy penetracyjne.