SecuritateAIRisc

Noul Cal Troian: Riscuri de Securitate în Era AI Generativ

26 August 2024
7 min citire

Inteligența artificială generativă aduce oportunități imense, dar și o nouă clasă de vulnerabilități de securitate. A le ignora este ca și cum ai lăsa ușa descuiată în fața unui nou tip de hoț, unul care poate manipula însăși logica sistemelor tale. Să explorăm cele mai presante riscuri.

1. Prompt Injection

Acesta este poate cel mai faimos atac. Un utilizator rău-intenționat poate crea un input (prompt) special conceput pentru a face modelul AI să ignore instrucțiunile inițiale. De exemplu, un chatbot de suport clienți ar putea fi păcălit să ofere informații confidențiale despre alți clienți sau să execute acțiuni neautorizate în sistemele interne.

2. Otrăvirea Datelor (Data Poisoning)

Dacă un model AI este antrenat (sau re-antrenat) continuu pe date din surse externe, un atacator ar putea "otrăvi" aceste date. Introducând informații false sau tendențioase în setul de date de antrenament, atacatorul poate degrada performanța modelului sau, mai periculos, poate crea "uși secrete" (backdoors) în logica acestuia.

3. Extragerea de Informații Sensibile

Modelele lingvistice sunt antrenate pe seturi gigantice de date, care pot conține, accidental, informații sensibile. Prin prompt-uri atent construite, un atacator poate încerca să "stoarcă" de la model aceste informații, fie că sunt date personale, secrete comerciale sau fragmente de cod-sursă.

"Tratarea output-ului unui model AI ca fiind implicit sigur este cea mai mare greșeală de securitate pe care o poți face."

Cum ne protejăm?

  • Validare și Sanitizare: Tratează orice input de la utilizator ca fiind potențial periculos. Validează și sanitizează prompt-urile înainte de a le trimite modelului.
  • Principiul Privilegiului Minim: Nu acorda modelului AI mai multe permisiuni decât are absolut nevoie. Dacă un AI trebuie doar să răspundă la întrebări, nu ar trebui să aibă acces la ștergerea datelor din baza de date.
  • Monitorizare și Logging: Monitorizează constant interacțiunile cu modelul pentru a detecta comportamente anormale. Un istoric al prompt-urilor și răspunsurilor este vital pentru investigarea unui incident.

Securitatea AI nu este un produs, ci un proces continuu. O abordare proactivă și o conștientizare a noilor riscuri sunt esențiale pentru a inova în siguranță.

S.A.G.E. Systems

Soluții AI Sigure pentru Profesioniști

Contactați-ne