Tehnologiile bazate pe inteligenta artificiala (AI) ar putea genera o crestere economica globala de 14% (15,7 trilioane de dolari) pana in 2030, potrivit unui studiu realizat de PwC, ca urmare a cresterii productivitatii din automatizarea proceselor. De la asistentii personali ai telefoanelor mobile la tot ce inseamna personalizare in interactiunile comerciale si detectarea fraudelor si de la automatizarea unor procese si activitati la strategii de lansare pe piata a noilor produse, AI va atinge aproape fiecare aspect al vietii noastre.
Si daca in prezent, inteligenta artificiala automatizeaza sarcini care necesita si implicare umana, cercetatorii si companiile de tehnologie din intreaga lume se straduiesc sa obtina o inteligenta artificiala autonoma, care sa nu necesite interventia umana pentru a lua decizii extrem de complexe. Acest lucru va insemna noi modele de afaceri, fie ca este vorba de servicii financiare, sanatate, energie, industrie sau media si divertisment.
Insa, odata cu numeroasele beneficii descrise deja de literatura de specialitate, adoptarea inteligentei artificiale generative aduce atat riscuri la nivel de utilizare a aplicatiilor software - cum ar fi riscul de operare (de exemplu erori, operare instabila), de securitate (frauda, atacuri cibernetice), riscuri legate de controlul acesteia (lipsa supravegherii umane, lipsa responsabilitatii clare) - cat si la nivel de organizatie/societale - riscul afacerii (reputatie, performanta financiara, juridic si conformitate, incalcarea drepturilor intelectuale), risc economic (pierderea locurilor de munca, polarizare) sau riscul societal in sine (manipulare si dezinformare, supraveghere si acte de razboi).
Modul in care vom evalua credibilitatea informatiilor din jurul nostru se va schimba si la fel si modul in care vom lua deciziile - imaginile false, informatiile eronate sau inexacte, incalcarea drepturilor de autor, sau modurile in care vor fi colectate datele confidentiale sau cu caracter personal vor fi mai multe si mai complexe decat cele cu care suntem obisnuiti astazi. In acelasi timp, viteza luarii deciziilor, sprijinita de digitalizare si imbunatatirea structurilor de date, va creste semnificativ.
Se dezvolta mai multe reglementari in domeniu
In prezent cea mai cunoscuta reglementare in vigoare, care vizeaza si partea de AI este Regulamentul General privind Protectia Datelor (GDPR), care stabileste insa doar modul de colectare, stocare, procesare si transfer al datelor cu caracter personal. Pentru sectorul financiar, se mai adauga alte doua, respectiv cerintele Bancii Centrale Europene, care impun entitatilor supravegheate sa puna in aplicare masuri eficiente de gestionare a riscurilor in ceea ce priveste tertii si DORA, care vizeaza asigurarea rezilientei operationale si securitatea cibernetica in sectorul financiar european pentru a fi capabil sa reziste in cazul unor perturbari operationale grave.
In 2024, este asteptat actul UE privind inteligenta artificiala, care va reglementa dezvoltarea si implementarea inteligentei artificiale in UE. Astfel, furnizorii de inteligenta artificiala trebuie sa evalueze si sa atenueze riscurile, sa respecte cerintele de proiectare, de informare si de mediu si sa se inregistreze in baza de date a UE. Inteligenta artificiala utilizata in furnizarea de servicii financiare va fi clasificata ca fiind de risc ridicat.
Iar la stadiul de propunere se afla Directiva privind raspunderea civila (AILD). Prin urmare, in cazul in care un sistem de inteligenta artificiala provoaca un prejudiciu unei persoane, dezvoltatorii unui astfel de sistem pot fi trasi la raspundere pentru aceste prejudicii.
Cum pot companiile sa valorifice inteligenta artificiala fara a pune in pericol increderea clientilor, actionarilor si investitorilor? Cateva masuri propuse de catre PwC:
Riscurile asociate inteligentei artificiale nu sunt inca un subiect in majoritatea consiliilor de administratie - raspunsurile executivilor din companiile intervievate in PwC’s 2023 Trust Survey au prioritizat riscurile asociate cu inteligenta artificiala cu mult sub alte amenintari cum ar fi cele de natura cibernetica (incalcarea securitatii datelor sau un atac ransomware), cel mai probabil datorita gradului incipient de dezvoltare al acestei tehnologii. Acest lucru se va schimba insa in curand si de aceea, detaliem mai jos cateva recomandari pe care administratorii sau executivii le pot utiliza in pregatirea organizatiilor pe care le conduc:
Stabiliti prioritati bazate pe riscuri. Unele riscuri generate de inteligenta artificiala sunt mai importante decat altele. Ajustati sau stabiliti reguli astfel incat echipele de guvernanta, transformare digitala dar si de conformitate, risc si audit intern sa acorde o atentie sporita celor mai mari riscuri.
Imbunatatirea protectiei cibernetice, a datelor si a confidentialitatii. Actualizati protocoalele de securitate cibernetica, guvernanta a datelor si confidentialitate pentru a contribui la atenuarea riscurilor ca inteligenta artificiala generativa a hackerilor sa aiba acces la date private, sa expuna identitati sau sa realizeze atacuri cibernetice. Implementati un proces de analiza al modului in care furnizorii aplicatiilor si site-urile utilizate de catre organizatia dumneavoastra, si care folosesc inteligenta artificiala generativa, colecteaza, stocheaza si transfera datele confidentiale sau importante pentru activitatea companiei.
Abordarea riscului de ne-reglementare. In cazul unor sisteme de inteligenta artificiala generativa, “modelul de baza” utilizat pentru a produce rezultate nu este dezvaluit sau usor accesibil utilizatorilor, ceea ce face imposibila deslusirea motivelor pentru care un sistem a generat anumite rezultate. Identificati aceste sisteme si luati in considerare ce practici pot sprijini corectitudinea, acuratetea si conformitatea lor.
Pregatirea angajatilor implicati pentru utilizarea si supravegherea responsabila. Invatati-i pe angajati notiunile de baza despre cum functioneaza inteligenta artificiala generativa - si, de asemenea, cand sa o utilizati si cand nu. De asemenea, acestia vor trebui sa invete cand si cum sa verifice sau sa modifice rezultatele. Oferiti echipelor de conformitate si juridice abilitati si aplicatii IT pentru a identifica incalcarile proprietatii intelectuale si alte riscuri conexe, consolidand liniile directoare de guvernanta a AI si alte structuri de guvernanta (de exemplu, confidentialitate si securitate cibernetica) care pot fi deja in vigoare.
Monitorizati partile terte. Aflati care dintre furnizorii dvs. furnizeaza continut sau servicii care utilizeaza inteligenta artificiala generativa, cum gestioneaza riscurile aferente si care ar putea fi posibila dvs. expunere.
Adaugati supravegherea automata. Luati in considerare instrumente software pentru a identifica continutul generat de AI, pentru a-i verifica acuratetea, pentru a-l evalua in ceea ce priveste partinirea sau incalcarea confidentialitatii si pentru a adauga avertismente, dupa caz.
Urmariti evolutia discutiilor privind reglementarea. Factorii de decizie politica din intreaga lume emit tot mai multe directii de reglementare privind dezvoltarea si utilizarea AI. Aceste indrumari sunt inca un mozaic, nu un cadru de reglementare complet.
*Autor: Mircea Bozga, Partener Auditul Riscului, PwC Romania.