În anul 2022, vorbeam despre impactul promiţător, dar pe atunci încă ipotetic, al inteligenţei artificiale generative asupra domeniului resurselor umane – de la recrutare şi evaluarea performanţei până la deciziile privind promovarea – precum şi despre posibilele implicaţii ale proiectului de Regulament european privind inteligenţa artificială („Actul privind Inteligenţa Artificială” sau „AI Act”).
Astăzi, inteligenţa artificială generativă nu mai este o ambiţie de viitor. Companiile multinaţionale integrează rapid instrumente de inteligenţă artificială în activităţile zilnice: de la crearea de conţinut şi analiza datelor până la luarea automată a deciziilor. Ceea ce cândva părea o preocupare juridică teoretică a devenit o provocare concretă de conformitate, având în vedere publicarea AI Act în 2024 şi aplicarea sa integral preconizată până în august 2026.
Pe măsură ce ne apropiem de 2026, întrebarea reală nu mai este dacă trebuie folosită inteligenţa artificială, ci dacă oamenii din organizaţie ştiu cum să o folosească. Angajatorii nu mai pot trata IA ca pe un subiect de viitor: ea este deja aici, este puternică şi, mai mult ca oricând, este supusă răspunderii.
1. ÎNŢELEGEREA RISCURILOR
Companiile se concentrează tot mai mult pe integrarea celor mai noi instrumente bazate pe inteligenţă artificială, însă nu este nevoie să fii specialist pentru a şti că implementarea acestor instrumente fără a pregăti corespunzător angajaţii reprezintă o reţetă pentru dezastru: date părtinitoare care pot conduce la discriminare, încălcări ale confidenţialităţii, interpretări eronate ale rezultatelor generate de IA şi o dependenţă excesivă de automatizare.
Aceste riscuri se pot materializa în moduri diferite, în funcţie de tipul de instrument IA utilizat.
Dacă organizaţia utilizează instrumente IA proprii, riscurile se concentrează asupra configurării sistemului, gradului de transparenţă şi nivelului de înţelegere pe care îl au angajaţii privind utilizarea responsabilă a acestora.
Pe de altă parte, tot mai mulţi angajaţi folosesc instrumente precum ChatGPT, Copilot sau Gemini pentru sarcinile lor zilnice: redactarea de e-mailuri, brainstorming, rezumarea documentelor, generarea de idei sau asistenţă în scrierea de cod. Utilizarea tot mai frecventă a acestor instrumente aduce cu sine propriile riscuri: date interne sensibile pot fi partajate neintenţionat către sisteme terţe, rezultatele pot conţine erori factuale sau prejudecăţi integrate, iar obligaţiile privind drepturile de autor, confidenţialitatea sau protecţia datelor pot fi încălcate fără intenţie.
Indiferent dacă instrumentul este furnizat de companie sau accesat individual, elementul comun rămâne comportamentul uman. Fără politici interne clare şi o conştientizare adecvată, chiar şi cele mai avansate sisteme pot deveni surse de răspundere juridică, nu de inovaţie.
2. TRANSFORMAREA RISCURILOR LEGATE DE IA ÎN POLITICI INTERNE
Indiferent de tipul de instrumente IA utilizate de angajaţi, o politică internă privind utilizarea inteligenţei artificiale nu mai este opţională. Aceasta reprezintă cel mai eficient mijloc de a asigura alinierea la reglementările în vigoare şi de a reduce riscurile operaţionale şi reputaţionale.
O politică internă privind IA ar trebui să:
-
Definească utilizările acceptabile ale instrumentelor de IA (atât pentru cele furnizate de companie, cât şi pentru cele terţe);
-
Stabilească modul şi momentele în care este necesară supravegherea umană, în special în deciziile cu impact major;
-
Precizeze limite clare privind datele ce pot fi introduse în sistemele IA, în special în ceea ce priveşte informaţiile confidenţiale, proprietatea intelectuală şi datele cu caracter personal;
-
Prevadă canale de escaladare pentru incidente legate de IA;
-
Stabilească sancţiuni corespunzătoare pentru încălcarea obligaţiilor referitoare la IA;
-
Coreleze politica de IA cu obligaţiile prevăzute de AI Act şi de legislaţia aplicabilă în materie de protecţia datelor.
Mai mult decât un simplu document de conformitate, o politică bine concepută oferă angajaţilor claritate şi transparenţă, protejând în acelaşi timp angajatorul împotriva riscurilor juridice, prejudiciilor de imagine şi îngrijorărilor părţilor terţe.
3. INSTRUIREA ANGAJAŢILOR ÎN ERA INTELIGENŢEI ARTIFICIALE
Chiar şi cea mai bună politică este eficientă doar în măsura în care persoanele vizate o aplică în mod corect. De aceea, angajatorii trebuie să investească activ în dezvoltarea competenţelor digitale şi a alfabetizării în domeniul IA la toate nivelurile organizaţiei.
Indiferent dacă folosesc instrumente IA puse la dispoziţie de companie sau aplicaţii externe, angajaţii trebuie să ştie ce tipuri de date pot fi introduse în siguranţă, cum să evalueze critic conţinutul generat de IA, când este necesară validarea umană şi cum să raporteze abaterile sau rezultatele neaşteptate.
Programele de instruire trebuie adaptate în funcţie de rolul angajatului, nivelul său tehnic şi contextul de utilizare a instrumentului.
Eforturile de formare nu ar trebui să se limiteze la departamentele IT sau juridice – conştientizarea privind IA trebuie să devină un element esenţial al culturii organizaţionale.
4. CAZUL SPECIAL AL APLICAŢIILOR DE HR BAZATE PE IA
Deşi inteligenţa artificială poate aduce eficienţă, sistemele IA utilizate în luarea deciziilor legate de angajare (de exemplu, recrutare, evaluarea performanţei, decizii de promovare, concediere etc.) necesită o atenţie deosebită, întrucât sunt clasificate drept sisteme cu risc ridicat potrivit AI Act. Aceste instrumente vor fi permise doar în condiţii stricte, ce includ cerinţe de documentare, transparenţă şi supraveghere umană.
Sistemele de recunoaştere a emoţiilor la locul de muncă, care încearcă să deducă starea mentală sau emoţională a unei persoane pe baza expresiilor faciale sau a tonului vocii, sunt în mod expres interzise.
În acest context, profesioniştii din domeniul resurselor umane trebuie să joace un rol central, fiind implicaţi nu doar în implementarea şi utilizarea acestor sisteme, ci şi în guvernanţa internă privind IA.
5. CE TREBUIE SĂ FACĂ ANGAJATORII ÎNCĂ DE ACUM
Pe măsură ce se apropie momentul aplicării integrale a AI Act, organizaţiile trebuie să adopte o abordare proactivă:
-
să identifice sistemele IA utilizate în prezent;
-
să le clasifice în funcţie de nivelul de risc;
-
să evalueze riscurile juridice şi operaţionale;
-
să implementeze politici interne adecvate;
-
şi să investească în programe de instruire adaptate fiecărui rol.
Inteligenţa artificială transformă fundamental mediul de lucru. Succesul se va măsura prin capacitatea organizaţiilor de a înţelege, gestiona şi comunica schimbarea – la toate nivelurile. În era IA, fiecare angajat este parte a soluţiei.







