AcasăTEHNOLOGIEPericolul Deepfake în era inteligenței artificiale

Pericolul Deepfake în era inteligenței artificiale

Creșterea rapidă a deepfakes, în special a celor utilizate pentru hărțuire sexuală, fraudă și manipulare politică, reprezintă o amenințare existențială la adresa discursului public

Imaginați-vă experiența de a vă auzi propria voce manipulată pentru a răspândi minciuni sau de a vă vedea fața contorsionată într-un videoclip fabricat, distrugându-vă instantaneu reputația. Aceasta este realitatea terifiantă a deepfakes, conținutul generat de inteligența artificială, care poate imita pe oricine cu o acuratețe alarmantă.

În timp ce dezvoltatorii susțin că tehnologia lor evoluează și că greșelile sunt inevitabile, creșterea rapidă a deepfakes, în special a celor utilizate pentru hărțuire sexuală, fraudă și manipulare politică, reprezintă o amenințare existențială la adresa discursului public.Potrivit Modern Diplomacy, numărul total de deepfake-uri a crescut cu 550% din 2019 până în 2023.

În contextul în care se apropie alegerile în jumătate din lume, potențialul ca deepfakes să semene discordie și să submineze încrederea în instituții este mai semnificativ ca niciodată. Inițiative precum „Acordul tehnic pentru combaterea utilizării înșelătoare a inteligenței artificiale în alegerile din 2024” în cadrul Conferinței de securitate de la München (MSC) reprezintă un efort lăudabil de a face față provocărilor prezentate de deepfakes în procesele electorale.

Tehnologia deepfake avansează rapid, ceea ce reprezintă o provocare continuă pentru detectare. Eficacitatea acordului depinde de capacitatea acestuia de a ține pasul cu aceste evoluții. Faptul că se bazează pe autoreglementarea din partea companiilor din domeniul tehnologiei ridică probleme legate de potențialele prejudecăți în ceea ce privește punerea în aplicare, subliniind necesitatea unei supravegheri transparente și imparțiale.

Rămân multe incertitudini, în special în ceea ce privește răspunderea juridică și dacă cadrul actual este suficient pentru a aborda riscurile în evoluție pe care le prezintă deepfakes.

Înființarea Oficiului UE pentru IA la 21 februarie 2024 marchează un pas important în promovarea practicilor responsabile în cadrul Uniunii Europene. Una dintre funcțiile-cheie ale Biroului IA este de a încuraja și de a facilita elaborarea de coduri de practică la nivelul Uniunii pentru a facilita punerea în aplicare efectivă a obligațiilor legate de detectarea și etichetarea conținutului generat artificial sau manipulat.

În general, legislația UE sugerează o abordare proactivă a problemei deepfakes și a textelor generate de inteligența artificială. Însă există aspecte controversate, cum ar fi claritatea și specificitatea.

Impactul acestui regulament într-un context global mai larg de dezvoltare a inteligenței artificiale trebuie luat în considerare și trebuie abordate următoarele întrebări: Care sunt consecințele potențiale ale nerespectării? Cum va fi monitorizată și evaluată eficacitatea regulamentului? Cum poate fi încorporată contribuția părților interesate în elaborarea și punerea în aplicare a acestor norme?

Deepfakes sunt clasificate în prezent ca sisteme de IA cu „risc limitat” în Legea privind inteligența artificială. Acest lucru înseamnă că se confruntă cu mai puține reglementări în comparație cu sistemele cu „risc ridicat”, cum ar fi IA medicală sau recunoașterea facială.

Legea nu stabilește un cadru clar pentru răspunderea juridică a dezvoltatorilor de tehnologii deepfake, pune accentul pe măsuri preventive mai degrabă decât pe măsuri punitive.

Pledoaria pentru incriminarea deepfakes pentru utilizatorii finali ar putea fi o abordare pentru a atenua impactul negativ al acestei tehnologii. Prin impunerea unor consecințe juridice pentru persoanele care creează sau difuzează deepfakes cu intenții rău intenționate, factorii de decizie politică pot descuraja proliferarea conținutului dăunător și îi pot trage la răspundere pe făptași pentru acțiunile lor.

Incriminarea deepfakes ar putea servi, de asemenea, drept factor de descurajare împotriva utilizării abuzive a acestei tehnologii în activități frauduloase, manipulări politice sau în alte scopuri.

author avatar
Radu Jacotă
338 afisari

1 COMENTARIU

Comments are closed.

Zenville