life

Video AI cu Ion Iliescu in 2099: „Romania s-a schimbat mai mult decat mi-as fi imaginat vreodata”

Un video realizat cu instrumente ale Inteligentiei Artificiale, in care apare Ion Iliescu in anul 2099, in posturi realiste, a devenit viral pe retelele de socializare.

Filmarea a fost realizata de Aurel Manea. „Dupa 12 ore de munca (inclusiv toata noaptea asta), facut dataseturi, trainat 2 modele, clonat voci, luptat 7 Softuri de AI si o leaca de Davinci Resolve am reusit sa fac asta”, a explicat Manea.

Iata filmarea:

Ion Iliescu s-a nascut pe 3 martie 1930. In anul 2099, el ar avea 169 de ani.

In luna martie, Parlamentul European a aprobat Legea privind inteligenta artificiala, care garanteaza siguranta si respectarea drepturilor fundamentale si stimuleaza inovatia.

Regulamentul, convenit in decembrie 2023 in cadrul negocierilor cu statele membre, a fost adoptat de deputatii europeni cu 523 voturi pentru, 46 impotriva si 49 abtineri.

El urmareste sa protejeze drepturile fundamentale, democratia, statul de drept si sustenabilitatea mediului in fata sistemelor de IA cu grad ridicat de risc. Actul legislativ vizeaza si sa incurajeze inovatia si sa asigure un rol de lider in domeniu pentru Europa. Regulamentul impune obligatii in cazul inteligentei artificiale, in functie de riscurile sale potentiale si de impactul preconizat.

Noile norme interzic anumite utilizari ale inteligentei artificiale care ameninta drepturile cetatenilor, inclusiv sistemele biometrice de clasificare bazate pe caracteristicile sensibile ale persoanelor. Extragerea fara scop precis a imaginilor faciale de pe internet ori din inregistrarile camerelor video cu circuit inchis pentru a crea baze de date de recunoastere faciala se numara si ea printre utilizarile interzise. Nu vor fi permise nici recunoasterea emotiilor la locul de munca si in scoli, atribuirea unui punctaj social, sistemele de politie predictiva (cand acestea se bazeaza doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale) si IA care manipuleaza comportamentul uman sau exploateaza vulnerabilitatile oamenilor.

Folosirea sistemelor de identificare biometrica de catre organele de aplicare a legii este in principiu interzisa, cu exceptia unor situatii enumerate in mod exhaustiv si definite in mod strict. Sistemele de identificare biometrica „in timp real” pot fi instalate doar daca se respecta garantii stricte, de exemplu, daca folosirea lor este limitata in timp si geografic si este aprobata in prealabil de o autoritate judiciara sau de un organ administrativ. Ele pot fi folosite, de pilda, pentru a cauta o persoana disparuta sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto (sistemele de identificare biometrica „ulterioara”) este considerata un caz de utilizare cu grad ridicat de risc si este posibila doar in virtutea emiterii unei autorizatii judiciare legate de o infractiune penala.

Textul prevede si obligatii clare pentru alte sisteme de IA cu grad ridicat de risc, din cauza potentialului lor ridicat de a afecta negativ sanatatea, siguranta, drepturile fundamentale, mediul, democratia si statul de drept. Iata cateva exemple de utilizari ale IA care prezinta un grad ridicat de risc: infrastructura critica, educatia si formarea profesionala, serviciile publice si private esentiale (sanatatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migratia si gestionarea frontierelor, justitia si procesele democratice (de exemplu, pentru a preveni influentarea alegerilor). Aceste sisteme trebuie sa evalueze si sa reduca riscurile, sa mentina asa-numite „fisiere de jurnalizare” care permit inregistrarea automata a evenimentelor, sa fie transparente si precise si sa faca obiectul supravegherii umane. Cetatenii vor avea dreptul sa depuna plangeri in legatura cu sistemele de IA si sa primeasca explicatii despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care le afecteaza drepturile.

Sistemele de inteligenta artificiala de uz general si modelele de IA de uz general pe care se bazeaza acestea trebuie sa respecte anumite cerinte in materie de transparenta, inclusiv legislatia UE in domeniul drepturilor de autor si publicarea unor rezumate detaliate ale continutului utilizat la antrenarea modelelor de IA. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor trebui sa respecte cerinte suplimentare, inclusiv privind evaluarea modelelor, evaluarea si reducerea riscurilor sistemice si raportarea incidentelor.

In plus, imaginile si continuturile audio si video artificiale sau manipulate (de tip „deepfake”) trebuie sa fie etichetate clar ca atare.

Urmareste-ne si pe:
Lavinia Popa

Share
Published by
Lavinia Popa

Recent Posts

Donald Trump a blocat, la instigarea lui Elon Musk, planul bipartizan care ar fi evitat o inchidere a guvernului. Masura ii va costa miliarde de dolari pe contribuabilii americani

Planul de cheltuieli provizorii negociat intre republicanii si democratii din Camera Reprezentantilor pentru a evita…

o lună ago

Vladimir Putin va tine joi marea conferinta de presa anuala, dupa care va raspunde la intrebarile „cetatenilor rusi”

Presedintele rus Vladimir Putin urmeaza sa sustina joi conferinta de presa anuala combinata si sesiunea…

o lună ago

O femeie din Cluj a distrus patru masini dupa ce s-a urcat la volan cu o alcoolemie de peste 1 la mie

Politistii din cadrul Biroului Rutier Cluj au intervenit in noaptea de miercuri spre joi la…

o lună ago

Dinga Dinga, o boala misterioasa, care ii face pe pacienti sa tremure necontrolat, se raspandeste rapid in Africa – VIDEO

O boala misterioasa, care ii face pacienti sa tremure necontrolat, se raspandeste in Uganda intr-un…

o lună ago

Tanar din Timisoara, internat la Psihiatrie dupa ce a lovit-o pe bunica prietenei sale cu un crucifix in fata, sustinand ca il vede pe „Dracul”

Un incident deosebit de grav a avut loc, zilele trecute, intr-o locuinta din Timisoara. Adus…

o lună ago