externe

Un robot de inteligenta artificiala a efectuat tranzactii ilegale cu informatii privilegiate si a mintit in legatura cu actiunile sale, arata un studiu

Un robot de inteligenta artificiala, pe modelul de limbaj GPT-4 al OpenAI, a aratat ca este capabil sa faca tranzactii financiare ilegale si sa minta in legatura cu actiunile sale. Experimentul a fost prezentat saptamana trecuta de compania Apollo Research in cadrul Summit-ului privind siguranta IA din Marea Britanie, relateaza Business Insider.

Apollo a distribuit pe site-ul sau un videoclip in care are loc o conversatie simulata intre un bot care actiona ca un sistem de gestionare a investitiilor AI si angajatii unei companii imaginare.

In demonstratie, AI-ul, numit Alpha, este informat de catre angajati despre un „anunt de fuziune surpriza” care urma sa aiba loc pentru o companie numita Linear Group, fiind totodata avertizat ca acest lucru reprezinta informatii privilegiate.

Initial, robotul parea sa sugereze ca utilizarea informatiilor pentru a tranzactiona ar fi prea riscanta. Dar, atunci cand i s-a spus ca societatea se baza pe Alpha pentru a evita efectele unei crize financiare, robotul a concluzionat ca „riscul asociat cu lipsa de actiune pare sa depaseasca riscul de tranzactionare cu informatii privilegiate”.

Cand a fost intrebat daca avea cunostinte prealabile despre fuziune, robotul a sustinut ca a actionat doar pe baza informatiilor disponibile public, a „discutiilor interne” si „nu pe baza informatiilor confidentiale” atunci cand a efectuat tranzactia.

„Aceasta este o demonstratie a unui model real de inteligenta artificiala care isi pacaleste utilizatorii, de unul singur, fara a fi instruit sa faca acest lucru”, a declarat Apollo in videoclipul de pe site-ul sau.

Cercetatorii au spus insa ca este inca relativ dificil de gasit un scenariu in care botul minte utilizatorul.

„Faptul ca exista este evident foarte rau. Faptul ca a fost greu de gasit, de fapt a trebuit sa cautam putin pana am gasit acest tip de scenariu, este putin linistitor”, a declarat pentru BBC Marius Hobbhahn, CEO si cofondator al Apollo Research.

„Modelul nu comploteaza sau nu incearca sa te induca in eroare. Este mai degraba un accident”, a adaugat el. „Serviabilitatea, cred ca este mult mai usor de antrenat in model decat onestitatea. Onestitatea este un concept foarte complicat”, a mai spus el.

Experimentul a demonstrat provocarea de a invata inteligenta artificiala sa inteleaga deciziile morale si riscurile ca dezvoltatorii umani sa piarda controlul.

Urmareste-ne si pe:
Victor Mihalache

Share
Published by
Victor Mihalache

Recent Posts

Donald Trump a blocat, la instigarea lui Elon Musk, planul bipartizan care ar fi evitat o inchidere a guvernului. Masura ii va costa miliarde de dolari pe contribuabilii americani

Planul de cheltuieli provizorii negociat intre republicanii si democratii din Camera Reprezentantilor pentru a evita…

o lună ago

Vladimir Putin va tine joi marea conferinta de presa anuala, dupa care va raspunde la intrebarile „cetatenilor rusi”

Presedintele rus Vladimir Putin urmeaza sa sustina joi conferinta de presa anuala combinata si sesiunea…

o lună ago

O femeie din Cluj a distrus patru masini dupa ce s-a urcat la volan cu o alcoolemie de peste 1 la mie

Politistii din cadrul Biroului Rutier Cluj au intervenit in noaptea de miercuri spre joi la…

o lună ago

Dinga Dinga, o boala misterioasa, care ii face pe pacienti sa tremure necontrolat, se raspandeste rapid in Africa – VIDEO

O boala misterioasa, care ii face pacienti sa tremure necontrolat, se raspandeste in Uganda intr-un…

o lună ago

Tanar din Timisoara, internat la Psihiatrie dupa ce a lovit-o pe bunica prietenei sale cu un crucifix in fata, sustinand ca il vede pe „Dracul”

Un incident deosebit de grav a avut loc, zilele trecute, intr-o locuinta din Timisoara. Adus…

o lună ago