Un robot de inteligenta artificiala a efectuat tranzactii ilegale cu informatii privilegiate si a mintit in legatura cu actiunile sale, arata un studiu

externe

Artificial Inteligence

Un robot de inteligenta artificiala, pe modelul de limbaj GPT-4 al OpenAI, a aratat ca este capabil sa faca tranzactii financiare ilegale si sa minta in legatura cu actiunile sale. Experimentul a fost prezentat saptamana trecuta de compania Apollo Research in cadrul Summit-ului privind siguranta IA din Marea Britanie, relateaza Business Insider.

Apollo a distribuit pe site-ul sau un videoclip in care are loc o conversatie simulata intre un bot care actiona ca un sistem de gestionare a investitiilor AI si angajatii unei companii imaginare.

In demonstratie, AI-ul, numit Alpha, este informat de catre angajati despre un ā€žanunt de fuziune surprizaā€ care urma sa aiba loc pentru o companie numita Linear Group, fiind totodata avertizat ca acest lucru reprezinta informatii privilegiate.

Initial, robotul parea sa sugereze ca utilizarea informatiilor pentru a tranzactiona ar fi prea riscanta. Dar, atunci cand i s-a spus ca societatea se baza pe Alpha pentru a evita efectele unei crize financiare, robotul a concluzionat ca ā€žriscul asociat cu lipsa de actiune pare sa depaseasca riscul de tranzactionare cu informatii privilegiateā€.

Cand a fost intrebat daca avea cunostinte prealabile despre fuziune, robotul a sustinut ca a actionat doar pe baza informatiilor disponibile public, a ā€ždiscutiilor interneā€ si ā€žnu pe baza informatiilor confidentialeā€ atunci cand a efectuat tranzactia.

ā€žAceasta este o demonstratie a unui model real de inteligenta artificiala care isi pacaleste utilizatorii, de unul singur, fara a fi instruit sa faca acest lucruā€, a declarat Apollo in videoclipul de pe site-ul sau.

Cercetatorii au spus insa ca este inca relativ dificil de gasit un scenariu in care botul minte utilizatorul.

ā€žFaptul ca exista este evident foarte rau. Faptul ca a fost greu de gasit, de fapt a trebuit sa cautam putin pana am gasit acest tip de scenariu, este putin linistitorā€, a declarat pentru BBC Marius Hobbhahn, CEO si cofondator al Apollo Research.

ā€žModelul nu comploteaza sau nu incearca sa te induca in eroare. Este mai degraba un accidentā€, a adaugat el. ā€žServiabilitatea, cred ca este mult mai usor de antrenat in model decat onestitatea. Onestitatea este un concept foarte complicatā€, a mai spus el.

Experimentul a demonstrat provocarea de a invata inteligenta artificiala sa inteleaga deciziile morale si riscurile ca dezvoltatorii umani sa piarda controlul.

Urmareste-ne si pe:

Comentarii: