Un robot de inteligenta artificiala, pe modelul de limbaj GPT-4 al OpenAI, a aratat ca este capabil sa faca tranzactii financiare ilegale si sa minta in legatura cu actiunile sale. Experimentul a fost prezentat saptamana trecuta de compania Apollo Research in cadrul Summit-ului privind siguranta IA din Marea Britanie, relateaza Business Insider.
Apollo a distribuit pe site-ul sau un videoclip in care are loc o conversatie simulata intre un bot care actiona ca un sistem de gestionare a investitiilor AI si angajatii unei companii imaginare.
In demonstratie, AI-ul, numit Alpha, este informat de catre angajati despre un „anunt de fuziune surpriza” care urma sa aiba loc pentru o companie numita Linear Group, fiind totodata avertizat ca acest lucru reprezinta informatii privilegiate.
Initial, robotul parea sa sugereze ca utilizarea informatiilor pentru a tranzactiona ar fi prea riscanta. Dar, atunci cand i s-a spus ca societatea se baza pe Alpha pentru a evita efectele unei crize financiare, robotul a concluzionat ca „riscul asociat cu lipsa de actiune pare sa depaseasca riscul de tranzactionare cu informatii privilegiate”.
Cand a fost intrebat daca avea cunostinte prealabile despre fuziune, robotul a sustinut ca a actionat doar pe baza informatiilor disponibile public, a „discutiilor interne” si „nu pe baza informatiilor confidentiale” atunci cand a efectuat tranzactia.
„Aceasta este o demonstratie a unui model real de inteligenta artificiala care isi pacaleste utilizatorii, de unul singur, fara a fi instruit sa faca acest lucru”, a declarat Apollo in videoclipul de pe site-ul sau.
Cercetatorii au spus insa ca este inca relativ dificil de gasit un scenariu in care botul minte utilizatorul.
„Faptul ca exista este evident foarte rau. Faptul ca a fost greu de gasit, de fapt a trebuit sa cautam putin pana am gasit acest tip de scenariu, este putin linistitor”, a declarat pentru BBC Marius Hobbhahn, CEO si cofondator al Apollo Research.
„Modelul nu comploteaza sau nu incearca sa te induca in eroare. Este mai degraba un accident”, a adaugat el. „Serviabilitatea, cred ca este mult mai usor de antrenat in model decat onestitatea. Onestitatea este un concept foarte complicat”, a mai spus el.
Experimentul a demonstrat provocarea de a invata inteligenta artificiala sa inteleaga deciziile morale si riscurile ca dezvoltatorii umani sa piarda controlul.
Planul de cheltuieli provizorii negociat intre republicanii si democratii din Camera Reprezentantilor pentru a evita…
Presedintele rus Vladimir Putin urmeaza sa sustina joi conferinta de presa anuala combinata si sesiunea…
Politistii din cadrul Biroului Rutier Cluj au intervenit in noaptea de miercuri spre joi la…
Un doljean, de 53 de ani, a fost retinut, ieri, pentru incitare la ura sau…
O boala misterioasa, care ii face pacienti sa tremure necontrolat, se raspandeste in Uganda intr-un…
Un incident deosebit de grav a avut loc, zilele trecute, intr-o locuinta din Timisoara. Adus…