externe

Cum arata un test al armatei americane de utilizare a Inteligentei Artificiale pe campul de lupta. Sfaturi instantanee: „Capturati podul”

Oamenii de stiinta de la Laboratorul de cercetare al armatei americane testeaza tehnologia OpenAI pentru a vedea daca aceasta le poate imbunatati abilitatile de planificare a luptei, relateaza Interesting Engineering.

In loc de tactici de moda veche, ei testeaza chatboti AI comerciali in contextul unui joc video militar stiintifico-fantastic numit Starcraft II.

In cadrul experimentului recent, cercetatorii din armata au creat un scenariu nu foarte complicat, cu o mana de unitati militare si o cunoastere foarte clara a campului de lupta. Acestia au dat drumul la chatboti cu inteligenta artificiala pentru a actiona ca asistent al unui comandant militar virtual.

Acesti chatboti, alimentati de modelele GPT-4 Turbo si GPT-4 Vision de la OpenAI, au o misiune. Ei trebuie sa distruga toate fortele inamice si sa ocupe un punct crucial de pe harta.

Rapizi ca fulgerul, asistentii au propus mai multe cursuri de actiune. De exemplu, acestia i-au oferit jucatorului-comandant optiunea de a prelua controlul unui anumit pod.

Inainte de aceasta, OpenAI si-a actualizat politicile in ianuarie 2024 pentru a permite anumite aplicatii militare. Cu toate acestea, a existat o restrictie privind joaca cu dezvoltarea de arme si ranirea oamenilor.

Josh Wallin de la Center for a New American Security din Washington, D.C., subliniaza ca a avea consilieri AI intr-un joc de razboi imaginar este un lucru, dar a te baza pe ei in conflicte complexe din viata reala este altceva.

„Aceasta idee ca vei folosi o inteligenta artificiala care iti va spune ‘iata planul tau strategic’, din punct de vedere tehnic, nu este fezabila in acest moment”, spune Wallin, „si cu siguranta nu este fezabila din punct de vedere etic sau juridic”, mai spune el.

Lauren Kahn de la Center for Security and Emerging Technology crede ca tehnologia nu este pregatita pentru aceste aplicatii de mare anvergura. „Sunt foarte ingrijorata de aceste tipuri de cazuri de utilizare”, a spus ea.

Vorbind de ingrijorari, Carol Smith de la Software Engineering Institute face o precizare cruciala. Oamenii ar putea urma orbeste sfaturile oferite de sistemele automate chiar si atunci cand au dovezi ca nu este cea mai buna cale de actiune.

Acest fenomen este cunoscut sub numele de prejudecata de automatizare. Cu alte cuvinte, doar pentru ca AI spune ceva, nu inseamna ca este corect. „Nu as recomanda utilizarea niciunui model lingvistic mare sau a unui sistem generativ de inteligenta artificiala pentru nicio situatie cu miza mare”, adauga Smith.

Urmareste-ne si pe:
Victor Mihalache

Share
Published by
Victor Mihalache

Recent Posts

Donald Trump a blocat, la instigarea lui Elon Musk, planul bipartizan care ar fi evitat o inchidere a guvernului. Masura ii va costa miliarde de dolari pe contribuabilii americani

Planul de cheltuieli provizorii negociat intre republicanii si democratii din Camera Reprezentantilor pentru a evita…

o lună ago

Vladimir Putin va tine joi marea conferinta de presa anuala, dupa care va raspunde la intrebarile „cetatenilor rusi”

Presedintele rus Vladimir Putin urmeaza sa sustina joi conferinta de presa anuala combinata si sesiunea…

o lună ago

O femeie din Cluj a distrus patru masini dupa ce s-a urcat la volan cu o alcoolemie de peste 1 la mie

Politistii din cadrul Biroului Rutier Cluj au intervenit in noaptea de miercuri spre joi la…

o lună ago

Dinga Dinga, o boala misterioasa, care ii face pe pacienti sa tremure necontrolat, se raspandeste rapid in Africa – VIDEO

O boala misterioasa, care ii face pacienti sa tremure necontrolat, se raspandeste in Uganda intr-un…

o lună ago

Tanar din Timisoara, internat la Psihiatrie dupa ce a lovit-o pe bunica prietenei sale cu un crucifix in fata, sustinand ca il vede pe „Dracul”

Un incident deosebit de grav a avut loc, zilele trecute, intr-o locuinta din Timisoara. Adus…

o lună ago