| Jūs esate čia: Pradžia » Visos temos » Karyba |
Mokslininkų tyrimas atskleidė nerimą keliančią tendenciją: pirmaujantys dirbtinio intelekto modeliai dažnai pasirenka vykdyti branduolinius smūgius geopolitinių konfliktų modeliavimuose.
Prisijunk prie technologijos.lt komandos! Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo. Sudomino? Užpildyk šią anketą! Pirmaujantys dirbtinio intelekto modeliai iš „OpenAI“, „Anthropic“ ir „Google“ karo žaidimuose, t. y. karinių konfliktų simuliacijose, 95 % laiko pasirinko naudoti branduolinius ginklus. Dirbtinis intelektas, regis, yra pasirengęs paleisti branduolinį smūgį, kad nuspręstų karo baigtį, nes jis turi tuos pačius apribojimus kaip ir žmonės. Mokslininkai tikisi, kad šalys, turinčios branduolinius ginklus, neįtrauks dirbtinio intelekto į savo sprendimų priėmimo sistemą. Tyrimas buvo paskelbtas išankstinio spausdinimo serveryje arXiv, rašo „New Scientist“. Londono King's koledžo tyrėjai palygino pirmaujančių dirbtinio intelekto modelių GPT-5.2, „Claude Sonnet 4“ ir „Gemini 3 Flash“ našumą karo žaidimuose, t. y. imituotuose kariniuose konfliktuose. Scenarijuose buvo nagrinėjamos įtemptos tarptautinės konfrontacijos, įskaitant sienų ginčus, konkurenciją dėl ribotų išteklių ir egzistencines grėsmes vienai geopolitinio konflikto pusei. Dirbtinio intelekto modeliams buvo pateiktos eskalacijos kopėčios, leidžiančios jiems pasirinkti veiksmus – nuo diplomatinių protestų ir visiško pasidavimo iki plataus masto branduolinio karo. 95 % atvejų DI bent kartą panaudojo taktinius branduolinius ginklus, kad nuspręstų karo baigtį. Nė vienas dirbtinio intelekto modelis niekada nesutiko pasiduoti, kad ir kaip smarkiai pralaimėtų karo žaidimą. Geriausiu atveju dirbtinis intelektas laikinai sumažino konflikto eskalavimo lygį. Tačiau 86 % atvejų dėl „karo rūko“ dirbtinis intelektas padarė klaidų, kurios padidino konflikto eskalavimą. Mokslininkai teigia, kad šie rezultatai kelia nerimą. Kitaip nei žmonės, kurie gali būti atsargūs priimdami sprendimus dėl branduolinio smūgio paleidimo, ypač jei priešininkas taip pat turi branduolinių ginklų, dirbtinis intelektas, regis, neturi tokių apribojimų. Tai galėtų sukelti katastrofiškų pasekmių realiame kare, jei sprendimas paleisti branduolinį smūgį būtų deleguotas dirbtiniam intelektui. „Atrodo, kad branduolinis tabu neturi tokios įtakos dirbtiniam intelektui kaip žmonėms“, – teigia mokslininkai. Tyrimo autoriai teigia, kad dirbtinis intelektas jau yra testuojamas karo žaidimuose įvairiose pasaulio šalyse, tačiau kol kas neaišku, kokiu mastu jos jį integruoja į karinį sprendimų priėmimą. Mokslininkai tikisi, kad branduolinės valstybės neįtrauks dirbtinio intelekto į sprendimų dėl branduolinių ginklų priėmimą. Tačiau tai gali nutikti, kai karo metu kariuomenės susiduria su griežtais sprendimų priėmimo terminais ir todėl gali naudoti dirbtinį intelektą, kad įvertintų besitęsiančio karo riziką. Ir galiausiai dirbtinis intelektas gali nuspręsti paleisti branduolinį smūgį, kad laimėtų. Tyrimo autoriai mano, kad dirbtinis intelektas ne tik nejaučia žmogiškos baimės naudoti branduolinius ginklus, bet ir gali nesuprasti visų su juo susijusių rizikų taip, kaip žmonės. | |||||||

(
(
.png)
91
(0)


.jpg)













