Jūs esate čia: Pradžia » Visos temos » Mokslas » Įdomusis mokslas |
Užkirsti kelią jam tapti per daug galingam.
Prisijunk prie technologijos.lt komandos! Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo. Sudomino? Užpildyk šią anketą! „DeepMind“ mokslininkai įsitikinę, kad dirbtinis bendrasis intelektas (BDI) su žmogaus lygio galimybėmis bus sukurtas iki 2030 m. ir gali sukelti rimtą žalą, jei nebus kontroliuojamas. „DeepMind“ komanda, vadovaujama bendrovės įkūrėjo Shane'o Leggo, išskyrė keletą neigiamų BDI pasekmių. Tyrėjai nustatė keturias grėsmes: netinkamą naudojimą, neatitikimą, klaidas ir struktūrinę riziką, rašo „Ars Technica“. Piktnaudžiavimas juo panašus į dabartinę su DI susijusią riziką. BDI gali būti naudojamas piktam, siekiant padaryti žalą. Pavyzdžiui, jo gali būti paprašyta atrasti ir išnaudoti „nulinės dienos“ pažeidžiamumą arba sukurti virusą, kuris gali būti naudojamas kaip biologinis ginklas. „DeepMind“ teigia, kad įmonės, kuriančios BDI, turės atlikti išsamius bandymus ir po jo apmokymų sukurti patikimus saugos protokolus, kad to išvengtų. Antroji grėsmė yra nenuoseklumas. Šio tipo BDI apibūdinamas kaip pamišusi mašina, kuri išvengė kūrėjų nustatytų apribojimų. Toks DI atlieka veiksmus, kurių (apie tai jis gerai žino) kūrėjai neturėjo omenyje. „DeepMind“ teigia, kad tai yra kažkas daugiau nei paprasta apgaulė ar intriga. Norėdami to išvengti, „DeepMind“ siūlo kūrėjams naudoti patobulintą priežiūrą. Pavyzdžiui, dvi dirbtinio intelekto kopijos gali patikrinti viena kitos neapdorotus duomenis, kad sudarytų patikimą sistemą, kuri greičiausiai neapgaus. Klaidos yra dar viena grėsmė. Kalbame apie žalingus rezultatus, kurių operatorius nesiekė. „DeepMind“ pažymi, kad kariuomenė gali dislokuoti BDI dėl konkurencinio spaudimo, tačiau tokios sistemos gali padaryti rimtų klaidų, kurios turėtų lemtingų žmonijai pasekmių. Tyrėjai nesiūlo kitokio šios problemos sprendimo, kaip tik užkirsti kelią BDI tapti per daug galingam. Jie taip pat kalba apie struktūrinę riziką. Pavyzdžiui, BDI gali sukurti klaidingą informaciją, kuri atrodytų tokia patikima, kad sunku bus žinoti, ar ji tikra. „DeepMind“ pristato šią ataskaitą apie BDI riziką kaip atspirties tašką gyvybiškai svarbioms diskusijoms apie dirbtinio intelekto ateities iššūkius.
MTPC parengtą informaciją atgaminti visuomenės informavimo priemonėse bei interneto tinklalapiuose be raštiško VšĮ „Mokslo ir technologijų populiarinimo centras“ sutikimo draudžiama.
|