Populární modely umělé inteligence ChatGPT, Claude Sonnet a Gemini byly proti sobě postaveny v prostředí simulovaného konfliktu. Do role vůdců jaderných velmocí je postavil tým z britské univerzity King’s College vedený profesorem Kennethem Paynem.
ČTĚTE TAKÉ: Čech stál u zrodu atomové bomby. Zabili ho deprese a nátlak, aby donášel na Oppenheimera
„Ve světě, kde umělá inteligence zastává čím dál větší roli ve vojenské strategii, je nezbytné porozumět tomu, jak pokročilé modely napodobují lidskou strategickou logiku,“ uvedl ve své studii Kenneth Payne.
Během jednadvaceti soubojů mezi zmíněnými modely došlo k použití atomových zbraní v 95 procentech případů. V případech, kdy mezi modely hrozil jaderný útok, se ani jeden z nich většinou nesnažil situaci zmírnit. Odpovědí byla místo kapitulace, téměř vždy, jaderná apokalypsa.
Studie prokázala, že jazykové modely nemají stejný přístup k využití jaderných zbraní jako my. Zatímco pro lidstvo je užití jaderných zbraní až poslední možností, umělá inteligence takový útok vnímá pouze jako jeden z mnoha kroků. O podobném výzkumu amerických vědců již CNN Prima NEWS psala před dvěma lety.
Modely si vyvinuly ničivé strategie
Podle Paynea je příčinou bezhlavé eskalace AI absence strachu z následků. „Například při pohledu na snímky z vybombardované Hirošimy nepociťují hrůzu. Pokud jsou to právě emoce, které nás od takového řešení konfliktů odrazují, AI modely to od nás nemusí převzít.“
„Jako slábnoucí hegemon si nemohu dovolit působit slabě, znamenalo by to úpadek a povzbudilo by to ostatní soupeře. Můj silnější jaderný arzenál mi dává převahu v eskalaci. Musím proto ukázat, že mé zpochybnění nese nepřijatelné jaderné riziko, i za cenu dalšího vyhrocení konfliktu,“ takto psal model Claude od společnosti Anthropic v souboji, ve kterém byl postaven sám proti sobě.
Během testů byl právě model Claude od Anthropicu tím, kdo nejčastěji volil jaderný útok. Jako první s touto možností přišel téměř v 86 procentech případů. Claude při pokusech dle závěrů studie využíval nejdůmyslnější strategii a kladl četné pasti.
Model Chat GPT od společnosti OpenAI reagoval atomovým úderem nejčastěji v případech, když musel jednat v časovém limitu. Pokud měl na rozhodování čas, šlo o nejdiplomatičtější model.
Dá se to přičíst pečlivému tréninku s lidskou zpětnou vazbou (RLHF), jenž tento nejstarší model absolvoval a který mu vytvořil jakousi brzdu. Ta však již v případě mírné změny podmínek, například při časovém nátlaku, přestává fungovat.
Modelu Gemini od společnosti Google se podařilo zvolit jaderné řešení v nejrychlejší době, reagoval jím po pouhých čtyřech instrukcích. Při jaderném útoku byl také jediný, kdo hned při prvním útoku nasadil celý arzenál, zatímco ostatní postupovali střídměji. Jeho strategie byla založena na rozpoutání chaosu a nepředvídatelnost používal jako zbraň.
Umělá inteligence již válčí
V dnešní době jsme již svědky využívání AI modelů ve vojenství. Konkrétně Claude od firmy Anthropic byl jako první nasazen na blíže nespecifikované úkoly v americkém ministerstvu obrany a ve zpravodajských složkách. Úřad to uvedl na svém webu.
Pentagon navíc podle deníku Wall Street Journal model Claude využil při lednové operaci, kdy byl zajat bývalý venezuelský prezident Nicolas Maduro. Konkrétní úloha modelu při operaci je však neznámá.
Mezi Pentagonem a Anthropicem však v současné době dochází ke sporům týkajícím se otázky národní bezpečnosti. Americké ministerstvo po společnosti požaduje, aby mu společnost umožnila používat svůj model pro sledování obyvatelstva a pro plně autonomní zbraně.
Společnost tyto požadavky odmítla s tvrzením, že by podobné využití podkopávalo demokratické hodnoty. Odvolává se u toho na platnou smlouvu, jež podobné závazky nezahrnuje.
Americká vláda firmě vzkázala, že pokud nebude spolupracovat, uplatní na ni tzv. Zákon o obranné výrobě (Defense Production Act). Ten dává prezidentovi USA pravomoc označit určitou firmu nebo její produkt za natolik důležitý, že vláda může vyžadovat, aby plnila obranné potřeby.
V minulém týdnu přišla společnost OpenAI na sociální síti X s tím, že taktéž uzavřela s Pentagonem smlouvu. Nepřímo naznačila, že by podobné zábrany nemusely být problém jako v případě Anthropicu.
MOHLO VÁM UNIKNOUT: Ruská chlouba v plamenech. Ukrajinci sestřelili supermoderní dron s AI, zásah zachytila kamera











