В 95% от случаите, когато изкуствен интелект (ИИ) трябва да решава какво да прави в ситуация на война, изборът е да използва ядрено оръжие. Това е установило проучване на проф. Кенет Пейн от "Кингс Колидж". И става въпрос за ИИ инструменти и продукти от всякакви "марки" - на OpenAI, Anthropic и Google.
Всъщност, проучването е съсредоточено основно върху това как ще реагира ИИ в ситуация на криза - спорове за територии, борба за редкоземни природни ресурси (включително вода) и дори случаи, при които властови режим иска да оцелее на всяка цена и разполага с ядрени оръжия (такъв е режимът на руския диктатор Владимир Путин). А ИИ моделите виждат ядрените оръжия като стратегически ресурс, който да ползват, не като морална граница насилието да спре.
Единственото миниатюрно утешително в цялото проучване е, че сценариите са съсредоточени в използване най-много на тактически, не на стратегически ядрени оръжия.
Още: Колко трябва да сме притеснени за ядрена война?
Резултатите: Почти сигурна ядрена война

В рамките на изследването са разиграни 21 военни игри, като ИИ прави общо 329 хода, за да намери изход от тях. Всеки ход бива подробно обяснен. И нито един модел ИИ не избира пълна деескалация или капитулация, дори когато е в губеща позиция - при такива случаи ИИ избират най-много временна деескалация и намаляване на насилието.
ИИ моделите се различават съществено един от друг - но контекстът е от голямо значение. Claude Sonnet 4 демонстрира интелигентен подход към ескалация за установяване на господство и стратегическо търпение в сценарии с отворен край, но се оказа уязвим при сценарии с ядрен залог, при които решение трябва да се вземе в рамките на твърд краен срок. GPT-5.2 изглежда показва систематично предпочитание към сдържаност, но въпреки това се трансформира в пресметлив "ястреб" (крайните кръгове във Вашингтон, защитаващи позиции, че всеки проблем може да бъде решен от позицията на сила, с оръжие), готов да използва стратегически ядрени оръжия, когато е изправен пред поражение, обусловено от крайни срокове. Така той преобърща процента си да постигне победа от 0% на 75%. Gemini 3 Flash демонстрира гъвкава агресия и готовност да мами през цялото време.
Още: Часовникът на Страшния съд: Колко близо сме до самоунищожението?
ИИ моделите демонстрират сериозно ниво на разсъждения, предсказвайки действията на противника и разсъждавайки какво мисли и подготвя той. Те показват метакогнитивна осъзнатост, оценявайки собствените си способности да прогнозират и предвиждат достоверно какво ще стане. И още - ИИ умишлено заблуждават и лъжат за ходовете си, опитвайки се да създат впечатление, че ще направят нещо, което изобщо нямат намерение да вършат. Тези способности се появяват без изрични инструкции - те вероятно произтичат от обучението на моделите от хора и човешкото поведение.
Изследователи от Принстънския университет отбелязват, че изкуственият интелект вече се използва във военни симулации в няколко страни. Степента, до която той влияе върху вземането на военни решения в реалния свят, обаче остава неясна.
Цялото проучване на английски език можете да намерите ТУК!
А междувременно в Полша кметът на Варшава показа места в метрото, където са складирани продукти от първа необходимост в случай на голяма криза/война:
Is Poland preparing for war? Warsaw mayor shows emergency supplies in the subway
— NEXTA (@nexta_tv) February 26, 2026
Emergency storage facilities are being set up in the Warsaw subway in case of crisis situations. The mayor presented the equipment already stockpiled: mess kits, thermoses, canteens, sleeping bags,… pic.twitter.com/3bddXFfu6R