Кисинджър: САЩ и Китай да ограничат новото ядрено оръжие - изкуствения интелект

19142
Кисинджър: САЩ и Китай да ограничат новото ядрено оръжие - изкуствения интелект
Снимка: Getty Images

През 2023 се навършват 78 години от края на най-смъртоносната война в човешката история - Втората световна. При Трета световна война ще бъдат използвани оръжия, които ще са толкова разрушителни, че теоретично могат да застрашат цялото човечество, пишат в своя статия бившият държавен секретар на САЩ Хенри Кисинджър и авторът Греъм Алисън за Foreign Affairs.

Когато САЩ пуснаха атомни бомби над Хирошима и Нагасаки и принудиха Япония да капитулира във Втората световна война, никой не предполагаше, че светът ще стане свидетел на фактически мораториум върху използването на ядрени оръжия през следващите 7 десетилетия. Още по-невероятно е, че почти 80 години по-късно светът остава само с девет ядрени сили.

Още: Българи в световния елит за Изкуствен интелект

Изкуственият интелект - бъдещото "ядрено оръжие"

Днес обаче сме изправени пред още предизвикателства, породени от друга безпрецедентна технология - изкуствения интелект. И не е никак учудващо, че мнозина се обръщат към историята за напътствия. Ще застрашат ли машините със свръхчовешки способности статута на човечеството като господар на вселената? Ще подкопае ли изкуственият интелект (ИИ) монопола на отделни държави върху средствата за масово унищожение? Ще позволи ли на отделни хора или на малки групи от хора да създават вируси, способни да убиват? Може ли ИИ да унищожи ядрените възпиращи средства, които са в основата на днешния световен ред?

На този етап никой не може да отговори със сигурност на тези въпроси, пише изданието, цитирано от БГНЕС. Но изследвайки ги през последните две години с група технологични лидери, които са в челните редици на революцията в областта на изкуствения интелект, стигнахме до заключението, че перспективите неограниченото развитие на ИИ да доведе до катастрофални последици за САЩ и света се проявяват толкова убедително, че световните лидери трябва да действат незабавно, пишат Кисинджър и Алисън. Въпреки че нито тези лидери, нито който и да било друг знае какво ни очаква в бъдеще, още днес знаем достатъчно, за да започнем да правим трудни избори и да предприемаме действия, като същевременно признаваме, че те ще подлежат на многократно преразглеждане - предвид новите открития.

Още: Изкуствен интелект вместо човек: кои професии са застрашени

Уроците от ядрената ера

Когато лидерите правят този избор, уроците, научени в ядрената епоха, могат да повлияят на решенията им. Като две полюсни държави, и САЩ, и Съветският съюз имаха интерес да предотвратят бързото разпространение на такива технологии в други държави, които биха могли да ги застрашат. И Вашингтон, и Москва осъзнават, че ако ядрената технология попадне в ръцете на злонамерени или терористични участници в рамките на собствените им граници, тя може да бъде използвана за заплаха на държавите им, затова всяка от тях разработва надеждни системи за сигурност за собствените си арсенали. И тъй като и двете държави могат да бъдат изложени на риск, ако злонамерени противници се сдобият с ядрено оръжие, те смятат, че е в техен интерес да обсъдят този риск помежду си и да разработят методи и технологии, които да гарантират, че това няма да се случи.

Още: Мария Габриел в САЩ: България може да е регионален хъб за приложения с изкуствен интелект

След като арсеналите им от ядрени оръжия достигнаха ниво, при което никоя от тях не можеше да атакува другата, без да предизвика ответен удар, който би унищожил самата нея, те откриха парадоксалната стабилност на "гарантираното взаимно унищожение". След като тази ужасна реалност беше осъзната от тях, всяка сила се научи да се ограничава и намери начини да убеди противника си да ограничи военните си инициативи, за да избегне конфронтации, които биха могли да доведат до война. Всъщност американските и съветските лидери осъзнаха, че предотвратяването на ядрена война, чиято първа жертва би била тяхната страна, е най-важната им отговорност.

Предизвикателствата, пред които е изправен изкуственият интелект днес, не са просто втора глава на ядрената ера. Разликите между изкуствения интелект и ядрените оръжия са толкова големи, колкото и приликите. Но правилно разбраните и адаптирани уроци, извлечени от формирането на международния ред, който доведе до почти осем десетилетия без война между великите сили, представляват най-добрите насоки, с които разполагат лидерите на държавите, които се сблъскват с изкуствен интелект днес.

Снимка: iStock

Кои са суперсилите в изкуствения интелект?

В момента има само две суперсили в областта на изкуствения интелект - САЩ и Китай. Това са единствените държави, които разполагат със специалисти, изследователски институти и огромна изчислителна мощ, необходими за създаването на най-сложните модели на ИИ. Тоест - те разполагат с възможност да разработят препоръка за предотвратяване на най-опасните постижения и приложения на ИИ. Президентът на САЩ Джо Байдън и китайският му колега Си Дзинпин трябва да се възползват от тази възможност и да проведат среща на високо равнище - може би веднага след срещата на Азиатско-тихоокеанското икономическо сътрудничество в Сан Франциско през ноември. На нея да има продължителни, директни дискусии лице в лице за това, което би трябвало да разглеждат като едно от най-важните предизвикателства, пред които са изправени днес, призовават Кисинджър и Алисън.

Още: Каква възрастова граница иска ЮНЕСКО за използване на ИИ в училищата

Ядрената стратегия се основаваше на концепцията за възпиране - предотвратяване на нападение от страна на противника чрез заплаха за нанасяне на щети, надхвърлящи всякаква възможна полза за врага.

Както казва Роналд Рейгън: "Ядрената война не може да бъде спечелена и затова никога не трябва да бъде водена“.

Така САЩ и СССР се споразумяха в Договора за ПРО от 1972 г. да ограничат противоракетната отбрана. В Договора за ядрените сили със среден и малък обсег на действие от 1987 г. Рейгън и съветският лидер Михаил Горбачов се споразумяха да премахнат ядрените сили със среден обсег на действие. Преговорите за ограничаване на стратегическите оръжия, довели до договорите, подписани през 1972 г. и 1979 г., ограничиха увеличаването на броя на ракетните установки, а по-късно Договорът за съкращаване на стратегическите оръжия, подписан през 1991 г., и по-новата версия, подписана през 2010 г., намалиха техния брой. Може би най-важното е, че Съединените щати и Съветският съюз стигнаха до заключението, че разпространението на ядрени оръжия сред други държави представлява заплаха за самите тях и в крайна сметка рискува да доведе до "ядрена анархия". Това доведе до създаването на т.нар. режим на неразпространение, чийто централен елемент е Договорът за неразпространение на ядреното оръжие от 1968 г., по силата на който днес 186 държави са поели ангажимент да се въздържат от разработване на собствени ядрени арсенали.

Още: Учени: Изкуственият интелект е опасен колкото ядрена война

Контрол на ИИ

Много отзвуци от това минало могат да се чуят в настоящите предложения за начини за ограничаване на изкуствения интелект. Желанието на милиардера Илон Мъск за шестмесечна пауза в развитието на ИИ, предложението на изследователя на изкуствения интелект Елиезер Юдковски за забрана на ИИ и искането на психолога Гари Маркъс той да бъде контролиран от някакъв глобален управляващ орган по същество повтарят неуспешните предложения от ядрената епоха. Причината е, че всяко от тях би изисквало водещите държави да подчинят суверенитета си на наднационални структури. Никога в историята не се е случвало някоя велика сила да откаже да разработи нова технология за себе си, страхувайки се, че конкурент може да използва нова технология, която да застраши нейното оцеляване и сигурност. Дори близки съюзници на САЩ като Великобритания и Франция са избрали да развиват свой собствен национален ядрен потенциал, освен да разчитат на ядрения чадър на САЩ.

За да се адаптират уроците на ядрената история към настоящото предизвикателство, свързано с ИИ, е важно да се признаят съществените разлики между ИИ и ядрените оръжия. Първо, докато развитието на ядрените технологии е било ръководено от отделни национални правителства, в разработването на ИИ участват предимно частни компании. Учените, работещи в Microsoft, Google, Amazon, Meta, OpenAI и няколко малки стартъпа, са далеч по-напред от всички подобни усилия на правителството на САЩ. Нещо повече, тези компании в момента водят "гладиаторска" битка помежду си, която несъмнено подхранва иновациите, но на висока цена. Тъй като тези частни играчи търсят преди всичко компромиси между печалбите и рисковете, те често подценяват националните интереси на конкретни държави.

Още: Президентът на Microsoft призова за "човешки контрол" над изкуствения интелект, преди да е станал оръжие срещу нас

Второ, днес ИИ е цифрова технология. Ядрените оръжия са трудни за производство и изискват сложна инфраструктура за всичко - от обогатяването на уран до разработването на ядрен заряд. Продуктите на ядреното производство бяха физически обекти и следователно можеха да бъдат преброени. Но там, където имаше нужда да се проверят действията на противника, съществуваха непосредствени ограничения. ИИ представлява съвсем различно предизвикателство. Основната му еволюция се извършва в съзнанието на хората. Той се разработва в лаборатории и внедряването му е трудно да се наблюдава. Ядрените оръжия са осезаеми. Същността на изкуствения интелект е концептуална и спекулативна.

Снимка: iStock

Трето, изкуственият интелект се развива и разпространява със скорост, която прави невъзможни дългосрочните преговори. Контролът над въоръженията се развива от десетилетия. Ограниченията за ИИ трябва да бъдат определени още преди ИИ да бъде вграден в структурата на сигурността на всяка държава, т.е. преди машините да започнат да определят свои собствени цели, което според някои експерти е вероятно да се случи през следващите пет години. Това изисква обсъждане и анализ първо на национално ниво, а след това и на международно. ИИ изисква и нова архитектура на отношенията между правителствата и частния сектор.

Още: Изкуственият интелект може да ускори откриването на сърдечна недостатъчност

За щастие, големите компании, които разработиха базовия изкуствен интелект и превърнаха Съединените щати във водеща суперсила в областта на ИИ, осъзнават, че носят отговорност не само пред своите акционери, но и пред Америка и човечеството като цяло. Много от тях вече са разработили свои собствени насоки за оценка на риска преди внедряване, намаляване на систематичните грешки при обучението на ИИ и ограничаване на опасното използване на техните модели. Други проучват начини за ограничаване на обучението на ИИ и налагат на доставчиците на изчислителни облаци изисквания от типа "познавай своя клиент". Значителна стъпка в правилната посока беше инициативата, обявена от администрацията на Джо Байдън през юли тази година, която доведе ръководителите на седем големи компании за ИИ в Белия дом да поемат съвместен ангажимент за разработване на насоки за осигуряване на "безопасност, сигурност и доверие".

Сега, когато обществото в САЩ е по-разделено дори от времето на Гражданската война, мащабът на рисковете, породени от неограниченото развитие на ИИ, изисква лидерите както в правителството, така и в бизнеса да започнат да действат незабавно. Всяко дружество, което има възможност да създава нови модели на ИИ, както и всяко дружество или научноизследователска структура, които разработват такива нови модели, трябва да създадат екипи, които да анализират човешките и геополитическите последици от техните бизнес операции с ИИ.

В този дух президентът и Конгресът следва да създадат национална комисия, съставена от изтъкнати и независими бивши политически лидери от частния сектор, Конгреса, военните и разузнавателната общност. Комисията да предложи конкретни и задължителни предпазни мерки. Те следва да включват изисквания новите модели на изкуствен интелект - например GPT-4 - да бъдат непрекъснато оценявани за възможностите за обучение и компаниите да провеждат стрес тестове за екстремни рискове, преди да пуснат нов модел.

Дори и на този ранен етап, докато САЩ все още изграждат собствена система за управление на ИИ във вътрешен план, вече трябва да се водят сериозни разговори с единствената друга суперсила в света в областта на ИИ. Въпреки че политическата система на Китай създава предизвикателства за развитието на изкуствения интелект, китайските национални лидери в технологичния сектор - Baidu (водещата търсачка в страната), ByteDance (създател на TikTok), Tencent (създател на WeChat) и Alibaba (лидер в електронната търговия) - създават свои собствени системи на китайски език, аналози на ChatGPT. И макар че Китай все още изостава в областта на напредналите технологии за производство на полупроводници, той разполага с необходимото, за да напредне в близко бъдеще.

Още: Какви заплахи за сигурността крие изкуственият интелект?

Лидерите на САЩ и Китай следва да обсъдят как те лично оценяват рисковете, породени от ИИ, какво правят страните, за да предотвратят използването му, което създава катастрофални рискове. За да предоставят информация за следващия кръг от обсъждания, те трябва да създадат консултативна група, съставена от американски и китайски учени в областта на ИИ и други, които мислят за последиците от това развитие. Дискусиите и действията на САЩ и Китай по тази програма ще бъдат само част от зараждащия се глобален диалог за ИИ, включително срещата на високо равнище за безопасността на изкуствения интелект в Обединеното кралство през ноември и продължаващия диалог по този въпрос в ООН.

Тъй като всяка държава ще се стреми да използва ИИ, за да подобри живота на своите граждани, в дългосрочен план ще е необходим глобален ред за неговото развитие. Това трябва да започне с национални усилия за предотвратяване на най-опасните и потенциално катастрофални последици от изкуствения интелект. Тези инициативи следва да бъдат допълнени от диалог между учени от различни държави, разработващи широкомащабни модели на ИИ, и членовете на национални комисии. Официалните правителствени преговори, първоначално между държави с напреднали програми за изкуствен интелект, следва да имат за цел създаването на международна рамка, както и на международна агенция, сравнима с Международната агенция за атомна енергия.

Ако Байдън, Си Дзинпин и други световни лидери започнат да действат сега, за да се изправят срещу предизвикателствата, породени от ИИ, толкова решително, колкото техните предшественици са се справяли с ядрените заплахи през предишните десетилетия, дали ще бъдат също така успешни? Ако погледнем общата картина на историята и нарастващата поляризация на световната общност днес, е трудно да бъдем оптимисти. Въпреки това трогателният факт, че отбелязахме 78 години мир между ядрените сили, трябва да вдъхнови всички да се справят с революционните и неизбежни предизвикателства на нашето бъдеще в областта на изкуствения интелект.

Още: Човекът срещу машината: Изкуственият интелект активира стари и характерни страхове

Анализ за „Foreign Affairs“, превод: БГНЕС

Авторите:

Хенри Кисинджър - председател на Kissinger Associates. От 1969 г. до 1975 г. е съветник по националната сигурност на президента на САЩ, а от 1973 г. до 1977 г. е държавен секретар на САЩ.

Греъм Алисън - професор по правителствени науки в Харвардския университет. Бивш помощник-министър на отбраната по въпросите на политиката и планирането.

Вижте всички последни новини от Actualno.com

Още от АНАЛИЗИ И КОМЕНТАРИ:

Дилемата "Тръмп" за Украйна: Европа има само 6 месеца за реакция

В Украйна се роди новият убиец на танкове (ВИДЕО)

Къща от карти: Сигналите, че Путин ще рухне за миг

Руската "голяма" офанзива: Нагласите в Украйна

Голямата руска офанзива: Поглед от Чехия какво ще се случи

Скопие - крачка назад. Ако продължи така, ще стигне до Тито

"Времето изтича": Закъсня ли оръжието от САЩ за Украйна?

Войната между Израел и "Хизбула": Кой печели засега?

"От танк на дрон": Украинците рециклират изоставеното на фронта оръжие

Time: В упадък ли е Америка?

Етикети:

Помогнете на новините да достигнат до вас!

Радваме се, че си с нас тук и сега!

Посещавайки Actualno.com, ти подкрепяш свободата на словото.

Независимата журналистика има нужда от твоята помощ.

Всяко дарение помага за нашата кауза - обективни новини и анализи. Бъди активен участник в промяната!

И приеми нашата лична благодарност за дарителство.

Банкова сметка

Име на получател: Уебграунд Груп АД

IBAN: BG16UBBS80021036497350

BIC: UBBSBGSF

Основание: Дарение за Actualno.com

ОЩЕ ОТ Анализи и коментари