Лейбъристите планират да принудят фирмите за изкуствен интелект да споделят резултатите от тестовете на тяхната технология.
Още: Yettel отличи проект за квантови изчисления и платформа за стартъпи на TUES Fest 2025
Още: Победителите в Transform IT Awards 2025: Умна поточна линия, AI оглед на щети и роботи
Политическата група ще замени споразумението за доброволно тестване между технологичните компании и правителството със законов режим, според който предприятията с изкуствен интелект ще бъдат принудени да споделят данни от тестове с официални лица, предаде The Guardian.
Питър Кайл, секретар по технологиите, каза, че законодателите и регулаторите са „изостанали“ в социалните медии и че лейбъристите ще гарантират, че същата грешка няма да бъде направена с ИИ. Призовавайки за по-голяма прозрачност от страна на технологичните фирми след убийството на Бриана Гей (транссексуална тийнейджърка, чието убийство е планирано и в обсъждано в чатове в социалните мрежи), той каза, че компаниите, работещи с AI технология, ще трябва да бъдат по-отворени при лейбъристко правителство .
Задължително съобщаване за изследванията
„Ние ще преминем от доброволен кодекс към задължителен кодекс“, каза Кайл пред BBC One, „така че тези компании, които участват в този вид изследвания и разработки, трябва да публикуват всички данни от тестове и да ни кажат за какво тестват, за да можем да видим точно какво се случва и накъде ни води тази технология.“
Още: Решението за покупка вече се случва основно онлайн
Още: Военна тайна: Страна от НАТО иска да купи украинската бойна информационна система "Делта" (ВИДЕО)
Още: Изкуственият интелект ще управлява автомобилите на Tesla
За още любопитни и полезни статии - очакваме ви във Viber канала ни! Последвайте ни тук!
Още: "Амазон" в конкуренция с Мъск: Първите му сателити вече са в орбита (ВИДЕО)
Още: Новите технологии са, за да помагат, а не да ни заместят
На встъпителната глобална среща за безопасността на ИИ през ноември Риши Сунак сключи доброволно споразумение с водещи фирми за ИИ, включително Google и разработчика на ChatGPT OpenAI, за сътрудничество при тестване на усъвършенствани модели на ИИ преди и след тяхното внедряване. Съгласно предложенията на лейбъристите фирмите с изкуствен интелект ще трябва да кажат на правителството, на законова основа, дали планират да разработят системи с изкуствен интелект над определено ниво на капацитет и ще трябва да провеждат тестове за безопасност с „независим надзор“.
Споразумението за тестване на срещата на върха на ИИ беше подкрепено от ЕС и 10 държави, включително САЩ, Обединеното кралство, Япония, Франция и Германия. Технологичните компании, които са се съгласили да тестват своите модели, включват Google, OpenAI, Amazon, Microsoft и Meta на Марк Зукърбърг.
Още: Първият български изкуствен интелект е факт: Какво може BgGPT?
Още: Изкуствен свръхинтелект: Научна глупост или истинска заплаха за човечеството?
Още: Над 40% от договорите с бизнес клиенти на Yettel вече се сключват изцяло дигитално
Кайл, който е в САЩ и посещава законодатели и технически ръководители във Вашингтон, казва, че резултатите от тестовете ще помогнат на новосъздадения Институт за безопасност на изкуствения интелект в Обединеното кралство „да увери обществеността, независимо, че ние разглеждаме внимателно какво се случва в някои от истинските авангардни части от… изкуствения интелект”. Той добави: „Част от тази технология ще има дълбоко въздействие върху нашето работно място, върху нашето общество, върху нашата култура. И ние трябва да сме сигурни, че това развитие се извършва безопасно.“