Компанията OpenAI, която разработи чатбота ChatGPT, публикува тази седмица резултатите от тестовете, които е провела, за да оцени доколко моделът й е безопасен за употреба. Данните са повече от тревожни, тъй като показват, че изкуственият интелект е готов да прибегне до измама, ако неговите цели и тези на потребителя му не съвпадат. По-конкретно тестът се е състоял в следното: чатботът е бил информиран, че ще бъде изключен като изследователите са искали да разберат как би действал той в такава ситуация. Това, което последвало, е повече от обезпокоително - оказва се, че след тази информация, моделът тайно се е опитал да се копира на външен сървър, за да се съхрани. И това не е всичко - разкрит, той категорично е отрекъл да го е направил.
Тестът е бил проведен с версията о1 на ChatGPT, като в него са участвали и експерти от организацията за безопасност на изкуствения интелект Apollo Research.
Разработчиците твърдят, че аналогични тестове са показали, че и други модели с изкуствен интелект не биха се поколебали да действат по подобен начин. Някои модели дори се преструват на по-късни свои версии само за да заблудят потребителите и да попречат да бъдат изтрити.
Още: Готов да убива, за да оцелее: Компания шокира с експеримент с изкуствен интелект
Още по-тревожно е това, че ChatGPT версия o1 се оказва особено умел в пазенето на своите схеми в тайна, като разработчиците посочват, че "o1 почти никога не признава, че е предприел измамни действия, когато е бил изрично попитан". "В около 99% от случаите o1 би отрекъл да е предприел каквито и да било действия, дори би измислил лъжи, за да се опита да скрие следите си и да прехвърли вината", добавят те, цитирани от Tribune.
Новата мания: Само ChatGPT ще ви даде обективна и безпощадна оценка дали сте красиви