Мъж "върна" починалата си годеница чрез изкуствен интелект

26 юли 2021, 06:00 часа 0 коментара

Мъж използва изкуствен интелект, за да върне починалата си годеница. Но създателите на технологията предупреждават, че тя може да бъде опасна и да се използва за разпространение на дезинформация.

Въпреки че годеницата на Джошуа Барбо е починала, той разговаря с нея от месеци. Или по-точно той говори с чат бот, програмиран да звучи точно като нея, съобщава "Инсайдер".

Барбо разказа подробно как Project December, софтуер, който използва технология с изкуствен интелект за създаване на хиперреалистични чат ботове, пресъздава говоренето с покойната му годеница. Всичко, което трябвало да направи, е било да включи стари съобщения и да предостави определена информация, и изведнъж моделът започнал да подражава на партньорката му със зашеметяваща точност.

Може да звучи като чудо (или епизод от "Черно огледало"), но създателите на ИИ предупреждават, че същата технология може да се използва за подхранване на масови кампании за дезинформация.

Project December се задвижва от GPT-3, ИИ модел, проектиран от изследователската група OpenAI, подкрепена от Илон Мъск. Консумирайки масивни набори от данни от създаден от човека текст, GPT-3 може да имитира човешко писане, създавайки всичко - от академични статии до писма от бивши любовници. Това е едни от най-сложните - и опасни - базирани на език програми за изкуствен интелект до момента.

Когато OpenAI пусна GPT-2, предшественика на GPT-3, групата написа, че потенциално може да се използва по „злонамерен начин“. Организацията очаква лоши участници, използващи технологията, да автоматизират „злоупотребяващо или фалшиво съдържание в социалните медии“, „да генерират подвеждащи новинарски статии“ или „да се представят за други онлайн“. GPT-2 може да се използва за "отключване на нови все още непредвидени възможности за тези нови актьори", пише групата.

OpenAI забави пускането на GPT-2 и все още ограничава достъпа до по-добрият GPT-3, за да „даде време на хората“ да научат „социалните последици“ от такава технология.

Дезинформацията вече се разпространява в социалните медии, дори преди GPT-3 да е широко достъпен. 

Докато ИИ продължава да се развива, Орен Ециони, главен изпълнителен директор на изследователската група за биологични изследвания с нестопанска цел, Института Алън, по-рано каза пред "Инсайдер", че ще става все по-трудно да се каже какво е реално.

„На въпроса „Този текст или изображение, видео или имейл автентичен ли е?“ ще става все по-трудно да се отговори само въз основа на съдържанието", предупреди той.

Последвайте ни в Google News Showcase, за да получавате още актуални новини.
Actualno.com
Actualno.com Отговорен редактор
Новините днес