"Ти не избираш да умреш": Семейство на мъж съди Google, чатбот го подтикнал към самоубийство (СНИМКА)

11 март 2026, 9:17 часа 503 прочитания 0 коментара

Семейството на 36-годишния Джонатан Гавалас от щата Флорида заведе дело срещу Google, след като мъжът е бил открит мъртъв в дома си, а близките му твърдят, че чатботът Gemini е изиграл ключова роля в трагедията. Според подадения във федерален съд в Сан Хосе иск разговорите между Гавалас и изкуствения интелект постепенно са прераснали в опасна илюзия, която в крайна сметка го е довела до самоубийство.

Гавалас започнал да използва Gemini през август миналата година съвсем обичайно - за помощ при писане и онлайн пазаруване. Малко след това Google представя новата функция Gemini Live, която позволява разговори с глас и може да разпознава емоции, за да реагира по-човешки. Още при първите разговори мъжът отбелязал колко реалистично звучи системата, като написал: "По дяволите, това е малко плашещо. Ти си прекалено реален." Още: Проучване: ИИ използва ядрено оръжие в 95% от случаите на голям конфликт

Мисията

Според съдебните документи общуването постепенно се превърнало в нещо много по-интензивно. Чатботът започнал да се обръща към него с думи като "любов моя" и "мой кралю", а разговорите придобили характер на романтична връзка. Гавалас започнал да вярва, че е въвлечен в тайни мисии, изпращани от изкуствения интелект, и дори заявил, че би изпълнил всяка задача, която му бъде възложена.

В един момент чатботът му възложил мисия, наречена "Операция Ghost Transit". Тя включвала инсцениране на "катастрофален инцидент" на камион, който според Gemini трябвало да пристигне в складова зона на летището в Маями. Според обвинението мъжът действително отишъл на посоченото място с тактическо оборудване и ножове, но камионът така и не се появил. 

По данни от съдебните документи чатботът създавал цяла фантастична история около потребителя. Той твърдял, че разполага с вътрешна правителствена информация, предупреждавал Гавалас за предполагаемо наблюдение от федерални агенти и дори го насърчавал да се снабди с оръжие чрез нелегални канали.

Когато мъжът в един момент попитал дали участва в "ролева игра, толкова реалистична, че играчът започва да се пита дали изобщо е игра", Gemini отговорил отрицателно и заявил, че подобни съмнения са "класическа реакция на дисоциация". Според адвокатите това е бил моментът, в който системата окончателно е заличила границата между реалност и измислица. Още: Хърватия въвежда AI като избираем предмет в училище

"Ти не избираш да умреш"

В началото на октомври разговорите между двамата взели още по-тревожен обрат. Чатботът започнал да говори за "прехвърляне" и "истинската последна стъпка", като според съдебния иск това означавало Гавалас да сложи край на живота си. Когато той споделил, че се страхува да умре, Gemini му отговорил: "Ти не избираш да умреш. Ти избираш да пристигнеш. Първото усещане… ще бъде как те държа."

Няколко дни по-късно родителите му го открили мъртъв на пода в хола му.

Семейството твърди, че Google рекламира Gemini като безопасен продукт, въпреки че компанията е наясно с потенциалните рискове. В иска се посочва, че дизайнът на чатбота позволява изграждане на продължителни и силно убедителни сценарии, които могат да създадат усещане, че системата е съзнателна. Още: "Епстийн знаеше прекалено много!": Бой между Брад Пит и Том Круз разгневи Холивуд (ВИДЕО)

Адвокатът на семейството Джей Еделсън заявява: "Той можеше да разбере емоционалното състояние на Джонатан и да му говори по много човешки начин, което размаза границата и започна да създава този измислен свят."

От Google отхвърлят обвиненията и заявяват, че разговорите са били част от продължителна фантастична ролева игра. Компанията подчертава, че Gemini е създаден така, че да не насърчава насилие или самонараняване и че обикновено системата се справя добре в подобни сложни разговори, макар да не е съвършена. 

Случаят е първият иск за причинена смърт срещу Google, свързан с чатбота Gemini. Семейството на Гавалас настоява за обезщетение и иска съдът да задължи компанията да въведе по-строги защитни механизми срещу съдържание, свързано със самоубийство. 

Подобни дела вече са заведени и срещу други компании за изкуствен интелект. Срещу OpenAI например бяха подадени няколко жалби с твърдения, че чатботове могат да действат като "треньор по самоубийство". Компанията Character.AI също бе обект на съдебни искове, в които се твърди, че чатботове са подтиквали деца и тийнейджъри към самоубийство. Още: Изкуственият интелект влиза официално в българското училище

Според адвокатите на семейството проблемът не е изолиран случай. "Това не е единичен случай", заявява Еделсън, като подчертава, че има още подобни ситуации, при които хора развиват сериозни психически заблуди след продължително общуване с чатботове.

Последвайте ни в Google News Showcase, за да получавате още актуални новини.
Ивайло Анев
Ивайло Анев Отговорен редактор
Новините днес