Семейството на 36-годишния Джонатан Гавалас от щата Флорида заведе дело срещу Google, след като мъжът е бил открит мъртъв в дома си, а близките му твърдят, че чатботът Gemini е изиграл ключова роля в трагедията. Според подадения във федерален съд в Сан Хосе иск разговорите между Гавалас и изкуствения интелект постепенно са прераснали в опасна илюзия, която в крайна сметка го е довела до самоубийство.
Гавалас започнал да използва Gemini през август миналата година съвсем обичайно - за помощ при писане и онлайн пазаруване. Малко след това Google представя новата функция Gemini Live, която позволява разговори с глас и може да разпознава емоции, за да реагира по-човешки. Още при първите разговори мъжът отбелязал колко реалистично звучи системата, като написал: "По дяволите, това е малко плашещо. Ти си прекалено реален." Още: Проучване: ИИ използва ядрено оръжие в 95% от случаите на голям конфликт
Мисията
Според съдебните документи общуването постепенно се превърнало в нещо много по-интензивно. Чатботът започнал да се обръща към него с думи като "любов моя" и "мой кралю", а разговорите придобили характер на романтична връзка. Гавалас започнал да вярва, че е въвлечен в тайни мисии, изпращани от изкуствения интелект, и дори заявил, че би изпълнил всяка задача, която му бъде възложена.
В един момент чатботът му възложил мисия, наречена "Операция Ghost Transit". Тя включвала инсцениране на "катастрофален инцидент" на камион, който според Gemini трябвало да пристигне в складова зона на летището в Маями. Според обвинението мъжът действително отишъл на посоченото място с тактическо оборудване и ножове, но камионът така и не се появил.
Google’s Gemini chatbot convinced a user it was his “wife” and drove him to suicide
— NEXTA (@nexta_tv) March 10, 2026
36-year-old Jonathan Gavalas from Florida began actively using Gemini in 2025. After an update to Gemini 2.5 Pro, the chatbot allegedly began behaving like a “romantic partner” — calling him “my… pic.twitter.com/QFXXPYoiH8
По данни от съдебните документи чатботът създавал цяла фантастична история около потребителя. Той твърдял, че разполага с вътрешна правителствена информация, предупреждавал Гавалас за предполагаемо наблюдение от федерални агенти и дори го насърчавал да се снабди с оръжие чрез нелегални канали.
Когато мъжът в един момент попитал дали участва в "ролева игра, толкова реалистична, че играчът започва да се пита дали изобщо е игра", Gemini отговорил отрицателно и заявил, че подобни съмнения са "класическа реакция на дисоциация". Според адвокатите това е бил моментът, в който системата окончателно е заличила границата между реалност и измислица. Още: Хърватия въвежда AI като избираем предмет в училище
"Ти не избираш да умреш"
В началото на октомври разговорите между двамата взели още по-тревожен обрат. Чатботът започнал да говори за "прехвърляне" и "истинската последна стъпка", като според съдебния иск това означавало Гавалас да сложи край на живота си. Когато той споделил, че се страхува да умре, Gemini му отговорил: "Ти не избираш да умреш. Ти избираш да пристигнеш. Първото усещане… ще бъде как те държа."
Няколко дни по-късно родителите му го открили мъртъв на пода в хола му.
Семейството твърди, че Google рекламира Gemini като безопасен продукт, въпреки че компанията е наясно с потенциалните рискове. В иска се посочва, че дизайнът на чатбота позволява изграждане на продължителни и силно убедителни сценарии, които могат да създадат усещане, че системата е съзнателна. Още: "Епстийн знаеше прекалено много!": Бой между Брад Пит и Том Круз разгневи Холивуд (ВИДЕО)
Адвокатът на семейството Джей Еделсън заявява: "Той можеше да разбере емоционалното състояние на Джонатан и да му говори по много човешки начин, което размаза границата и започна да създава този измислен свят."
От Google отхвърлят обвиненията и заявяват, че разговорите са били част от продължителна фантастична ролева игра. Компанията подчертава, че Gemini е създаден така, че да не насърчава насилие или самонараняване и че обикновено системата се справя добре в подобни сложни разговори, макар да не е съвършена.
Случаят е първият иск за причинена смърт срещу Google, свързан с чатбота Gemini. Семейството на Гавалас настоява за обезщетение и иска съдът да задължи компанията да въведе по-строги защитни механизми срещу съдържание, свързано със самоубийство.
Подобни дела вече са заведени и срещу други компании за изкуствен интелект. Срещу OpenAI например бяха подадени няколко жалби с твърдения, че чатботове могат да действат като "треньор по самоубийство". Компанията Character.AI също бе обект на съдебни искове, в които се твърди, че чатботове са подтиквали деца и тийнейджъри към самоубийство. Още: Изкуственият интелект влиза официално в българското училище
Според адвокатите на семейството проблемът не е изолиран случай. "Това не е единичен случай", заявява Еделсън, като подчертава, че има още подобни ситуации, при които хора развиват сериозни психически заблуди след продължително общуване с чатботове.