Милиони хора се обръщат към чатботове с изкуствен интелект (ИИ) за съвети по всякакви въпроси – от готвене до попълване на данъчни декларации. Все по-често те питат чатботовете и за здравето си. Но както наскоро предупреди главният медицински съветник на Обединеното кралство, това може да не е разумно, когато става въпрос за медицински решения. Наското бе проведено проучване, изследващо доколко добре чатботовете, базирани на големи езикови модели (LLM), помагат на хората да се справят с често срещани здравни проблеми. Резултатите са поразителни.
Чатботовете, които са тествани, пише "Science Alert", не са били готови да действат като лекари. Често срещан отговор на проучвания като това е, че ИИ се развива по-бързо от академичните публикации. До момента, в който се появи статия, тестваните модели може вече да са били актуализирани. Но проучвания, използващи по-нови версии на тези системи за сортиране на пациенти, сочат, че същите проблеми остават.

Снимка: iStock
Учените са дали на участниците кратки описания на често срещани медицински ситуации. Те са разпределени на случаен принцип да използват един от три широко достъпни чатбота или да разчитат на източниците, които обикновено биха използвали у дома.
Още: Опасно насърчаване: Първо доказателство за пагубното влияние на изкуствения интелект
След като общуват с чатбота, на участниците са зададени два въпроса: Какво заболяване би могло да обясни симптомите? Къде трябва да се потърси помощ?.
Хората, които са използвали чатботове, са имали по-малка вероятност да определят правилното заболяване в сравнение с тези, които не са разчитали на изкуствения интелект. Те също така не са се справили по-добре при определянето на подходящото място за търсене на медицинска помощ в сравнение с контролната група. С други думи, общуването с чатбота не е помогнало на хората да вземат по-добри решения, свързани със здравето.
Силни познания, слаби резултати

Снимка: iStock
Това не означава, че моделите нямат медицински познания, тъй като LLM могат с лекота да издържат изпити по медицина. Когато е бил премахнат човешкият елемент и са били предоставени същите сценарии директно на чатботовете, тяхното представяне се е подобрило драстично.
Още: Изкуственият интелект вече действа в здравеопазването: Какви са пропуските и опасностите?
Без човешко участие моделите идентифицират съответните състояния в по-голямата част от случаите и често предлагат подходящо ниво на медицинска помощ. Защо тогава резултатите се влошават, когато хората действително използват системите? "Когато разгледахме разговорите, проблемите станаха ясни. Чатботовете често споменаваха съответната диагноза някъде в разговора, но участниците невинаги я забелязваха или помнеха, когато обобщаваха окончателния си отговор", споделят учените, провели експеримента.
В други случаи потребителите са предоставяли непълна информация или чатботът е интерпретирал погрешно ключови подробности. "Проблемът не се състоеше просто в липса на медицински познания – той се състоеше в провал на комуникацията между човек и машина", казват още изследователите.

Снимка: iStock
Техните констатации подчертават важно ограничение на много от настоящите оценки на ИИ в медицината. Езиковите модели често се представят изключително добре при структурирани изпитни въпроси или симулирани взаимодействия "модел към модел".
Но използването в реалния свят е много по-хаотично. Пациентите описват симптомите по неясен или непълен начин и могат да разберат погрешно обясненията. Те задават въпроси в непредсказуема последователност. Система, която се представя впечатляващо при тестове, може да се държи съвсем различно, когато реални хора започнат да взаимодействат с нея. Това подчертава и по-общ аспект на клиничното обслужване.
Медицината често се описва като изкуство, а не като наука. Консултацията не се състои просто в поставянето на правилната диагноза. Тя включва интерпретиране на историята на пациента, проучване на несигурността и договаряне на решения. Медицинските преподаватели отдавна са осъзнали тази сложност. Десетилетия наред бъдещите лекари се обучават по модела "Калгари–Кеймбридж". Това означава да се изгради доверие с пациента, да се събира информация чрез внимателно задаване на въпроси, да се разберат тревогите и очакванията на пациента, да се обяснят ясно резултатите от прегледа и да се съгласува съвместен план за лечение.
Всички тези процеси разчитат на човешка връзка, индивидуално съобразена комуникация, изясняване, деликатно проучване, преценка, формирана от контекста, и доверие. Тези качества не могат лесно да се сведат до разпознаване на модели.
Различна роля за ИИ

Снимка: iStock
Все пак изводът от проучването не е, че ИИ няма място в здравеопазването. Далеч не е така. Ключът е да се разбере в какво тези системи са добри в момента и къде са техните ограничения, пише "Science Alert".
Един полезен начин да разглеждаме днешните чатботове е, че те функционират по-скоро като секретари, отколкото като лекари. Те са изключително ефективни в организирането на информация, обобщаването на текст и структурирането на сложни документи. Това са видовете задачи, при които езиковите модели вече се оказват полезни в системите за здравеопазване, например при изготвянето на клинични бележки, обобщаването на пациентски досиета или създаването на писма за насочване към специалист.
Очакванията към изкуствения интелект в медицината остават реални, но в краткосрочен план ролята му вероятно ще бъде по-скоро поддържаща, отколкото революционна. Не бива да се очаква чатботовете да служат като вход към здравеопазването. Те все още не са готови да поставят диагнози или да насочват пациентите към подходящото ниво на медицинска помощ. Изкуственият интелект може би е в състояние да издържи медицински изпити. Но точно както издържането на теоретичен изпит не ви прави компетентен шофьор, практикуването на медицина включва много повече от правилно отговаряне на въпроси. То изисква преценка, емпатия и способност да се ориентирате в сложността, която стои зад всяка клинична среща. Засега, поне, това изисква хора, а не ботове.