Експерти: Чатботове са обречени вечно да съчиняват лъжи

03 август 2023, 06:01 часа 1649 прочитания 0 коментара

Не е тайна, че чатботовете с изкуствен интелект, като ChatGPT на OpenAI, са твърде склонни да си измислят информация. Те са също толкова добри в измислянето на факти, колкото и в това да ви помагат в работата - и когато смесят двете неща, може да се стигне до катастрофа, съобщава "The Byte".

Още: Yettel добавя възможност за регистрация на предплатена карта в мобилното си приложение

Още: Starlink се срина по целия фронт в Украйна

Две лъжи и една истина

Въпросът дали хората, които разработват изкуствения интелект, могат да решат този проблем, остава предмет на дискусия. Някои експерти, включително мениджъри, които предлагат тези инструменти на пазара, твърдят, че тези чатботове са обречени вечно да съчиняват лъжи, въпреки всички усилия на създателите им.

"Не мисля, че днес има модел, който да не страда от някаква халюцинация", каза Даниела Амодей, съосновател и президент на Anthropic, създател на чатбота с изкуствен интелект Claude 2, имайки предвид генерирането на неточни текстове.

Още: Навреме за новата учебна година: Vivacom с първи 5G таблет и нов, още по-добър 5G смартфон с AI, на топ цени

Още: Изкуствен интелект ще подпомага здравните грижи в Норвегия

"Чатботовете наистина са създадени, за да предсказват следващата дума", добави тя. "И така, ще има някакъв процент възможност, в който моделът винаги ще върши тази задача неточно."

А това не вещае нищо добро, като се има предвид, че технологичните компании са инвестирали много в технологиите. Например Google, която тайно предлага на големите вестници генератор на новини, базиран на изкуствен интелект. Други новинарски агенции вече експериментират с технологията, като създават съдържание, генерирано от изкуствен интелект, което често е изпълнено с неточности. С други думи, без възможността чатботовете да коригират лошата склонност да си измислят, компаниите може да се сблъскат с големи затруднения, докато проучват нови начини за използване на технологията.

"Това не може да се поправи", категорична е Емили Бендър, професор по лингвистика и директор на Лабораторията за компютърна лингвистика към Вашингтонския университет. "То е присъщо на несъответствието между технологията и предложените начини на употреба. Според Бендър само "по случайност, генерираният текст от ИИ текст, може да бъде интерпретиран като нещо, което ние хората считаме за правилно."

Технологичните лидери обаче са оптимистично настроени, което не е съвсем изненадващо, като се има предвид, че става въпрос за милиарди долари.

Още: Забавни игри от Yettel учат деца и родители на дигитална безопасност в Mall of Sofia на прага на новата учебна година

Още: Умен старт на новия семестър – водещи смартфони с 0% лихва на лизинг от А1

"Мисля, че ще успеем да намерим решение на проблема", заяви главният изпълнителен директор на OpenAI Сам Алтман пред аудитория в Индия по-рано тази година. "Смятам, че това ще ни отнеме година и половина, две години. Нещо такова."

Компании като OpenAI и Anthropic сега са въвлечени в трудна битка. Ако има нещо сигурно, то е, че да накараме чатботовете да казват истината по надежден начин ще бъде всичко друго, но не и лесно, ако изобщо е възможно.

ОЩЕ: МУЗИКАУТОР се присъедини към международен апел за защита на авторските права от изкуствения интелект

Последвайте ни в Google News Showcase, за да получавате още актуални новини.
Мартин Стоянов
Мартин Стоянов Отговорен редактор
Новините днес