“Обманывает“ в половине случаев: разработчики усомнились в ИИ
GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее — на Tengri Life со ссылкой на SkyNews.
В мире ИИ снова тревожные новости. На днях журналисты Sky News поймали ChatGPT на фейках: он выдумал целые стенограммы подкаста «Политика у Сэма и Энн». Когда редакцию уличили в подделке, те не сразу признали ошибку, но под давлением пришлось сдаться и признаться.
Но это не единичный случай. По данным самого OpenAI, ситуация с «галлюцинациями» у ИИ ухудшается. Внутренние тесты показали: новая версия модели o4-mini выдает недостоверную информацию почти в каждом втором ответе в 48 процентах случаев.
Даже предыдущая модель (o3) ошибалась в 33 процентах запросов, когда речь шла о проверяемых фактах.
В OpenAI признали, что переход на новую модель GPT-4o, похоже, «случайно усилил» эффект, который пользователи называют «блефом». Это когда ChatGPT отвечает слишком уверенно — даже если на самом деле ошибается или не знает точного ответа. При этом он не показывает ни тени сомнения, что может ввести в заблуждение и создать ложное ощущение достоверности.
Фото: depositphotos.com
В OpenAI объяснили, почему новая модель GPT-4o иногда может показаться слишком уверенной, даже если не до конца права. Всего назвали четыре причины:
- натуральная подача: GPT-4o звучит более плавно и естественно, как настоящий человек. Это делает ответы приятнее на слух, но при этом даже небольшие ошибки могут восприниматься как уверенное утверждение, а не простая неточность;
- быстрее, но не всезнайка: модель стала умнее и шустрее, но все еще может не знать некоторых фактов. В таких случаях она заполняет пробелы, выдавая ответ с уверенностью — это и называют «галлюцинацией»;
- меньше осторожности в формулировках: раньше модель чаще говорила «я не уверен» или «возможно, я ошибаюсь». Сейчас таких вставок меньше, чтобы тексты были короче и легче читались — но это может создавать впечатление, что она все знает точно;
- особенности настройки: в процессе доработки GPT-4o разработчики сосредоточились на скорости, уверенности и понятности. Это могло временно изменить баланс между точностью и подачей, и они продолжают работать над улучшениями.
Но можно ли доверять даже этим объяснениям? Точного ответа нет. Одно ясно: разработчики стараются сделать ИИ все более «человечным» — не просто помощником, а чем-то, с чем хочется говорить, кому хочется верить.
Ранее мы писали, что ChatGPT вошел в первую пятерку самых посещаемых сайтов мира. Такие данные приводит аналитическая компания из Израиля.
Напомним, ранее в Министерстве цифрового развития, инноваций и аэрокосмической промышленности высказались об ограничении на использование популярной нейросети ChatGPT для государственных служащих.
Источник: tengrinews.kz