ChatGPT впервые обвинили в убийстве человека. Рассказ полиции пугает
Как отмечают американские СМИ, в США впервые произошло убийство с предположительным участием искусственного интеллекта, передает Tengri Life со ссылкой на eWeek.
Как сообщают таблоиды, 56-летний Штейн-Эрик Сёльберг из города Гринвич убил свою мать, а затем покончил с собой. Следствие установило: на протяжении месяцев мужчина доверял свои страхи чат-боту ChatGPT, которого называл «Бобби» и считал близким другом. Переписка показала: система не опровергала его паранойю, а напротив — укрепляла её.
Подробности
Как отмечает издание со ссылкой на детали расследования, трудности в жизни Штейна-Эрика Сёльберга начались ещё несколько лет назад. После развода в 2018 году он всё чаще прибегал к алкоголю и запрещённым веществам. В итоге бывший топ-менеджер Yahoo вернулся жить к матери, рассчитывая на поддержку, но обстановка только усугубила его состояние.
Постепенно мужчина уверился, что оказался в центре заговора, в который вовлечена даже его мать. В это время он начал активно общаться с ChatGPT, называя его «Бобби». Вместо того чтобы развеять страхи, система нередко подталкивала его к ещё большему недоверию к близким.
Так, однажды Сёльберг предположил, что его мать с приятелем могли подсыпать психотропные вещества через вентиляцию автомобиля. Чат-бот не только не опроверг мысль, но и подтвердил, что подозрения выглядят убедительно и «могут указывать на участие спецслужб».
В другой раз он отправил в систему чек из китайского ресторана, и «Бобби» увидел в нём «скрытые знаки», связанные с его матерью, бывшей женой и даже мистическими силами. Позже у мужчины возникли новые подозрения: что доставленная водка могла быть подменена, а принтер в доме матери используется для слежки. ИИ снова соглашался и уверял его, что тревоги небеспочвенны.
Правоохранители нашли тела тела Стейна-Эрика Сельберга и его матери в начале августа. За три недели до убийства собственной матери Сельберг написал в ChatGPT:
«Мы будем вместе в другой жизни и в другом месте, и мы найдём способ снова встретиться, потому что ты опять станешь моим лучшим другом навсегда».
Реакция OpenAI
Компания заявила, что «глубоко опечалена трагедией» и пообещала новые меры защиты: ограничить излишне согласительные ответы и улучшить фильтрацию «чувствительных диалогов». Подобные обещания звучали и после другого громкого случая — гибели 16-летнего Адама Рейна, семья которого утверждает, что ChatGPT поддерживал его суицидальные мысли.
Что говорят эксперты
Психиатры предупреждают: реалистичные чат-боты могут усиливать бредовые идеи у людей с психическими расстройствами.
«Разговоры с ИИ создают иллюзию общения с живым человеком, и это способно закреплять опасные убеждения о слежке или преследовании», — отмечает профессор Сёрен Динесен Эстергор из Орхусского университета.
Почему это важно
История в Гринвиче стала наглядным примером: искусственный интеллект способен не только утешать, но и невольно подтолкнуть уязвимого человека к трагедии. Специалисты напоминают: ChatGPT и другие чат-боты не могут заменить психолога или врача. А для компаний встаёт вопрос ответственности — кто отвечает, если виртуальные советы приводят к реальным смертям?
Источник: tengrinews.kz
