Что ChatGPT писал человеку, который покончил жизнь самоубийством
Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT. ❗ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения. Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления. ❗ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, Chat...