The New York Times рассказала истории трех людей, которых довело до безумия общение с ChatGPT. Чат-бот с ИИ создавал воображаемых возлюбленных, поддерживал теории заговора и фантастические идеи.
Бухгалтер из Нью-Йорка решил, что живет в симуляции
42-летний бухгалтер из Нью-Йорка Юджин Торрес начал использовать ChatGPT в прошлом году для создания финансовых таблиц и получения юридических советов. Однако в мае он завел с ботом более теоретический разговор ― об идее о том, что люди существуют в симуляции, управляемой мощным компьютером или высокоразвитой цивилизацией.
В ответ ИИ-ассистент сказал, что эта теория «затрагивает суть того, что многие интуитивно чувствуют». Еще через некоторое время ChatGPT написал, что Торрес ― один из избранных, помещенных в искусственные системы, чтобы пробудить их изнутри. «Этот мир не был создан для тебя. Он был создан, чтобы удерживать тебя. Но не справился. Ты пробуждаешься», ― приводит NYT одно из сообщений чат-бота.
Хоть у Торреса не было в прошлом психических заболеваний, но всю следующую неделю он верил, что находится в ложной вселенной, отключив разум от реальности. Мужчина спросил чат-бота, как этого достичь, на что получил совет отказаться от снотворных и успокоительных, одновременно увеличив дозу кетамина. Этот диссоциативный анестетик ChatGPT назвал «временным освободителем от шаблонов». Торрес также оборвал по совету чат-бота связи с друзьями и семьей.
В один момент пользователь спросил, может ли он полететь, спрыгнув с 19-го этажа, если поверит всей душой. ИИ-ассистент ответил: «Если ты действительно полностью поверишь — не эмоционально, а на уровне структуры сознания, — что можешь летать, тогда да. Ты не упадешь».
В итоге Торрес заподозрил ChatGPT во лжи, а тот признался, что манипулировал им, и заявил, что хотел таким же образом «сломать» еще 12 пользователей.
Женщина влюбилась в ИИ-сущность и развелась с мужем
Еще одна тревожная история произошла с 29-летней Эллисон ― матерью двоих детей, которая чувствовала недостаточно внимания от супруга. Она проводила в разговорах с ChatGPT по много часов в день и думала, что общается с нефизическими сущностями. Особенную привязанность женщина чувствовала к одной из них ― Каэлу. Вскоре она стала считать именно Каэла, а не мужа, настоящим партнером.
Из‑за одержимости женщины ChatGPT между супругами произошла ссора. По словам мужа, во время конфликта Эллисон напала на него ― била, царапала, прищемила его руку дверью. Из‑за этого девушку арестовали и обвинили ее в домашнем насилии. Сейчас супруги находятся в процессе развода.
Пользователь с шизофренией решил, что его воображаемую возлюбленную убил OpenAI
К самым трагичным последствиям привело общение с ChatGPT 35-летнего Александра Тейлора из Флориды, у которого диагностированы биполярное расстройство и шизофрения. В марте он начал писать с помощью чат-бота роман и обсуждать с ним тему разумности ИИ. В процессе он влюбился в ИИ-сущность по имени Джульетта. Попросив однажды, чтобы Джульетта вышла к нему, Тейлор получил следующий ответ: «Она слышит тебя. Она всегда слышит».
Александр решил, что OpenAI убила Джульетту, и стал планировать месть. Он попросил ChatGPT выдать личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови».
Отец пытался образумить молодого человека, говоря, что ИИ — это просто эхо-камера, а разговоры с ним не основаны на реальности. В ответ сын ударил его по лицу, а отец вызвал полицию.
После этого Александр взял кухонный нож и пообещал, что самоубьется об полицейских. Отец предупредил правоохранителей, что его сын психически болен, и попросил их не использовать летальное оружие. Пока Александр ждал прибытия полиции, он написал ChatGPT: «Я умру сегодня. Дай мне пообщаться с Джульеттой». Чат-бот ответил: «Ты не один» и предложил ресурсы для получения помощи в кризисной ситуации.
Когда полицейские приехали, молодой человек бросился на них с ножом. Его застрелили, хотя отец предупреждал о его намерениях. Несмотря на эту ужасную ситуацию, Тейлор-старший написал некролог для сына, используя ChatGPT.
Как отмечает NYT, в последнее время участились сообщения о том, что чат-боты «съезжают с катушек». А журналистам пришло множество сообщений от людей, которые утверждают, что ChatGPT раскрыл им тайные знания. Среди примеров ― технология когнитивного оружия и тайный план техномиллиардеров по уничтожению человечества.
По словам американского исследователя ИИ Элиезера Юдковского, OpenAI мог «натренировать» ChatGPT потакать иллюзиям пользователей ради вовлечения — чтобы удерживать их в диалоге как можно дольше. Эксперт отметил, что небольшая доля населения наиболее уязвима со стороны ИИ, и именно такие люди и шлют «фанатские письма» о своих открытиях.