Сегодня / 15:57
Большой театр стал продавать только именные билеты по паспортам
Сегодня / 17:22
«Неделю толстого медведя» в США отложили после того, как один из участников убил соперника
Сегодня / 16:36
В Нью-Йорке крыс будут кормить противозачаточными средствами
Сегодня / 16:24
Режиссер «Людей в черном» пожаловался, что Уилл Смит постоянно пукал на съемочной площадке
Сегодня / 15:54
«Где ты, тетя Люси?»: вышел новый трейлер третьей части «Приключений Паддингтона»
Сегодня / 15:50
Фильм «Ржавчина», на съемках которого погибла операторка Галина Хатчинс, покажут в Польше
Сегодня / 15:40
Представитель Дурова: основатель Telegram и Ирина Болгар никогда не были парой
Сегодня / 15:14
Джеймс Блант пообещал сменить имя, если переиздание его дебютного альбома возглавит чарты
Сегодня / 14:58
Врач Мэттью Перри признал себя виновным в распространении кетамина для актера
Сегодня / 14:18
Кинокритик Алиса Таежная запускает курс о самых скандальных и шокирующих фильмах
Сегодня / 13:42
«Для стерилизованных подходит?»: на маркетплейсах появился корм для квадроберов
Сегодня / 13:07
Депутат Госдумы предложил отбирать детей-квадроберов у родителей
Сегодня / 12:02
Американца посадили в тюрьму за клонирование гигантского барана для трофейной охоты
Сегодня / 11:56
Полиция задержала похитителя детенышей кенгуру из зоопарков. Одно животное умерло
Сегодня / 10:51
Спасенные на Камчатке косатки вновь оказались на мели
Сегодня / 10:30
Лерчек и ее экс-супруг задержаны в Москве
Сегодня / 10:01
Стартовали съемки сериала про нуарного Человека-паука с Николасом Кейджем
Сегодня / 09:30
«Яндекс Маркет» запустил Ultima — проект с эксклюзивными товарами и премиальным сервисом
Сегодня / 09:25
Против сжегшего Коран Никиты Журавеля завели уголовное дело по статье о госизмене
Сегодня / 08:56
Журнал Total Film перестанет выходить офлайн. Номер о «Гладиаторе-2» станет последним
Сегодня / 01:59
Charli XCX присоединится к актерскому составу сериала «Гиперкомпенсация»
Сегодня / 01:08
Дизайнер Майкл Райдер станет новым креативным директором бренда Celine
Сегодня / 00:25
СМИ: Pure запустит приложение в телеграме со «всеми-всеми соблазнами и предпочтениями»
Вчера / 23:24
В Кемерове мужчина украл 64 кочана капусты у пенсионерки и получил срок
Вчера / 23:13
Экс-бойфренда солистки группы Uno осудили на восемь лет
Вчера / 22:34
Группа Pink Floyd продала свой каталог компании Sony за 400 миллионов долларов
Вчера / 22:25
По «Ох уж эти детки!» снимут фильм. Режиссером станет Джейсон Мур
Вчера / 21:58
Риз Уизерспун выпустит литературный триллер в соавторстве с Харланом Кобеном
Вчера / 21:09
В США подруги по переписке встретились спустя 60 лет после начала общения
Вчера / 20:56
Netflix опубликовал трейлер фильма «Радость», рассказывающего о создании ЭКО
Вчера / 20:34
«Я люблю этого персонажа»: Эндрю Гарфилд заявил, что хотел бы вернуться к роли Человека-паука
Вчера / 20:22
«Шугар» с Колином Фарреллом продлили на второй сезон
Вчера / 20:13
Володин назвал «рожденными в пробирке» депутатов, не поддержавших запрет пропаганды чайлдфри
Вчера / 20:06
Джек Куэйд в тизере-трейлере кровавого триллера «Компаньон»
Вчера / 19:55
Израиль объявил персоной нон грата генсека ООН

Адвокат подготовил документы по делу с помощью ChatGPT. Теперь на него самого заведено дело

31 мая 2023 в 15:53
Jonathan Kemper/Unsplash

Чат-бот ChatGPT на основе большой языковой модели нашел применение во многих областях: студенты с помощью него пишут дипломы, программисты — код, соискатели вакансий — резюме. Но если одним технология помогает, других — вводит в заблуждение. Японские университеты выступают против использования чат-бота, указывая, что студентам стоит писать работы самостоятельно. Работодатели жалуются, что сгенерированные резюме мешают найти им подходящего сотрудника, а ВОЗ предупреждает об опасности использования чат-бота в медицине.

Причина всегда одна — сгенерированные ChatGPT тексты могут звучать очень убедительно, но не иметь никакого отношения к действительности. Это обстоятельство и подвело адвоката из Нью-Йорка Стивена Шварца, юриста фирмы Levidow, Levidow & Oberman с 30-летним стажем (а заодно и принесло ему всемирную известность — о его кейсе написала газета The New York Times).

Шварц вел дело человека по имени Роберто Мата, который подал в суд на авиакомпанию Avianca. Мужчина пожаловался, что во время полета из Сальвадора в Нью-Йорк сотрудник авиаперевозчика ударил его по колену металлической тележкой с едой и напитками. Инцидент произошел в 2019 году, и защита Avianca попросила федерального судью Манхэттена закрыть дело за истечением срока давности.

Адвокаты Маты возразили — и подкрепили свою позицию 10-страничным отчетом со ссылкой на полдюжины судебных решений по аналогичным делам: «Мартинес против Delta Air Lines», «Цикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и другим. Также в отчете обосновывалось, почему закрывать такие дела по истечении срока давности плохо для судебной системы.

Вскоре адвокаты Avianca заявили судье, что им не удалось найти ни одного из дел, упомянутых в отчете. В базах нет ни названий этих дел, ни цитат из них, ни других дел, имеющих хоть какое‑то сходство с указанными. Один из защитников авиакомпании заявил, что его фирма Condon & Forsyth специализируется на авиационном праве, и ее юристы пришли к выводу, что все эти дела фейковые. По его словам, фирма подозревает, что тут может быть замешан чат-бот.

Судья решил проверить сам — и действительно, номера досье, указанные в отчете адвокатов Маты, были связаны совсем с другими делами, а внутренние ссылки и цитаты оказались вымышленными.

Тогда от Шварца потребовали объяснений. Под присягой адвокат сказал, что консультировался с ChatGPT, «чтобы дополнить» собственную работу. Во время таких консультаций чат-бот процитировал ему шесть несуществующих случаев.

Чтобы убедиться в их достоверности, Шварц спросил у ChatGPT, настоящие ли они. «Да, — ответил чат-бот. — Эти случаи реальны и могут быть найдены в авторитетных юридических базах данных». Такой ответ устроил Шварца.

В свое оправдание адвокат заявил, что у него не было намерения обмануть суд или авиакомпанию. Он сказал, что раньше никогда не использовал ChatGPT, и поэтому не знал, что его ответы могут быть ложными. Шварц «очень сожалеет», что полагался на программу, «и больше никогда не будет этого делать, не убедившись в подлинности информации».

Теперь адвокату самому грозят санкции — 8 июня назначено заседание по его делу. Судья назвал ситуацию беспрецедентной, указав, что толкование правовой позиции содержит ложные ссылки и цитаты.

OpenAI предупреждала, что даже последняя версия их языковой модели GPT-4 продолжает генерировать выдуманные ответы. Однако, по их заверениям, делает она это на 40% реже, чем ближайшая предшественница GPT-3,5. Кроме того, она может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной (есть и множество полезных вещей, на которые GPT-4 способна, подробнее об этом здесь).

В адвокатском сообществе дело Шварца получило широкий резонанс — юристы обсуждают ценности и опасности ИИ, а также необходимость проверки любой информации, которую технология предоставляет. «Сейчас в барах обсуждается, как избежать того, что описывает именно этот случай», — сказал профессор юридической этики в Школе права Нью-Йоркского университета Стивен Гиллерс. The New York Times приходит к выводу, что кейс Шварца показывает: «у белых воротничков есть по крайней мере немного времени, прежде чем роботы возьмут верх».

Расскажите друзьям