Сегодня / 15:06
«Просто избегаю мужчин»: польские школьники нашли в бутылке любовное письмо 1959 года
Сегодня / 14:07
В Москве разыграют миллион рублей на чемпионате по игре «Камень, ножницы, бумага»
Сегодня / 13:09
«Да во что ты меня втянул?!»: вышел трейлер «Пойман на краже» Даррена Аронофски
Сегодня / 13:04
Рособрнадзор посчитал до 30% школьной программы слишком сложной для подростков
Сегодня / 12:45
Российский режиссер Маша Черная получила в Каннах приз за лучший документальный фильм
Сегодня / 12:32
Okko покажет финал Лиги чемпионов в кино с живым комментарием
Сегодня / 12:22
Прогулки под парусом, диджей-сеты, лекции о яхтинге и пинг-понг: «Сила ветра» откроет сезон в Москве
Сегодня / 11:38
В Англии соседи поссорились из‑за домашней свиньи, которая «воняет и храпит»
Сегодня / 11:36
Квентин Тарантино выпустит серию книг о создании своих фильмов
Сегодня / 09:52
В Китае появится первый фитнес-клуб для собак
Сегодня / 09:19
«Афиша» запустила видеогид по культурным маршрутам московского метро
Сегодня / 08:10
Три филиала Пушкинского музея прекратят работу с 1 января
Сегодня / 07:58
В Москве закроется первый «Магазинус» Артемия Лебедева спустя 17 лет работы
Сегодня / 07:01
В России могут признать иноагентом инопланетянина, если он будет «творить чудеса против страны»
Сегодня / 06:26
Майкл Бэй приступил к производству фильма по «Skibidi Toilet»
Сегодня / 06:02
Дэниел Крейг и Киллиан Мерфи могут сыграть в новом проекте Дэмиена Шазелла
Сегодня / 23:09
Чиветель Эджофор снимется в хорроре «Подсобные помещения»
Сегодня / 22:18
Кэри Маллиган появится в «Нарнии» Греты Гервиг
Сегодня / 21:34
Джафар Панахи впервые за 20 лет приехал на Каннский фестиваль — и удостоился 10-минутных оваций
Вчера / 20:17
В Москве во второй раз за год повышают стоимость проезда в общественном транспорте
Вчера / 20:09
Эль Фэннинг сыграет Эффи Тринкет в фильме «Голодные игры: Рассвет жатвы»
Вчера / 19:15
В сети появился трейлер четвертого сезона сериала «Медведь»
Вчера / 18:42
Рина Саваяма снимется в сериале «Вундеркинды»
Вчера / 17:49
Художница манги предсказала мощное землетрясение в Японии — туристы массово отменяют поездки
Вчера / 17:20
В Англии мальчик научился играть на фортепиано по видео с ютуба. Его пригласили в музыкальную школу
Вчера / 16:15
Вышел первый тизер-трейлер мультфильма «Зверополис-2»
Обновлено вчера в 15:54
Экспозиция музея Людвига вновь станет доступна посетителям в ноябре
Вчера / 15:52
Употребление фастфуда и сладостей увеличивает риск депрессии. Все дело в микропластике

OpenAI призвала регулировать ИИ и предупредила о рисках технологии: как прошли слушания в сенате США

17 мая 2023 в 14:13
Сэм Альтман на слушании. Фото: CNBC Television/YouTube

16 мая создатель ChatGPT и руководитель отдела конфиденциальности в корпорации International Business Machines Сэм Альтман выступил в сенате США. Во время слушаний он призвал сенаторов более жестко регулировать технологии искусственного интеллекта, которые становятся источниками этических и юридических проблем, а также подрывают национальную безопасность.

The New York Times в своей статье отмечает, что Альтман и сенаторы не были по разные стороны баррикад, как это уже бывало между государством и технологическими компаниями (можно вспомнить Марка Цукерберга и Джеффа Безоса). За день до слушаний гендиректор OpenAI даже встречался наедине с рядом сенаторов, перед которыми позже выступал. Один из них, Дик Дурбин, во время слушаний подчеркнул, что он впервые видит людей из крупных организаций, которые «умоляют регулировать их деятельность».

«Афиша Daily» собрала главное со слушаний об искусственном интеллекте в Сенате США.

«Я больше всего боюсь, что мы, технологическая индустрия, причиним миру серьезный вред»

Альтман высоко оценил потенциал технологии ИИ, которая, по его словам, может решить самые большие проблемы человечества. Но он напомнил, что она достаточно мощная, чтобы изменить общество непредсказуемым образом, поэтому «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков». Альтман предупредил, что если ИИ «пойдет наперекосяк», то миру может быть причинен «серьезный вред».

По словам Альтман, технология его компании может лишить общество некоторых профессий и взамен создать новые, и «правительству будет важно выяснить, как можно смягчить» этот переход. «Мы считаем, что преимущества созданных нами инструментов значительно перевешивают риски, но обеспечение их безопасности жизненно важно для нашей работы», — заключил он.

Помимо Альтмана, в сенате выступили директор IBM по вопросам конфиденциальности Кристина Монтгомери и профессор Нью-Йоркского университета, частый критик ИИ-технологии Гэри Маркус. Монтгомери призвала к точному оцениванию рисков и регулированию именно разработки ИИ, а не его использования. А Маркус обвинил OpenAI в непрозрачной политике по обработке данных и засомневался в обещании Альтмана новых рабочих мест.

Альтман предложил создать отдельное агентство по регулированию ИИ. По его задумке, оно будет выдавать лицензии на разработку больших моделей ИИ, формулировать правила техники безопасности и разрабатывать тесты, которые должны будут пройти модели перед релизом. Маркус в свою очередь предупредил, что агентство рискует оказаться захваченным отраслью, которое оно вообще-то должно регулировать.

Чего опасаются сенаторы

Законодателей больше всего волновало влияние ИИ на демократический строй и конкуренция с Китаем, но не только, передает Bloomberg.

Сенатор от штата Коннектикут и председатель комиссии Ричард Блюменталь во время вступительной речи включил запись своего фейкового голоса. Она была создана из отрывков его предыдущих речей, а слова написаны чат-ботом ChatGPT, которого попросили сгенерировать вступительную речь. Он призвал новаторов в области ИИ работать с регулирующими органами над новыми ограничениями и признал, что конгресс не принял адекватных мер защиты для уже существующих технологий.

Блюменталь включил свой фейковый голос

Блюменталь вспомнил эпоху появления социальных сетей, которую американские власти «не смогли встретить», и посоветовал не повторить того же самого с ИИ. Речь идет о том, как конгресс не смог привлечь соцсети к ответственности за модерацию контента, что привело к распространению дезинформации во время выборов 2016 и 2020 годов. Однако Альтман несколько раз подчеркнул, что соцсети и ИИ — это две разные вещи и подход ко второму должен быть другим.

Директор Центра политических исследований AI Now Institute Сара Майерс Уэст раскритиковала предложения Альтмана по регуляции ИИ: ограничения, по ее мнению, должны также касаться использования нейросетей в полиции и обработки биометрических данных. Она отметила, что глава OpenAI не пытался замедлить разработку ChatGPT: «С иронией наблюдаю за тем, как люди беспокоятся о вреде системы, которую сами же выпустили для свободного использования».

Сенаторы вслед за Альтманом тоже предложили создать независимое агентство для надзора за ИИ. Помимо этого, законодатели считают нужным заставить компании раскрывать алгоритм работы их моделей и наборы данных, которые они используют, а также составить антимонопольные правила, чтобы предотвратить захват зарождающегося рынка гигантами типа Microsoft и Google.

Некоторые участники слушаний предупредили, что чрезмерная регуляция может затормозить развитие технологии, у которой есть большие экономические перспективы для Соединенных Штатов, и дать фору китайским разработчикам.

Большая часть обсуждения была сосредоточена на генеративном ИИ, который может создавать изображения, аудио и текст, которые кажутся созданными человеком. Однако технология применяется не только для создания аудиовизуального контента: алгоритмы рекомендаций в соцсетях и программы, анализирующие огромное количество данных или же погодные условия, тоже полагаются на ИИ.

Альтман уверен, что общественность научится вычислять контент с ложной информацией, созданной ИИ. «Когда давным-давно появился Photoshop, какое‑то время люди действительно обманывались [изображениями, созданными в программе], а затем довольно быстро стали понимать, где есть фотошоп и где нет», — сказал он, но в то же время подчеркнул, что в случае с ИИ отличать правду от вымысла будет в разы сложнее.


В начале мая «крестный отец искусственного интеллекта» Джеффри Хинтон ушел из Google из‑за этических проблем с нейросетями. Он сделал это, чтобы предупредить о рисках, связанных с использованием ИИ-технологий. «Возможно, вы больше не сможете знать, что является правдой», — подчеркнул ученый в своем заявлении.

Расскажите друзьям
Читайте также