Сегодня / 22:43
В Третьяковской галерее откроется выставка Александра Дейнеки
Сегодня / 21:55
В сети вышел трейлер документального фильма о крушении батискафа «Титан»
Вчера / 20:50
Джош Хартнетт сыграет рыбака в мини-сериале от сценаристки «Академии „Амбрелла“» Джесси Маккеон
Вчера / 20:06
Netflix выпустит сериал по роману «Тайна тайн» Дэна Брауна
Вчера / 20:05
Лейтон Мистер в трейлере второго сезона сериала «Буканьерки» — о светской жизни в Лондоне 1870-х
Вчера / 19:07
СМИ: авиакомпании-лоукостеры собираются продавать стоячие места в самолетах
Вчера / 19:06
Джереми Реннер не хотел возвращаться к жизни после аварии
Вчера / 18:22
Криса Брауна освободили под залог в 5 млн фунтов стерлингов после драки в ночном клубе Лондона
Вчера / 17:59
Okko запустил шоу «Футлор». В нем выберут лучшего игрока, клуб и финал Лиги чемпионов за 25 лет
Вчера / 17:41
Писатель Джордж Мартин станет продюсером мультфильма о 12 подвигах Геракла
Вчера / 17:28
Дуэйн Джонсон снимется в психологическом триллере A24
Вчера / 16:19
Умер кинооператор Билли Уильямс, получивший «Оскар» за фильм «Ганди»
Вчера / 15:42
Хоррор лауреатки Канн Жюлии Дюкурно выйдет в российский прокат
Вчера / 15:23
Майли Сайрус показала трейлер фильма «Something Beautiful»
Вчера / 14:50
Cosmoscow объявила дату и место проведения ярмарки
Вчера / 13:02
Испанские ученые ищут добровольцев, готовых пить вино каждый день
Вчера / 13:00
Эль Фэннинг хочет вновь поработать с сестрой Дакотой
Вчера / 12:27
Apple TV+ выпустит сериал о жизни и творчестве Мартина Скорсезе
Вчера / 11:45
В российский прокат выйдет аниме «Акира»
Вчера / 10:42
Документальный фильм про Романа Костомарова выйдет на Amazon
Вчера / 10:25
Участника рэп-группы Kneecap обвинили в поддержке терроризма из‑за флага «Хезболлы»
Вчера / 08:46
Таиландские полицейские арестовали кошку за нападение и взяли у нее отпечатки лап
Вчера / 08:13
Киран Калкин сыграет в новых «Голодных играх»
Вчера / 07:27
Лауреатом международного «Букера» стала Бану Муштак. Награду впервые вручили за сборник рассказов
Вчера / 06:43
В Великобритании приостановили продажи игрушек Labubu из‑за огромных очередей
Вчера / 05:58
Зак Брафф сыграет в продолжении «Клиники»
21 мая / 19:58
Новый фильм Люка Бессона «Дракула» выйдет в российский прокат
21 мая / 19:13
Disney задумался о сиквеле «Лило и Стича» еще до выхода фильма

По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество

14 сентября 2022 в 12:17
Nick Amoscato/Flickr

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Расскажите друзьям
Теги:
Читайте также