Сегодня / 15:03
Дензел Вашингтон готовит еще два «Великих уравнителя» и обижен на «Оскар» из‑за победы Кевина Спейси
Сегодня / 16:59
Логан Пол послал на интервью в Би-би-си своего двойника
Сегодня / 16:41
В Балтийском море нашли одинокого дельфина, который разговаривает сам с собой
Обновлено сегодня в 16:27
Госдума приняла в первом чтении законопроект о запрете иноагентам получать гонорары из РФ
Сегодня / 16:18
Румыния и Болгария официально войдут в Шенгенскую зону с января 2025 года
Сегодня / 16:13
Путин подарил 70 животных зоопаркам КНДР
Сегодня / 15:43
Шестисерийный триллер «Нулевой день» с Робертом Де Ниро выйдет в феврале
Сегодня / 15:10
Концовку «Дэдпула и Росомахи» изменили в последний момент из‑за Блейк Лайвли
Сегодня / 15:03
Российская ИТ-компания пригласила на работу семилетнего вундеркинда-кодера
Сегодня / 14:12
Lucasfilm анонсировал третий сезон аниме-антологии «Звездные войны: Видения»
Сегодня / 14:05
«Аэрофлот» выполнит благотворительный рейс с оркестром и направит выручку на подарки для детдомов
Сегодня / 13:30
Мать операторки Галины Хатчинс, погибшей на съемках «Ржавчины», отказалась посещать премьеру фильма
Сегодня / 13:25
Во Франции миллиардера вызвали на драку из‑за плохого интернета. Он пришел, а оппонент нет
Сегодня / 11:20
Пенсионерка выживала в тайге 11 дней без еды и воды
Сегодня / 10:59
Скончался исполнитель классической темы Джеймса Бонда Вик Флик
Сегодня / 10:45
Флоренс Пью заморозила яйцеклетки из‑за болезни: «Думала, я так молода — зачем мне анализы?»
Сегодня / 10:36
В России работают над аналогом Apple Pay
Сегодня / 10:10
Rutube запустит телеканал Rutube TV с контентом блогеров и без рекламы
Сегодня / 09:53
«Пора повеселиться»: вышел полноценный трейлер «Minecraft в кино»
Сегодня / 09:47
«Эксмо» и «АСТ» оштрафовали на 4 млн рублей за порнографию в «Наследии» Сорокина
Вчера / 23:19
Warner Bros. заключила сделку, чтобы снять ремейки «Паразитов» и «Прошлых жизней»
Вчера / 22:51
Анджелина Джоли сыграет главную роль в фильме о Неделе моды в Париже
Вчера / 21:55
Иккинг и Беззубик появились в трейлере лайв-экшна «Как приручить дракона»
Вчера / 21:40
Роскомнадзор внес более 14 тыс. страниц в реестр блогеров
Вчера / 19:50
В Новокузнецке мужчина пьяным пришел на экзамен по вождению. Его арестовали
Вчера / 18:59
Вышел тизер «Студии» Сета Рогена. В сериале о Голливуде снялась куча звезд — даже Мартин Скорсезе
Вчера / 17:20
В Нью-Йорке священника отстранили от службы за клип Сабрины Карпентер в его церкви
Вчера / 17:16
Власти Екатеринбурга и Ярославля начали бороться с иностранными словами на вывесках
Вчера / 16:47
Оксимирон* отменил тур по состоянию здоровья
Вчера / 16:14
Посольство Японии в Москве упростило процедуру выдачи виз
Вчера / 15:48
Стивен Кинг анонсировал новый роман «Never Flinch»
Вчера / 15:12
Минюст США через суд потребует от Google продать браузер Chrome
Вчера / 14:56
В Татарстане создадут центр по переосмыслению национальной кухни
Вчера / 13:57
«Я хочу плакать. Плакать и спать»: Нюта Федермессер покинет Московский центр паллиативной помощи
Вчера / 13:52
Сына норвежской принцессы задержали по подозрению в изнасиловании

По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество

14 сентября 2022 в 15:17
Nick Amoscato/Flickr

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Расскажите друзьям
Теги: