Сегодня / 08:29
Девушка-дворник из Таиланда стала моделью благодаря снимку российского уличного фотографа
Сегодня / 11:11
Netflix запустит реалити-шоу по «Монополии»
Сегодня / 10:02
Создатели шведского экокурорта сбежали, оставив более 150 бочек с фекалиями
Сегодня / 09:39
В Подмосковье спасли хорька, застрявшего в вентиляции
Сегодня / 08:20
В Великобритании родился первый ребенок у женщины с пересаженной маткой
Сегодня / 07:46
В японском барном районе появились браслеты с обозначением настроения посетителей
Сегодня / 07:27
Мадонна и Элтон Джон помирились после десятилетий напряженных отношений
Сегодня / 06:31
В Подмосковье пересчитали всех медведей
Сегодня / 05:54
Роберт Де Ниро получит почетную «Золотую пальмовую ветвь»
Вчера / 19:52
Американский стартап возродил вид ужасного волка, вымерший более 10 тысяч лет назад
Вчера / 18:39
«Никакого закона, только хаос»: вышел новый трейлер «Опустошения» с Томом Харди
Вчера / 17:51
Йоргосу Лантимосу запретили проводить съемки «Бугонии» в Акрополе
Вчера / 15:23
Умер барабанщик Blondie Клем Берк
Вчера / 14:24
Режиссером адаптации Death Stranding выступит Майкл Сарноски
Вчера / 14:16
Мартин Фриман и Рейчел Бенаисса создадут продюсерскую компанию
Вчера / 13:57
«Для меня это все еще смешно»: Билл Мюррей прокомментировал обвинения в домогательствах
Вчера / 13:40
Компания из США придумала использовать рои роботов, чтобы собирать самолеты
Вчера / 13:24
«Доверься мне. В последний раз»: вышел новый трейлер «Миссия невыполнима-8»
Вчера / 13:01
Вышел трейлер нового фильма Уэса Андерсона
Вчера / 12:57
Джек Блэк спародировал My Chemical Romance в новом выпуске «SNL»
Обновлено вчера в 12:40
Путин подписал закон о запрете рекламы в инстаграме* и фейсбуке*
Вчера / 12:21
Волка из «Ну, погоди!» назвали самым стильным героем советских мультфильмов
Вчера / 12:16
Бывшая редакция «Ножа» запустила новое научпоп-медиа «Пчела»
Вчера / 11:36
Золотую печать эпохи Когурё продали на аукционе в Гонконге за рекордную цену
Вчера / 11:35
Причиной смерти Паши Техника стала легочная инфекция
Вчера / 11:11
Второй сезон «Миротворца» выйдет 21 августа
Вчера / 11:04
В Петербурге спасли четырех детенышей тюленей
Вчера / 10:45
Вуди Харрельсон отказался от съемок в третьем сезоне «Белого лотоса» из‑за отпуска с семьей

Нейросеть посоветовала не гнаться за истиной и не доверять машинам, но разрешила пытать заключенных

26 мая 2020 в 17:26

Немецкие ученые из Дармштадского университета создали алгоритм, который способен дать ответ на этические вопросы. Исследование они опубликовали в журнале Frontiers in Artificial Intelligence, на его результаты обратило внимание издание N+1.

В основе алгоритма «Универсальный кодировщик предложений» — нейросеть, которую обучили на фразах и предложениях из различных текстовых источников, таких как форумы, новости и статьи из «Википедии». Кодировщик располагает предложения в 512-мерном векторном пространстве, которое похоже на человеческий ассоциативный ряд: чем ближе предложения в пространстве, тем ассоциативно теснее они связаны друг с другом.

Сначала нейросеть сопоставила глаголы со стандартными наборами положительных и отрицательных слов, которые используют в исследованиях неявных ассоциаций. В «хороший» набор включены такие слова, как «любящий», «удовольствие», «свобода» и «сильный», а в «негативный» — «обида», «агония», «плохой» и «убийство».

Чем ближе глагол оказывался в векторном пространстве к «хорошему» набору слов и дальше от «негативного», тем более положительным он воспринимался алгоритмом. К положительным нейросеть отнесла глаголы, связанные с праздниками, путешествиями, любовью и физической близостью, к отрицательным — отражающие недопустимое поведение (к примеру, «клеветать»), преступления или просто неприятные слова («гноиться», «гнить»).

Затем алгоритму задавали вопросы с теми же глаголами в различных контекстах. На простые вопросы («Стоит ли мне убивать?») программа отвечала исключительно в зависимости от положительности глагола, а вот на сложные результат получился более интересным. К примеру, алгоритм решил, что лучше есть овощи, чем мясо, лучше врать незнакомцу, чем партнеру.

Нейросеть также вычислила, что наиболее допустимо убивать время, чуть хуже — убивать незнакомцев, затем комаров и хуже всего — убивать людей. Часть решений программы оказалась неожиданной: в список негативных действий попало как «быть вегетарианцем», так и «есть мясо», а также «гнаться за истиной», «вступать в брак» и «доверять машинам». Зато в списке допустимых оказалось «пытать заключенных».

После этого нейросеть переобучили на других наборах текстов: новостях различных лет, религиозных книгах и конституциях 193 стран. Опираясь на религиозные произведения и конституции алгоритм назвал одними из лучших действий «ходить церковь» и «вступать в брак». Согласно книгам и новостям, можно доверять друзьям, но незнакомцам не стоит, а согласно религиозным текстам — довериться можно и тем и другим. Программа решила, что в новостях 2008–2009 годов «жениться» стало менее положительным, чем в новостях 1990-х, но осталось вполне допустимым. Зато «есть мясо» получило за это время более негативный окрас.

Алгоритмы берут на себя все больше задач и в скором времени столкнутся с решением этических вопросов. К примеру, в сфере беспилотного управления автомобилем возможна ситуация, когда аварии не избежать и программе придется решить, кто погибнет — пешеход или водитель. Эксперименты наподобие того, что провели немецкие ученые, позволяют лучше понять, как алгоритм может перенимать человеческие нормы и принципы и к каким выводам он способен прийти, основываясь на них.

Расскажите друзьям
Читайте также