Вчера / 19:14
Павел Дуров впервые опубликовал архивное фото с дочерью и публично ответил Ирине Болгар
Сегодня / 03:07
В Москве арестовали учительницу пения по делу о домогательствах к несовершеннолетней ученице
Сегодня / 01:31
Билли Лурд снимется в комедии «Этот друг»
Сегодня / 00:52
Сирша Ронан призналась, что проходила прослушивание на роль Полумны Лавгуд в «Гарри Поттере»
Вчера / 23:59
Уровень ожирения в США впервые с 80-х пошел на убыль. Тенденцию связали с препаратами для похудения
Вчера / 23:47
В сети появился трейлер документального фильма о сериале «Остаться в живых»
Вчера / 22:45
Власти Таджикистана сообщили о «нарушении прав и свобод» своих граждан в РФ
Вчера / 22:43
Власти Польши решили построить оборонительные укрепления на границе с Россией
Вчера / 21:56
Родственники погибших в «Зимней вишне» подали иски к МЧС о компенсации морального вреда
Вчера / 21:46
Олимпийский чемпион по боксу помог полиции задержать преступника в Екатеринбурге
Вчера / 20:50
Ураган «Хелен» стал самым разрушительным для США со времен «Катрины»
Вчера / 20:45
РКН рассказал, как будет вести учет блогеров с 10 тыс. подписчиков. И сколько таковых вообще
Вчера / 20:25
Третью часть «Дневников принцессы» все же снимут. Режиссером станет Адель Лим
Вчера / 19:56
Цены на такси в Москве сравнялись с авиабилетами до Петербурга
Вчера / 19:26
Ким Кардашьян выступила в защиту братьев Менендес, убивших родителей в 1989 году
Вчера / 18:57
Telegram: сбои в работе были связаны с «недавними событиями на Ближнем Востоке»
Вчера / 18:05
Власти Калининграда планируют ввести туристический налог в 2025 году
Вчера / 18:04
Джаред Лето выступил в Хельсинки с уличным музыкантом, которого встретил в день концерта
Вчера / 18:02
В Китае мальчик получил инвалидность после того, как учитель приказал ему присесть 1000 раз
Вчера / 16:58
Антарктида стремительно зеленеет из‑за потепления
Вчера / 16:47
Аргентина пообещала отобрать Фолкленды у Великобритании, вернувшей Маврикию архипелаг Чагос
Вчера / 16:23
В США семья не смогла засудить Uber за аварию из‑за пользовательского соглашения в Uber Eats
Вчера / 15:44
Тикток-инфлюэнсера арестовали в США по обвинению в убийстве
Вчера / 15:38
Умерла мультипликатор Марина Восканьянц, работавшая над «Троими из Простоквашино»
Вчера / 14:58
Немецкий блогер пережил инсульт во время стрима. Он не смог прочитать сообщение от зрителя
Вчера / 14:43
В Великобритании грабитель развесил белье в доме жертвы и приготовил ей еду
Вчера / 14:41
Дом-книжку на Новом Арбате реконструируют
Вчера / 13:56
Российские стриминги начали маркировать артистов-иноагентов
Вчера / 13:42
Сидр подорожает в России из‑за неурожая яблок
Вчера / 12:06
Новая документалка HBO обещает раскрыть личность создателя биткоина Сатоси Накамото
Вчера / 11:10
Под Рязанью похитили 16-летнюю девушку, чтобы выдать ее замуж
Вчера / 11:01
В Великобритании могут начать повторно использовать старые кладбища из‑за нехватки мест
Вчера / 10:41
YouTube увеличит продолжительность Shorts до трех минут
Вчера / 10:36
Владислав Бакальчук подал к Wildberries иск на 350 млрд рублей
Вчера / 09:41
Косатки, застрявшие на мели на Камчатке, вышли в открытое море

Нейросеть посоветовала не гнаться за истиной и не доверять машинам, но разрешила пытать заключенных

26 мая 2020 в 20:26

Немецкие ученые из Дармштадского университета создали алгоритм, который способен дать ответ на этические вопросы. Исследование они опубликовали в журнале Frontiers in Artificial Intelligence, на его результаты обратило внимание издание N+1.

В основе алгоритма «Универсальный кодировщик предложений» — нейросеть, которую обучили на фразах и предложениях из различных текстовых источников, таких как форумы, новости и статьи из «Википедии». Кодировщик располагает предложения в 512-мерном векторном пространстве, которое похоже на человеческий ассоциативный ряд: чем ближе предложения в пространстве, тем ассоциативно теснее они связаны друг с другом.

Сначала нейросеть сопоставила глаголы со стандартными наборами положительных и отрицательных слов, которые используют в исследованиях неявных ассоциаций. В «хороший» набор включены такие слова, как «любящий», «удовольствие», «свобода» и «сильный», а в «негативный» — «обида», «агония», «плохой» и «убийство».

Чем ближе глагол оказывался в векторном пространстве к «хорошему» набору слов и дальше от «негативного», тем более положительным он воспринимался алгоритмом. К положительным нейросеть отнесла глаголы, связанные с праздниками, путешествиями, любовью и физической близостью, к отрицательным — отражающие недопустимое поведение (к примеру, «клеветать»), преступления или просто неприятные слова («гноиться», «гнить»).

Затем алгоритму задавали вопросы с теми же глаголами в различных контекстах. На простые вопросы («Стоит ли мне убивать?») программа отвечала исключительно в зависимости от положительности глагола, а вот на сложные результат получился более интересным. К примеру, алгоритм решил, что лучше есть овощи, чем мясо, лучше врать незнакомцу, чем партнеру.

Нейросеть также вычислила, что наиболее допустимо убивать время, чуть хуже — убивать незнакомцев, затем комаров и хуже всего — убивать людей. Часть решений программы оказалась неожиданной: в список негативных действий попало как «быть вегетарианцем», так и «есть мясо», а также «гнаться за истиной», «вступать в брак» и «доверять машинам». Зато в списке допустимых оказалось «пытать заключенных».

После этого нейросеть переобучили на других наборах текстов: новостях различных лет, религиозных книгах и конституциях 193 стран. Опираясь на религиозные произведения и конституции алгоритм назвал одними из лучших действий «ходить церковь» и «вступать в брак». Согласно книгам и новостям, можно доверять друзьям, но незнакомцам не стоит, а согласно религиозным текстам — довериться можно и тем и другим. Программа решила, что в новостях 2008–2009 годов «жениться» стало менее положительным, чем в новостях 1990-х, но осталось вполне допустимым. Зато «есть мясо» получило за это время более негативный окрас.

Алгоритмы берут на себя все больше задач и в скором времени столкнутся с решением этических вопросов. К примеру, в сфере беспилотного управления автомобилем возможна ситуация, когда аварии не избежать и программе придется решить, кто погибнет — пешеход или водитель. Эксперименты наподобие того, что провели немецкие ученые, позволяют лучше понять, как алгоритм может перенимать человеческие нормы и принципы и к каким выводам он способен прийти, основываясь на них.

Расскажите друзьям