В соцсетях вирусятся фейковые интервью и репортажи, созданные новым ИИ-генератором Veo 3 от Google. Картинка в них реалистична, а вот герои роликов далеки от реальности: рептилоиды в ростовых куклах, живущие в фонтанах девочки-русалки и бабушка с домашним бегемотом.
Google представил новую генеративную модель 20 мая. Как отмечал CNBC, Veo 3 можно было бы назвать конкурентом Sora от Open AI, но у разработки Google есть отличие ― возможность встраивать аудио в создаваемые им ролики.
Разработчики хотели, чтобы технология открыла новую эру генерации нейросетевых видео. Однако в соцсетях ее использовали самым очевидным образом — стали лепить с помощью нее вирусные видео.
В российском сегменте мировой сети особенную популярность приобрели сгенерированные уличные репортажи. В одном из популярных у бабушки спрашивают, действительно ли в Рязани есть грибы с глазами. Доказательство их существования героиня ролика предъявляет на камеру.
Во многих фейковых интервью у людей на улицах интересуются, действительно ли они созданы нейросетью. Выясняется, что сгенерировано все вокруг.
На волне популярности таких видео стали появляться и реальные интервью, где обычных прохожих спрашивают, не сгенерированы ли они.
Режиссер и дизайнер @broksh_director создал с помощью Veo 3 целый мини-фильм про бабушку, которая завела бегемота. Со своим питомцем, которого героиня ласково зовет Булькой, бабушка ходит в магазин за продуктами, вызволяет уазики, застрявшие в грязи, и колет арбузы пополам. Моет своего бегемотика она во дворе из шланга, как автомобиль.
Бабушек так часто использовали в сгенерированных видео, что ИИ-художник Александр Доброкотов даже создал шутливый ролик на эту тему. Нейробабушки требуют перестать их эксплуатировать, ведь над ними просто смеются и никому не интересно, что бы они сказали на самом деле.
Но помимо веселья новая технология несет и риски. Журнал Time смог найти в соцсетях реалистичные сгенерированные видео, на которых толпа в Пакистане поджигает индуистский храм, китайские исследователи работают с летучей мышью в грязной лаборатории, сотрудник избирательной комиссии уничтожает бюллетени и палестинцы с благодарностью принимают помощь от США в Газе. По словам экспертов, такие ролики, несмотря на распространенные в них неточности, способны спровоцировать социальные волнения или насилие.
«Риски дипфейков и сгенерированного контента были хорошо известны и очевидны в течение многих лет. Тот факт, что индустрия технологий до сих пор не может защититься даже от таких очевидных угроз, ― это прямой сигнал, что она недостаточно ответственна, чтобы справляться с еще более опасными и продвинутыми версиями ИИ», ― считает эксперт по кибербезопасности из Conjecture Коннор Лихи.