Платформа YouTube начала внедрение инструмента, который способен определять и удалять видео, созданные с использованием технологий искусственного интеллекта для подмены лиц. Новая функция направлена на борьбу с дипфейками и защиту реальных людей от несанкционированного использования их внешности, сообщает bitbetnews.com.
Это особенно важно на фоне роста числа видео, где с помощью нейросетей имитируют известных личностей. Инициатива YouTube стала ответом на растущие запросы по контролю над контентом и усилению ответственности авторов. Пока доступ к новому инструменту получили только участники партнёрской программы платформы.
Как работает система распознавания дипфейков
Новый инструмент YouTube отслеживает именно случаи подмены лица в видео — когда искусственный интеллект меняет внешность человека на другую. При этом система пока не способна выявлять изменения голоса без согласия владельца, однако в будущем разработчики планируют расширить функционал. Пользователь, заметивший дипфейк, может запросить проверку, предоставив YouTube подтверждение личности и исходные материалы. После этого алгоритм сравнивает оригинальные и подозрительные записи, выявляя совпадения и нарушения. По сути, инструмент функционирует по аналогии с уже существующей системой Content ID, которая используется для защиты авторских прав.
Процесс подтверждения личности и защита данных
Для обращения к новому инструменту пользователю нужно подтвердить свою личность. YouTube требует загрузить копию официального документа, удостоверяющего личность, а также короткое видео-селфи. Эти данные используются исключительно для сверки и не публикуются на платформе. После подтверждения система получает доступ к оригинальному материалу, который служит эталоном при анализе видео на дипфейк-подмену. Такой подход обеспечивает точность проверки и снижает риск ложных срабатываний. Компания подчёркивает, что процесс полностью автоматизирован и безопасен, а данные защищены внутренними протоколами YouTube.
Принцип работы и дальнейшие действия пользователя
Когда алгоритм находит совпадение между оригиналом и подозрительным видео, владелец лица получает уведомление и может решить, считать ли контент нарушением. В случае подтверждения система инициирует процедуру удаления видео. Такой подход делает процесс защиты более прозрачным и эффективным. YouTube также планирует ввести дополнительный инструмент уведомлений, который позволит авторам отслеживать статус проверки в реальном времени. В будущем компания рассматривает возможность интеграции системы с механизмами предупреждения о дипфейках ещё на этапе загрузки видео.
Почему YouTube усиливает контроль над контентом
Решение о запуске новой системы появилось на фоне роста интереса к генеративным моделям искусственного интеллекта, таким как Sora 2 от OpenAI. Эти технологии позволяют создавать реалистичные видео с подменой внешности и голоса, что вызывает серьёзные опасения у общественности и экспертов по кибербезопасности. В последние месяцы увеличилось число жалоб от пользователей, чьи образы были использованы без разрешения. YouTube стремится предотвратить распространение таких роликов, чтобы сохранить доверие к платформе и снизить риск манипуляций.
Что ждёт пользователей и создателей контента
На первом этапе инструмент доступен ограниченному числу авторов, но в дальнейшем YouTube планирует сделать его массовым. Это станет важным шагом в направлении защиты пользователей и повышения прозрачности контента. Для создателей видео новый алгоритм означает необходимость внимательнее относиться к материалам, которые они публикуют. Использование чужих изображений или лиц без согласия может привести к блокировке видео и санкциям. При этом сама платформа не запрещает применение ИИ, если автор честно указывает, что видео создано с его помощью.
Ранее мы сообщали, что Microsoft выпустила обновление Windows 11 с улучшенным Copilot.
