Инструмент YouTube, который использует биометрические данные создателей контента, чтобы помочь им удалять сгенерированные искусственным интеллектом видео, в которых используется их изображение, также позволяет Google обучать свои модели искусственного интеллекта на основе этих конфиденциальных данных, сообщили эксперты CNBC.
В ответ на опасения экспертов по интеллектуальной собственности YouTube сообщил, что Google никогда не использовал биометрические данные создателей контента для обучения моделей искусственного интеллекта и пересматривает формулировки, используемые в регистрационной форме инструмента, чтобы избежать путаницы. Однако YouTube сообщил, что не будет менять свою основную политику.
Это расхождение подчеркивает более широкий раскол внутри Alphabet, где Google активно расширяет свои усилия в области ИИ, в то время как YouTube стремится сохранить доверие создателей контента и правообладателей, чей бизнес зависит от платформы.
YouTube расширяет свой инструмент «определения сходства» — инструмент, представленный компанией в октябре. Он отмечает, что лицо создателя контента используется без его разрешения в дипфейках (термин, используемый для описания фейковых видео, созданных с помощью ИИ). Функция становится доступной миллионам авторов, участвующих в Партнерской программе YouTube, поскольку контент, созданный с помощью искусственного интеллекта, становится всё более распространённым в социальных сетях.
Инструмент сканирует видео, загруженные на YouTube, чтобы определить, где лицо автора могло быть изменено или сгенерировано искусственным интеллектом. Авторы могут затем решить, следует ли запросить удаление видео, но для использования инструмента YouTube требует от авторов загрузить удостоверение личности государственного образца и биометрическое видео своего лица. Биометрия — это измерение физических характеристик для подтверждения личности человека.
Эксперты утверждают, что, привязав инструмент к Политике конфиденциальности Google, YouTube открыл возможности для будущего неправомерного использования биометрических данных авторов. В политике говорится, что общедоступный контент, включая биометрическую информацию, может быть использован «для обучения моделей искусственного интеллекта Google и создания продуктов и функций».
«Определение сходства — совершенно необязательная функция, но для её работы требуется визуальный образ», — заявил представитель YouTube, Джек Малон. «Наш подход к этим данным не меняется. Как указано в нашем Справочном центре с момента запуска, данные, предоставляемые для инструмента обнаружения сходства, используются только для проверки личности и для обеспечения работы этой конкретной функции безопасности».
YouTube сообщил CNBC, что «рассматривает способы сделать формулировки в продукте более четкими». Компания не сообщила, какие конкретные изменения будут внесены в формулировки и когда они вступят в силу.
Эксперты остаются осторожными, заявляя, что они высказывали озабоченность по поводу этой политики YouTube несколько месяцев назад.
«Поскольку Google стремится конкурировать в области искусственного интеллекта, а обучающие данные становятся стратегическим золотом, создатели контента должны тщательно подумать, хотят ли они, чтобы их лицами управляла платформа, а не они сами», — сказал Дэн Нили, генеральный директор Vermillio, компании, которая помогает людям защитить свои изображения от неправомерного использования, а также способствует безопасному лицензированию авторизованного контента. «Ваше изображение станет одним из самых ценных активов в эпоху искусственного интеллекта, и, уступив контроль над ним, вы, возможно, никогда не сможете его вернуть».
Vermillio и Loti — сторонние компании, которые сотрудничают с создателями контента, знаменитостями и медиакомпаниями для мониторинга и защиты прав на изображение в Интернете. С развитием технологий генерации видео с помощью искусственного интеллекта, их полезность для владельцев прав интеллектуальной собственности возросла.
Генеральный директор Loti, Люк Арригони, сказал, что риски текущей биометрической политики YouTube «огромны».
«Поскольку в настоящее время релиз позволяет кому-то привязать это имя к фактическим биометрическим данным лица, они могут создать что-то более синтетическое, что будет похоже на этого человека», — сказал Арригони.
Нили и Арригони оба сказали, что в настоящее время они не будут рекомендовать своим клиентам регистрироваться для обнаружения подобия на YouTube.
Глава отдела продуктов для авторов YouTube, Амджад Ханиф (Amjad Hanif), сказал, что YouTube создал инструмент для обнаружения сходства, который работает «в масштабах YouTube», где каждую минуту публикуются сотни часов новых видео. По словам Ханифа, к концу января инструмент будет доступен более чем 3 миллионам авторов, участвующих в партнерской программе YouTube.
«Мы добиваемся успеха, когда успешны создатели контента», — сказал Ханиф. «Мы выступаем в качестве попечителей и сторонников экосистемы создателей контента, поэтому инвестируем в инструменты, которые помогут им в этом деле».
Запуск инструмента происходит на фоне быстрого улучшения качества и доступности инструментов для создания видео с помощью искусственного интеллекта, что вызывает новые опасения у создателей контента, чье сходство и голос имеют ключевое значение для их бизнеса.
Создатель контента на YouTube, Михаил Варшавский, врач, известный на видеоплатформе как Доктор Майк, сказал, что он использует инструмент службы для обнаружения сходства, чтобы просматривать десятки видео, обработанных искусственным интеллектом, в неделю.
Варшавски работает на YouTube почти десять лет и собрал более 14 миллионов подписчиков на платформе. Он снимает видео, в которых реагирует на медицинские сериалы, отвечает на вопросы о модных тенденциях в области здоровья и развенчивает мифы. Он полагается на свою репутацию сертифицированного врача, чтобы информировать своих зрителей.
Быстрое развитие искусственного интеллекта упростило злоумышленникам копирование его лица и голоса в видеороликах с использованием технологии deepfake, которые могут давать зрителям вводящие в заблуждение медицинские советы, сказал Варшавски.
Впервые он столкнулся с deepfake своего лица в TikTok, где его двойник, созданный с помощью искусственного интеллекта, рекламировал «чудодейственную» добавку.
«Это, конечно, меня очень напугало, потому что я более десяти лет вкладывал усилия в то, чтобы завоевать доверие аудитории, рассказывать им правду и помогать им принимать правильные решения в области здравоохранения», — сказал он. «Увидеть, как кто-то использует мое подобие, чтобы обманом заставить людей купить то, что им не нужно или что может потенциально навредить им, напугало меня в этой ситуации».
Инструменты для генерации видео с помощью искусственного интеллекта, такие как Veo 3 от Google и Sora от OpenAI, значительно упростили создание дипфейков знаменитостей и создателей контента, таких как Варшавски. Это связано с тем, что их образы часто фигурируют в наборах данных, которые технологические компании используют для обучения своих моделей искусственного интеллекта.
Veo 3 обучается на подмножестве из более чем 20 миллиардов видео, загруженных на YouTube, сообщил CNBC в июле. Это может включать в себя несколько сотен часов видео с Варшавски.
Дипфейки «стали более распространенными и быстро распространяются», сказал Варшавски. «Я видел целые каналы, созданные с использованием таких типов дипфейков искусственного интеллекта, будь то для того, чтобы обманом заставить людей купить продукт, или просто для того, чтобы издеваться над кем-то».
В настоящее время у создателей контента нет возможности монетизировать несанкционированное использование своих образов, в отличие от возможностей распределения доходов, доступных через систему Content ID YouTube для материалов, защищённых авторским правом, которая обычно используется компаниями, владеющими крупными каталогами авторских прав. Ханиф из YouTube заявил, что компания изучает возможность использования аналогичной модели для создания образов, сгенерированных ИИ, в будущем.
В начале этого года YouTube предоставил создателям контента возможность разрешить сторонним компаниям, занимающимся искусственным интеллектом, обучать свои видео. Ханиф сказал, что миллионы создателей контента присоединились к этой программе, не получив никаких гарантий компенсации.
Ханиф сказал, что его команда все еще работает над улучшением точности продукта, но ранние тесты прошли успешно, хотя он не предоставил показателей точности.
Что касается удаления контента на платформе, Ханиф сказал, что количество удалений остается низким в основном потому, что многие авторы предпочитают не удалять отмеченные видео.
«Они будут рады узнать, что видео отмечено, но не считают, что его стоит удалять», — сказал Ханиф. «Наиболее распространенная реакция — сказать: «Я посмотрел, но я не против».
Агенты и защитники прав сообщили CNBC, что низкие показатели удаления скорее связаны с путаницей и недостаточной осведомленностью, чем с комфортом в отношении контента, созданного с помощью ИИ.


Добавить комментарий