Платформа YouTube в последнее время оказалась в центре внимания из-за скрытных экспериментов, связанных с применением искусственного интеллекта к загруженным видеороликам. В ходе этих экспериментов алгоритмы машинного обучения автоматически запускаются для улучшения визуальных характеристик видео, что вызывает серьезные опасения среди создателей контента. Особенно тревожит тот факт, что эти изменения происходят без согласия самих авторов и без их ведома, что нарушает принцип прозрачности и доверия между платформой и пользователями.
Некоторые авторы заметили, что их видео начали выглядеть более “отполированными”, чем обычно. Например, у блогеров, специализирующихся на музыке и видеомонтаже, наблюдаются изменения, которые невозможно объяснить простым редактированием. Так, в видео появляется эффект, напоминающий масляную живопись или гиперулучшающую обработку, делая изображение более насыщенным, но вместе с тем и искажающим оригинальный замысел автора. В ряде случаев детали становятся крупными и четкими, а кожа и лицо получили эффект, похожий на макияж, хотя ничего подобного в исходных файлах не было.
Это вызвало волну обсуждений среди создателей контента, которые начали публично выражать свое недовольство и опасения относительно несанкционированных правок. В результате некоторые блогеры, такие как Рик Беато и Ретт Шулл, подробно разобрали суть изменений. В своих видео они показали, как автоматические улучшения в конечном итоге могут исказить смысл и эстетические качества оригинала. Ретт Шулл, например, отметился тем, что такие автоматические обработки превращают видео в произведения, напоминающие масляную живопись или иллюстрацию, что негативно сказывается на аутентичности контента и доверии аудитории.
По официальным заявлениям представительства YouTube, эксперименты по улучшению видео с помощью ИИ предназначены исключительно для кратких видеороликов в формате Shorts. Компания объясняет это необходимостью устранения размытости, шума и повышения общего качества изображения. Однако, несмотря на заявленные цели, большинство авторов остаются в неведении и практически лишены возможности отказаться от участия в эксперименте.
Кроме того, важно подчеркнуть, что подобные практики вызывают опасения относительно прозрачности деятельности платформы, возможных нарушений авторских прав и потому, что искусственный интеллект может непреднамеренно изменить восприятие созданного контента, что подрывает доверие пользователей к системе автоматического редактирования. Таким образом, ситуация требует пристального государственного и общественного контроля за подобными практиками со стороны платформ и разработчиков технологий. Создатели контента требуют большей прозрачности и права самостоятельно управлять процессом обработки своих видеоматериалов, чтобы сохранить оригинальность и выразительность своих работ.