Новые инструменты ИИ для видео подпитывают насильственный расизм в TikTok
Тревожный рост расизма, генерируемого ИИ, в TikTok
В тревожной тенденции социальные сети, особенно TikTok, наводняются всплеском видео, созданных с помощью ИИ, которые пропагандируют насильственный расизм и ненавистнические стереотипы. Эти изощренные творения, часто генерируемые с помощью доступных инструментов ИИ для преобразования текста в видео, набирают миллионы просмотров, вызывая серьезные опасения по поводу распространения невежества и проблем модерации контента в цифровую эпоху. Простота, с которой эти видео могут быть созданы и распространены, означает, что вредоносные нарративы могут быстро набирать обороты, достигая огромной аудитории, включая впечатлительных молодых пользователей.
Эти инструменты ИИ, такие как Veo 3 от Google и другие аналогичные платформы, позволяют пользователям создавать реалистичные изображения и видео из простых текстовых подсказок. Хотя эта технология обладает огромным потенциалом для творчества и инноваций, она также была использована для создания контента, который является откровенно расистским, антисемитским и ксенофобским. Видео часто используют расистские мотивы, изображая маргинализированные группы в бесчеловечном свете, например, изображая чернокожих как обезьян или преступников, и используя вредоносные стереотипы, связанные с едой или преступностью. Эта доступность означает, что единственным ограничением для создания такого контента является расистское воображение пользователя.
Использование ИИ для ненавистнических нарративов
Распространение этих видео подчеркивает тревожное пересечение передовых возможностей ИИ и злонамеренных намерений. Создатели используют эти инструменты для создания контента, который подкрепляет существующие предрассудки и распространяет новые формы ненависти. Например, некоторые видео использовали ИИ для гротескного и эксплуататорского изображения исторических травм, таких как концентрационные лагеря и нападения на чернокожих американцев. Другие ролики высмеивают и лишают человеческого достоинства определенные этнические группы, используя оскорбительный язык и образы. Скорость, с которой эти видео могут быть созданы и распространены на таких платформах, как TikTok, означает, что идеологии ненависти могут распространяться как лесной пожар, часто минуя системы модерации, предназначенные для обеспечения безопасности этих платформ.
Роль инфлюенсеров и вирусных трендов
В этом явлении оказались замешаны и известные личности, такие как французский YouTuber Tibo InShape. Видео, созданные ИИ, изображали его произносящим расистские оскорбления, тенденция, которая, хотя некоторые пользователи иногда и называют ее «черным юмором», вызвала серьезную обеспокоенность. Хотя такие инфлюенсеры, как Tibo InShape, публично осудили злоупотребление их образом и расистский контент, огромный объем и виральность этих видео подчеркивают трудности, с которыми сталкиваются платформы при контроле за разжиганием ненависти, генерируемым ИИ. Тот факт, что эти видео, даже те, которые используют изображение конкретного инфлюенсера, могут набрать миллионы просмотров, предполагает значительную аудиторию, восприимчивую к такому контенту, что еще больше осложняет усилия по модерации.
Модерация платформы под огнем критики
Платформы, такие как TikTok, подвергаются интенсивному контролю со стороны своих политик модерации контента. Несмотря на наличие правил сообщества, запрещающих разжигание ненависти и бесчеловечный контент, эти видео продолжают распространяться. Критики утверждают, что модерация часто недостаточна, непоследовательна и халатна, особенно когда речь идет о нюансах контента, генерируемого ИИ. Возможность пользователей легко обходить фильтры ИИ, используя немного измененные запросы, еще больше усложняет правоприменение. Огромный объем контента, загружаемого ежедневно, означает, что даже при наличии сложных систем обнаружения ИИ, модераторы-люди с трудом справляются с потоком вредоносных материалов.
Влияние на пользователей, особенно несовершеннолетних
Широкая доступность этих видео на таких платформах, как TikTok, вызывает особую обеспокоенность, учитывая значительную долю пользователей, состоящих из несовершеннолетних. Воздействие расистского и насильственного контента может оказать глубокое психологическое воздействие, нормализуя предрассудки и потенциально формируя умы молодежи ненавистническими идеологиями. Эмоциональное и социальное развитие молодых пользователей может быть негативно затронуто постоянным воздействием бесчеловечных образов и нарративов. Простота, с которой эти видео могут быть обнаружены с помощью алгоритмических рекомендаций, означает, что вредоносный контент может легко достигать непреднамеченной аудитории, делая это значимой проблемой общественного здравоохранения.
За пределами расизма: более широкая проблема злоупотребления ИИ
Хотя расистский контент является заметной проблемой, лежащая в основе технология и проблемы, которые она представляет, распространяются и на другие формы дезинформации и вредоносного контента, генерируемого ИИ. Видео, изображающие иммигрантов как преступников, или инсценировки исторических травм, созданные с помощью ИИ, вносят вклад в более широкую среду цифровых манипуляций. Доступность этих инструментов означает, что злоумышленники могут легко создавать убедительный фальшивый контент для посева раздора, распространения пропаганды или просто разжигания ненависти. Это быстрое развитие требует проактивного и адаптивного подхода как со стороны платформ, так и со стороны политиков, чтобы гарантировать, что преобразующий потенциал ИИ будет использован во благо, а не для разжигания разногласий и вражды.
Навигация по будущему ИИ и контента
Нынешняя волна расистских видео, созданных ИИ, в TikTok является ярким напоминанием о двойственной природе мощных технологий. По мере того как генерация видео с помощью ИИ становится более сложной и доступной, границы между реальностью и вымыслом размываются, создавая благодатную почву для распространения ненависти. Решение этой проблемы требует многогранного подхода. Платформы должны вкладывать значительные средства в более надежные и адаптивные системы модерации, потенциально сотрудничая с разработчиками ИИ для создания лучших инструментов обнаружения. Кроме того, большее внимание к образованию в области медиаграмотности имеет решающее значение для вооружения пользователей, особенно молодежи, критическими навыками, необходимыми для различения и отвержения вредоносного контента, генерируемого ИИ. Цель должна состоять в том, чтобы способствовать созданию онлайн-среды, где инновации процветают ответственно, свободной от разрушительного влияния сфабрикованной ненависти.