ابزارهای جدید هوش مصنوعی ویدئویی، نژادپرستی خشونتآمیز را در تیکتاک شعلهور میکنند
ظهور نگرانکننده نژادپرستی تولید شده با هوش مصنوعی در تیکتاک
در روندی نگرانکننده، پلتفرمهای رسانههای اجتماعی، به ویژه تیکتاک، با موجی از ویدئوهای تولید شده با هوش مصنوعی که در نژادپرستی خشونتآمیز و کلیشههای نفرتانگیز دست و پا میزنند، مواجه شدهاند. این آثار پیچیده که اغلب با ابزارهای هوش مصنوعی متن به ویدئو در دسترس تولید میشوند، میلیونها بازدید را به خود اختصاص میدهند و نگرانیهای جدی را در مورد گسترش تعصب و چالشهای تعدیل محتوا در عصر دیجیتال افزایش میدهند. سهولت تولید و انتشار این ویدئوها به این معنی است که روایتهای مضر میتوانند به سرعت مورد توجه قرار گیرند و به مخاطبان گستردهای، از جمله کاربران جوان و تأثیرپذیر، برسند.
این ابزارهای هوش مصنوعی، مانند Veo 3 گوگل و سایر پلتفرمهای مشابه، به کاربران اجازه میدهند تا تصاویر و ویدئوهای واقعی را از طریق دستورات متنی ساده ایجاد کنند. در حالی که این فناوری پتانسیل عظیمی برای خلاقیت و نوآوری دارد، اما برای تولید محتوای آشکارا نژادپرستانه، یهودستیزانه و بیگانه هراسانه نیز مورد سوءاستفاده قرار گرفته است. این ویدئوها اغلب از تروپهای نژادپرستانه استفاده میکنند و گروههای به حاشیه رانده شده را به شیوههای غیرانسانی به تصویر میکشند، مانند به تصویر کشیدن سیاهپوستان به عنوان میمون یا جنایتکار، و استفاده از کلیشههای مضر مربوط به غذا یا جرم. این دسترسی به این معنی است که تنها محدودیت برای ایجاد چنین محتوایی، تخیل نژادپرستانه کاربر است.
استفاده از هوش مصنوعی برای روایتهای نفرتانگیز
گسترش این ویدئوها تقاطع نگرانکنندهای از قابلیتهای پیشرفته هوش مصنوعی و نیت مخرب را برجسته میکند. سازندگان از این ابزارها برای تولید محتوایی استفاده میکنند که تعصبات موجود را تقویت کرده و اشکال جدیدی از نفرت را گسترش میدهد. به عنوان مثال، برخی ویدئوها از هوش مصنوعی برای به تصویر کشیدن تروماهای تاریخی، مانند اردوگاههای کار اجباری و حملات به سیاهپوستان آمریکا، به شیوهای ناگوار و سوءاستفادهگرانه استفاده کردهاند. کلیپهای دیگر گروههای قومی خاص را مورد تمسخر قرار داده و غیرانسانی جلوه میدهند و از زبان و تصاویر توهینآمیز استفاده میکنند. سرعت تولید و اشتراکگذاری این ویدئوها در پلتفرمهایی مانند تیکتاک به این معنی است که ایدئولوژیهای نفرتانگیز میتوانند مانند آتش در جنگل منتشر شوند و اغلب سیستمهای تعدیل محتوا را که برای ایمن نگه داشتن این پلتفرمها طراحی شدهاند، دور میزنند.
نقش اینفلوئنسرها و روندهای ویروسی
این پدیده همچنین شاهد گرفتار شدن چهرههای برجسته، مانند یوتیوبر فرانسوی Tibo InShape، در میان آتش بود. ویدئوهای تولید شده با هوش مصنوعی او را در حال بیان ناسزاهای نژادپرستانه به تصویر کشیدهاند، روندی که هرچند گاهی توسط برخی کاربران به عنوان «شوخی تاریک» قاببندی میشود، اما نگرانی قابل توجهی را برانگیخته است. در حالی که اینفلوئنسرانی مانند Tibo InShape علناً سوءاستفاده از تصویر خود و محتوای نژادپرستانه را محکوم کردهاند، حجم زیاد و ویروسی بودن این ویدئوها، دشواری پلتفرمها در نظارت بر گفتار نفرتانگیز تولید شده با هوش مصنوعی را نشان میدهد. این واقعیت که این ویدئوها، حتی آنهایی که از تصویر یک اینفلوئنسر خاص استفاده میکنند، میتوانند میلیونها بازدید به دست آورند، نشاندهنده مخاطبان قابل توجهی است که نسبت به چنین محتوایی پذیرش دارند و تلاشهای تعدیل را پیچیدهتر میکند.
تعدیل پلتفرم زیر ذرهبین
پلتفرمهایی مانند تیکتاک با بررسی شدید در مورد سیاستهای تعدیل محتوای خود مواجه هستند. با وجود داشتن دستورالعملهای جامعه که گفتار نفرتانگیز و محتوای غیرانسانی را ممنوع میکند، این ویدئوها همچنان گسترش مییابند. منتقدان استدلال میکنند که تعدیل اغلب ناکافی، ناسازگار و سهلانگارانه است، به خصوص هنگام مقابله با ظرافتهای محتوای تولید شده با هوش مصنوعی. این قابلیت که کاربران به راحتی میتوانند فیلترهای محتوای هوش مصنوعی را با استفاده از دستورات کمی تغییر یافته دور بزنند، اجرای قوانین را پیچیدهتر میکند. حجم زیاد محتوای آپلود شده روزانه به این معنی است که حتی با تشخیص پیشرفته هوش مصنوعی، تعدیلکنندگان انسانی برای همگام شدن با سیل مطالب مضر تقلا میکنند.
تأثیر بر کاربران، به ویژه خردسالان
دسترسی گسترده این ویدئوها در پلتفرمهایی مانند تیکتاک با توجه به بخش قابل توجهی از پایگاه کاربران که شامل خردسالان است، به ویژه نگرانکننده است. قرار گرفتن در معرض محتوای نژادپرستانه و خشونتآمیز میتواند تأثیر روانی عمیقی داشته باشد، تعصب را عادیسازی کند و به طور بالقوه ذهن جوانان را با ایدئولوژیهای نفرتانگیز شکل دهد. رشد عاطفی و اجتماعی کاربران جوانتر میتواند با قرار گرفتن مداوم در معرض تصاویر و روایتهای غیرانسانی، تأثیر منفی بپذیرد. سهولت کشف این ویدئوها از طریق توصیههای الگوریتمی به این معنی است که محتوای مضر میتواند به راحتی به مخاطبان ناخواسته برسد و آن را به یک نگرانی عمده برای سلامت عمومی تبدیل کند.
فراتر از نژادپرستی: نگرانی گستردهتر از سوءاستفاده از هوش مصنوعی
در حالی که محتوای نژادپرستانه یک مسئله برجسته است، فناوری زیربنایی و چالشهایی که ایجاد میکند به اشکال دیگر اطلاعات نادرست و محتوای مضر تولید شده با هوش مصنوعی گسترش مییابد. ویدئوهایی که مهاجران را به عنوان جنایتکار به تصویر میکشند، یا بازسازی تروماهای تاریخی، که همگی با هوش مصنوعی ساخته شدهاند، به چشمانداز گستردهتری از دستکاری دیجیتال کمک میکنند. دسترسی به این ابزارها به این معنی است که عاملان مخرب میتوانند به راحتی محتوای جعلی متقاعدکننده را برای ایجاد تفرقه، انتشار تبلیغات یا صرفاً تحریک نفرت ایجاد کنند. این پیشرفت سریع مستلزم رویکردی پیشگیرانه و سازگار از سوی پلتفرمها و سیاستگذاران برای اطمینان از این است که پتانسیل تحولآفرین هوش مصنوعی برای خیر مورد استفاده قرار گیرد، نه برای دامن زدن به تفرقه و خصومت.
ناوبری در آینده هوش مصنوعی و محتوا
موج فعلی ویدئوهای نژادپرستانه تولید شده با هوش مصنوعی در تیکتاک یادآوری تلخی از ماهیت دوگانه استفاده از فناوریهای قدرتمند است. با پیشرفتهتر و در دسترستر شدن تولید ویدئو با هوش مصنوعی، خطوط بین واقعیت و جعل محو میشود و زمینه مساعدی برای انتشار نفرت ایجاد میکند. رسیدگی به این چالش نیازمند یک رویکرد چندوجهی است. پلتفرمها باید سرمایهگذاری سنگینی در سیستمهای تعدیل قویتر و سازگارتر انجام دهند، و به طور بالقوه با توسعهدهندگان هوش مصنوعی برای ایجاد ابزارهای تشخیص بهتر همکاری کنند. علاوه بر این، تأکید بیشتر بر آموزش سواد رسانهای برای تجهیز کاربران، به ویژه جوانان، با مهارتهای تفکر انتقادی مورد نیاز برای تشخیص و رد محتوای مضر تولید شده با هوش مصنوعی، ضروری است. هدف باید ایجاد یک محیط آنلاین باشد که در آن نوآوری مسئولانه شکوفا شود، عاری از نفوذ خورنده نفرت ساخته شده.