ابزارهای ویدیویی هوش مصنوعی میتوانند اعتیاد به شبکههای اجتماعی را تشدید کنند: کارشناس | دیلی صباح
انقلاب ویدیوی هوش مصنوعی و تسخیر شبکههای اجتماعی
هوش مصنوعی در حال تنیدن خود در بافت تجربیات بصری آنلاین ماست، به طوری که نیکلاس برندبورگ، کارشناس، خاطرنشان میکند که هوش مصنوعی از حالا بر بیشتر ویدیوهای پلتفرمهایی مانند تیکتاک و اینستاگرام تأثیر میگذارد. این دگرگونی با راهاندازی ابزارهایی مانند اپلیکیشن سورای اوپنایآی شتاب گرفته است که به کاربران امکان میدهد با یک دستور ساده، از کلیپهای سبک انیمه گرفته تا صحنههای فوق واقعگرایانه خلق کنند. جذابیت آن انکارناپذیر است و به یک تمایل عمیق انسانی برای مشاهده و به اشتراک گذاشتن چیزهای خارقالعاده متوسل میشود، اما خطر غرق کردن فیدها در چیزی را دارد که منتقدان آن را «محتوای بیکیفیت هوش مصنوعی» مینامند – محتوایی که تعامل الگوریتمی را بر خلاقیت اصیل انسانی اولویت میدهد.
استقبال سریع از چنین ابزارهایی توسط بازیگران اصلی، از جمله محصول ویبز متا، نشاندهنده یک تغییر محوری است. این پلتفرمها به گونهای طراحی شدهاند که بسیار شخصیسازی شوند و با استفاده از الگوریتمهای پیشنهاد، جریانی بیپایان از ویدیوهای تولیدشده توسط هوش مصنوعی را بر اساس تعاملات گذشته ارائه دهند. همانطور که برندبورگ و سایر ناظران هشدار میدهند، این امر طوفانی کامل برای تعمیق عادات موجود شبکههای اجتماعی ایجاد میکند، جایی که مرز بین محتوای تولیدشده توسط کاربر و محتوای جعلی هوش مصنوعی محو میشود و قطع ارتباط را دشوارتر میسازد.
کالبدشکافی اعتیاد: از استفاده بیش از حد معمول تا وابستگی بالینی
برای درک خطر، تمایز قائل شدن بین زمان زیاد استفاده از صفحهنمایش و اعتیاد واقعی بسیار مهم است. تعاریف بالینی، مانند آنچه در DSM-V آمده است، معیارهایی مانند تحمل، میل شدید، علائم ترک و ادامه استفاده علیرغم پیامدهای منفی را ترسیم میکنند – اصولی که در اختلالات مصرف مواد مشاهده میشود. تحقیقات نشان میدهد که مسیرهای پاداش مشابهی در مغز در حین چک کردن اجباری شبکههای اجتماعی فعال میشوند، که نشان میدهد سهولت دسترسی و ضربههای کوتاهمدت دوپامین حاصل از ویدیوها میتوانند رفتارهای اعتیادآور را تقویت کنند.
نقش همبستگیهای سلامت روان
مطالعات، از جمله مطالعات مؤسسه ملی سلامت آمریکا (NIH)، شیوع بالای شرایط همزمان مانند افسردگی، اضطراب و اختلال کمتوجهی-بیشفعالی (ADHD) را در بین افرادی با مواجهه گسترده با صفحهنمایش نشان میدهد. با این حال، همبستگی به معنای علتشناسی نیست؛ در حالی که استفاده بیش از حد ممکن است مسائل سلامت روان را تشدید کند، همچنین میتواند ناشی از مشکلات از پیش موجود باشد، زیرا افراد ممکن است برای ارتباط یا تسکین به صفحهنمایشها روی آورند. این پیچیدگی دلیل این را برجسته میکند که چرا صرفاً برچسب زدن تمام استفادههای سنگین به عنوان «اعتیاد» کافی نیست – این اختلال عملکردی و از دست دادن کنترل است که واقعاً مشکل را تعریف میکند.
فیدهای شخصیسازی شده و تله اسکرول کردن منفیبافانه
ابزارهای ویدیویی هوش مصنوعی با بهینهسازی برای تعامل بیپایان، خطرات اعتیاد را تشدید میکنند. پست وبلاگ خود اوپنایآی نگرانیها در مورد «اسکرول کردن منفیبافانه، اعتیاد، انزوا و فیدهای بهینهشده با یادگیری تقویتی» را تصدیق میکند. هنگامی که اپلیکیشنهایی مانند سورا یا ویبز محتوا را بر اساس چیزی که کاربران را بیشتر در حالت تماشا نگه میدارد، گردآوری میکنند، یک حلقه بازخورد ایجاد میکنند. همانطور که کارشناسانی مانند خوزه ماریچال خاطرنشان کردهاند، ماهیت جذاب و اغلب غیرقابل باور ویدیوهای تولیدشده توسط هوش مصنوعی – از گزارشهای جعلی فاجعه گرفته تا ماجراجوییهای کارتونی – با بازی بر کنجکاوی ما، کاربران را قلاب میکند و خروج از برنامه را دشوار میسازد.
این شخصیسازی به این معنی است که هر اسکرول متناسب با ترجیحات فردی تنظیم شده است، که احتمال خستگی را کاهش میدهد و زمان صرف شده در اپلیکیشن را افزایش میدهد. نتیجه یک حالت عادیشده از مصرف مداوم است، جایی که کاربران ممکن است خود را در حال قربانی کردن خواب، کار یا تعاملات دنیای واقعی بیابند بدون آنکه تأثیر تجمعی آن بر رفاه خود را درک کنند.
وقتی الگوریتمها تبدیل به دوست میشوند: دلبستگیهای عاطفی به هوش مصنوعی
فراتر از تماشای منفعلانه، هوش مصنوعی در حال پرورش اشکال جدیدی از وابستگی عاطفی است. یک مطالعه مشترک MIT و اوپنایآی نشان داد که برخی از کاربران سنگین چتجیپیتی دلبستگیهای مشکلسازی ایجاد میکنند، با چتبات مانند یک دوست رفتار میکنند یا حتی از نامهای مستعار حیوان خانگی استفاده میکنند. این پویایی رابطه پاراسوشال اکنون در حال گسترش به ابزارهای ویدیویی است، جایی که شخصیتها یا روایتهای تولیدشده توسط هوش مصنوعی میتوانند همدلی و تعامل را تقلید کنند. در جامعهای که با تنهایی دست و پنجه نرم میکند، این الگوریتمها خطر تبدیل شدن به عصای دیجیتال را دارند و همراهی شبیهسازیشدهای ارائه میدهند که انزوا از ارتباطات انسانی اصیل را عمیقتر میکند.
گزارش وایس برجسته میکند که چگونه درگیری عاطفی با استفاده افزایش مییابد، صرف نظر از قصد – چه برای حمایت و چه برای سرگرمی. با تعاملیتر و شخصیتر شدن ویدیوهای هوش مصنوعی، آنها میتوانند این روند را منعکس کنند و کاربران را به ایجاد پیوند با شخصیتها یا سناریوهای ساختگی تشویق کنند و الگوهای اعتیادآور را بیشتر ریشهدار سازند.
پیامدهای گستردهتر: فرسایش اعتماد و سلامت دموکراتیک
شرطها فراتر از اعتیاد فردی، به رفاه اجتماعی گسترش مییابد. هنگامی که محتوای تولیدشده توسط هوش مصنوعی بر فیدهای شبکههای اجتماعی مسلط میشود، اکوسیستم اطلاعاتی را تخریب میکند. ماریچال هشدار میدهد که حجم بیش از حد ویدیوهای جذاب اما نادرست یا گمراهکننده میتواند منجر به شکاکیت قطبیشده یا قطعیت بیوجه شود و تصمیمگیری جمعی را تضعیف کند. در اصل، فیدی که با محتوای بیکیفیت هوش مصنوعی اشباع شده است، با تحریف واقعیت و فرسایش اعتماد عمومی، بنیانهای دموکراسی لیبرال را تهدید میکند.
اوپنایآی با اقداماتی مانند نظرسنجی از کاربران درباره رفاه و جهتدهی توصیهها به سمت محتوای دوستان پاسخ داده است، اما این گامها ممکن است در برابر کشش ساختاری طراحی مبتنی بر اعتیاد ناکافی باشند. نگرانی این است که بدون محافظتهای قوی، ابزارهای هوش مصنوعی میتوانند جهانی را عادیسازی کنند که در آن دستکاری از طریق ویدیوی شخصیسازی شده عادی شود و تعامل را بر حقیقت اولویت دهد.
پیمایش در چشمانداز اجتماعی اشباعشده از هوش مصنوعی
مقابله با این چالش نیازمند رویکردی چندوجهی است. اول، درک این که بهبود یک فرآیند تدریجی است – تمرکز بر رفاه کلی و وضعیت عملکردی عملیتر از درخواست پرهیز کامل است. راهنمایی کارشناسان سلامت استراتژیهایی مانند تعیین محدودیت زمان صفحهنمایش، تنظیم فیدها برای شامل کردن محتوای تولیدشده انسانی بیشتر و جستجوی ارتباطات آفلاین برای متعادل کردن مصرف دیجیتال را پیشنهاد میدهد.
گرایش به کیفیت به جای کمیت
تحقیقات تأکید میکنند که کیفیت صفحهنمایش اغلب مهمتر از کمیت آن است. کاربران میتوانند با ارزیابی انتقادی منابع، ترجیح تعاملات اصیل و استفاده از ویژگیهای داخلی اپلیکیشن برای تنظیم ترجیحات فید، خطرات را کاهش دهند. پلتفرمها نیز به نوبه خود باید طراحی اخلاقی را در اولویت قرار دهند، مانند گنجاندن استراحت یا شفافیت درباره منشأ هوش مصنوعی، تا تعامل سالمتری را تقویت کنند، نه اینکه از تمایلات اعتیادآور سوءاستفاده کنند.
بینشهای نوآورانه برای آیندهای دیجیتال متعادل
ادغام هوش مصنوعی در شبکههای اجتماعی اجتنابناپذیر است، اما مسیر آن از پیش تعیینشده نیست. با یادگیری از چرخههای گذشته اعتیاد فناوری – از بازیهای ویدیویی تا اسکرول کردن شبکههای اجتماعی – میتوانیم از ابزارهایی دفاع کنیم که خلاقیت را افزایش میدهند بدون اینکه سلامت روان را به خطر بیندازند. نوآوریها ممکن است شامل هوش مصنوعیهایی باشد که دیدگاههای متنوع را ترویج میدهند یا اقدام دنیای واقعی را تشویق میکنند و از مصرف منفعلانه به مشارکت فعال تغییر جهت میدهند. در نهایت، هدف بهرهگیری از پتانسیل هوش مصنوعی برای ارتباط و هنر است در حالی که در برابر عمق وابستگی محافظت میشود و اطمینان حاصل میکند که تکامل دیجیتال ما تجربه انسانی را غنی میسازد نه اینکه آن را کاهش دهد.