شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانهای می گوید: جعل عمیق در قالب محتوای واقعنما، دیواری بلند از بیاعتمادی بین واقعیت و خیال ساخته است و به شکگرایی نسبت به واقعیت انجامیده است، جایی که افراد حتی به محتوای واقعی هم در عین بیتفاوتی ناباورانه مینگرند. این دگرگونی نهتنها فنی است، بلکه روانشناختی و اجتماعی نیز محسوب میشود چراکه محتواهای حاصل از جعل عمیق میتوانند حافظه افراد را دستکاری و خاطرات جعلی ایجاد کنند.
متن گفتگوی شفقنا رسانه با سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانهای و نویسنده کتاب «پنج گفتار درباره اخبار جعلی» را در ادامه بخوانید…
گسترش دیپفیک بنیانهای ادراک ما را از واقعیت زیر سؤال برده است
جعل عمیق در قالب محتوای واقعنما، دیواری بلند از بیاعتمادی بین واقعیت و خیال ساخته است
گسترش دیپفیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را بهعنوان سند قابلاتکا تضعیف کرده است؟
گسترش دیپفیک (که با معادلهایی چون جعل عمیق، جعل عمقی و جعل ژرف از آن یاد میشود) بنیانهای ادراک ما را از واقعیت زیر سؤال برده است و بر این اساس یکی از پیچیدگیهای اساسی عصر دیجیتال بهخصوص بعد از انقلاب هوش مصنوعی را رقمزده است. جعل عمیق به محتواهایی جعلی اطلاق میشود که با هوش مصنوعی ساخته میشوند و تشخیص آنها از محتوای واقعی بسیار دشوار است. این فناوری نهتنها بر رسانهها تأثیر گذاشته است، بلکه مفهوم حقیقت بصری یعنی ایدهای که بر اساس آن آنچه میبینیم را در مقام شواهد غیرقابلانکار میپذیریم، بهطور اساسی دگرگون کرده است.
در گذشته، عکس و فیلم حرمت داشتند و چون شاهدان عینی عمل میکردند؛ بهطور مثال یک عکس میتوانست یک رویداد را اثبات کند و فیلمها شواهدی محکم برای گزارشهای خبری بودند؛ اما با گسترش جعل عمیق این کارکرد شکننده شده است. جعل عمیق در قالب محتوای واقعنما، دیواری بلند از بیاعتمادی بین واقعیت و خیال ساخته است و به شکگرایی نسبت به واقعیت انجامیده است، جایی که افراد حتی به محتوای واقعی هم در عین بیتفاوتی ناباورانه مینگرند. این دگرگونی نهتنها فنی است، بلکه روانشناختی و اجتماعی نیز محسوب میشود چراکه مطالعات نشان میدهند محتواهای حاصل از جعل عمیق میتوانند حافظه افراد را دستکاری و خاطرات جعلی ایجاد کنند، حتی اگر افراد بدانند که آن محتواها ممکن است از پایه و اساس جعلی محسوب شوند.
جعل عمیق جایگاه عکس و فیلم را از یک سند معتبر به یک ابزار مشکوک تقلیل دادهاست
برخی تحقیقات نشان دادهاند که مواجهه مداوم با جعل عمیق نهتنها باور به محتوای جعلی را افزایش میدهد، بلکه از اعتماد به تمام محتواها حتی از جنس واقعی آن میکاهد. این مسئله در عصر پساحقیقت که رسانهها نهفقط معنا بلکه احساس میسازند و حقیقت را تعیین میکنند، شدت گرفته و منجر به کاهش اعتماد کلی به رسانهها شده است. جعل عمیق در دورانی که تصویر و احساسات ناشی از آن بر تفکر غالب شدهاند، جایگاه عکس و فیلم را از یک سند معتبر به یک ابزار مشکوک تقلیل دادهاند. در گذشته، یک فیلم میتوانست یک جنایت، اعتراض یا رویداد تاریخی را اثبات کند، اما حالا با هوش مصنوعی هرکس میتواند محتوایی مجعول تولید کند که تشخیص آن نیاز به ابزارهای پیشرفته دارد. این تضعیف اعتماد و تشکیک منجر به کشمکشهایی در حوزههای مختلف شده است.
در حوزه رسانه و خبر جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/
در حوزه قضایی فیلمها دیگر بهتنهایی ادله کافی محسوب نمیشوند
در حوزه رسانه و خبر جعل عمیق کار راستی آزمایی را پیچیدهتر کرده است. خبرنگاران حالا باید ابزارهای تشخیص جعل عمیق مانند نرمافزارهای مبتنی بر هوش مصنوعی را بهکارگیرند، اما حتی این ابزارها کامل نیستند. مطالعات نشان میدهد که جعل عمیق اعتبار اطلاعات را زیر سؤال میبرد لذا به روشهایی جدید برای تأیید اصالت محتوا نیاز است. همچنین، این فناوری اعتماد عمومی به رسانهها را کاهش میدهد زیرا مردم ممکن است همه محتواهای تصویری را جعلی فرض کنند. در حوزه قضایی فیلمها دیگر بهتنهایی ادله کافی محسوب نمیشوند و به شواهد اضافی مانند فراداده یا تحلیل فنی نیاز است. علاوه بر این جعل عمیق در زمینههایی مانند فیلمهای غیراخلاقی جهت آزار هدفمند و انتقامجویانه باعث آسیبهای روانی و اجتماعی میشوند و اعتماد به محتوای شخصی را تضعیف میکنند. گسترش جعل عمیق در حوزه مردمسالاری نیز میتواند امر انتخاب و انتخابات را مختل کند، زیرا فیلمهای جعلی میتوانند افکار عمومی را دستکاری کنند.
بحران جعل عمیق این ایده که باورپذیری منوط به دیدن است را نقض کرده است
تحقیقات نشان میدهد که بحران جعل عمیق این ایده که باورپذیری منوط به دیدن است را نقض کرده است و این مهم در آینده جامعه، مبارزات سیاسی و نتایج حاصل از آن تعیینکننده است. ایالتهای مختلف آمریکا با پیشگامی کالیفرنیا قوانینی برای مبارزه با جعل عمیق در انتخابات وضع کردهاند. بررسی این قوانین نشان میدهد که بسیاری از ایالتها مقرراتی جدید برای ممنوعیت یا برچسبگذاری محتوای تولیدشده توسط هوش مصنوعی در تبلیغات انتخاباتی و هدفگیری جعل عمیق در حوزههای دیگر مانند بهداشت را تصویب و اجرا کردهاند.
جعل عمیق قابلیت دستکاری واقعیت را افزایش و اعتماد کلی به محتوای بصری را کاهش دادهاست/
جعل عمیق به سطحی رسیده که تشخیص آن حتی برای کارشناسان دشوارتر از قبل است
آیا میتوان گفت وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر کفایت نمیکنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟
بله چنین به نظر میرسد. میتوان گفت این تغییر به دلیل پیشرفتهای سریع فناوری جعل عمیق در سالهای اخیر رخداده است. مطالعات نشان میدهد که جعل عمیق نهتنها قابلیت دستکاری واقعیت را افزایش دادهاند، بلکه اعتماد کلی به محتوای بصری را نیز کاهش دادهاند، بهطوریکه ممکن است بحران اصالت تصویری ایجاد شود چراکه ابزارهای هوش مصنوعی تولید محتوای جعلی را واقعنما کردهاند و این امر نیاز به شواهد مکمل مانند فراداده یا تأیید منابع چندگانه را ضروری کرده است. بهرغم خوشبینیهای سال ۲۰۱۹ جعل عمیق در سال ۲۰۲۵ به سطحی رسید که تشخیص آن حتی برای کارشناسان دشوارتر از پیش شد. این پیشرفتها نهتنها در حوزه سرگرمی، بلکه در رسانههای خبری و حتی شواهد قانونی تأثیر گذاشتهاند، جایی که جعل عمیق میتواند اعتبار شواهد را زیر سؤال ببرد.
بحران جعل عمیق بر شیوه تصمیمگیری و قضاوت مخاطبان شبکهای تأثیراتی عمیق دارد/
مواجهه با جعل عمیق باور افراد را تغییر میدهد و خاطرات جعلی ایجاد میکند
این بحران بر شیوه تصمیمگیری و قضاوت مخاطبان شبکهای تیز تأثیراتی عمیق دارد و آن را به فرایندی پیچیده تبدیل کرده است که در ادامه به برخی موارد اشاره می کنم؛
– افزایش شک و تردید: مخاطبان شبکهای حالا تمایلی بیشتر به تشکیک در محتوای بصری دارند که این میتواند منجر به ناباوری و بیتفاوتی نسبت به واقعیت شود تا جایی که حتی شواهد واقعی رد شوند و مرگ حقیقت تسریع شود. این مسئله تصمیمگیری را کندتر و محتاطانهتر میکند، اما همزمان خطر گسترش اطلاعات نادرست را افزایش میدهد.
– نیاز به مهارتهای انتقادی بیشتر: تصمیمگیری اکنون وابسته به ارزیابی منابع، بررسی زمینه و استفاده از ابزارهای راستی آزمایی است. مخاطب/کاربرانی که شایستگیهای پایه سوادهای نوین را کسب کردهاند، بهتر میتوانند محتوای جعلی را تشخیص دهند، اما متأسفانه همه افراد به این شایستگیها آراسته نیستند.
– تأثیر بر باورها و رفتارها: مواجهه با جعل عمیق باور افراد را تغییر میدهد و حتی خاطرات جعلی ایجاد میکند که این امر در حوزههای سیاسی و اجتماعی خطرناک است. برای مثال، در انتخابات یا در حوزه خبر، این امر میتواند افکار عمومی را دستکاری کند و اعتماد را در مقام یک سرمایه گرانبها کاهش دهد.
البته این تحول اثرات مثبت بالقوه نیز به دنبال دارد. این امر میتواند مخاطبان شبکهای را به سمت تصمیمگیری و قضاوت مبتنی بر شواهد چندگانه سوق دهد که درنهایت تفکر انتقادی و سواد رسانهای جامعه را افزایش میدهد؛ اما بدون آموزش و یادگیری نظاممند این امر میتواند منجر به سردرگمی و کاهش مشارکت اجتماعی شود.
رسانه ها در آینده برای مقابله با جعل عمیق به ترکیبی از ابزارها و دستورالعملهای حرفهای تکیه میکنند
رسانهها در آینده از چه ابزارها، فناوریها و پروتکلهای حرفهای برای تشخیص و راستیآزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها بهتنهایی کافیاند؟
چنانکه در کتاب «علیه اخبار جعلی» آمده است به نظر میرسد در آینده نزدیک رسانهها برای مقابله با محتوای جعلی مانند جعل عمیق به ترکیبی از ابزارها و دستورالعملهای حرفهای تکیه میکنند چراکه ابزارها بهتنهایی کافی نیستند و به رویکردهایی چند سطحی نیاز است لذا رسانهها از ابزارهای مبتنی بر هوش مصنوعی برای تشخیص خودکار جعل عمیق استفاده میکنند و فناوریهایی مانند نهاننگاری و تحلیل چندوجهی مکمل و مقوم این ابزار است.
توسعه کمی و کیفی ابزاری با دقت بالا مانند AI or Not–Optic، Sensity AI، Hive Moderation که جعل عمیق را در عکس، فیلم، صدا و متن تشخیص میدهند همچنین روزآمدسازی ابزارهایی مانند Microsoft’s Video Authenticator که امتیاز اطمینان برای محتوای دستکاریشده ارائه میکنند و نشانههای ترکیب جعل عمیق یا عناصر نامرئی مانند تغییرات رنگ چهره ناشی از ضربان قلب را تشخیص میدهند برای رسانهها، خبرنگاران و کارشناسان امنیت سایبری کاربرد دارند.
فناوری نهاننگاری نامرئی و ابزارهایی بر پایه بلاکچین مانند BitMind AI برای تشخیص پیشرفته جعل عمیق در رسانههای اجتماعی استفاده و در این زمینه راهگشا محسوب میشوند. محققان نهاننگاریهایی مبتنی بر نور نامرئی را توسعه دادهاند که جعل عمیق را بدون تغییر قابلمشاهده، تشخیص میدهد. پروژههایی مانند WeVerify و Google SynthID از پایگاه دادههای بلاکچین برای ثبت محتوای جعلی شناختهشده استفاده میکنند و تحلیل سایت شبکههای اجتماعی و تأیید چندوجهی را برای افشای محتوای ساختگی به کار میگیرند. این فناوریها با پیشرفت مدلهای یادگیری عمیق همراه میشوند، اما نیاز به بهروزرسانی مداوم دادهها دارند تا با فنون جدید جعل عمیق مقابله کنند.
ضرورت توجه به آموزش سواد رسانه ای، وضع مقررات و همکاری فناوری با مهارتهای فردی-اجتماعی
رسانهها همچنین دستورالعملهای حرفهای را در تشخیص جعل عمیق دنبال میکنند که لایههای متعدد تأیید چندگانه شامل بررسی محتوای ارائهشده، بررسی یکپارچگی دادهها و ابزارهای OSINT، بهکارگیری دستورالعملهای خبرنگاری بر پایه مفاهیمی مانند HITL در قالب رویکرد نظارتی آن همچنین مقررات و استانداردهای اعلامی از سوی سازمانهای بینالمللی را شامل میشود.
البته چنانکه در کتاب «پنج گفتار درباره اخبار جعلی» بیان شد با توجه به آمارهایی چون نسبت کمیِ تولیدکنندگان به تحلیلکنندگان جعل عمیق که به تعبیر کارشناسان صد به یک است؛ امکان غلبه تام و تمام بر این قبیل محتوا محل تردید است و به نظر میرسد روند شناسایی جعل عمیق همچون رابطه موش و گربه در کارتون تام و جری بین الگوریتمهای هوش مصنوعی و خبرگان تشخیص فیلمهای جعلی به دور تسلسل دچار شود، زیرا جعل عمیق سریعتر پیشرفت میکند و ابزارها اغلب امکان و ظرفیت کافی برای ارزیابی محتوا را ندارند. محدودیتهایی مانند وابستگی به دادههای آموزشی قدیمی و خطر وابستگی بیشازحد خبرنگاران به فناوری نیز میتواند منجر به بروز اشتباه شود؛ بنابراین نیاز به آموزش سوادهای نوین، وضع مقررات قانونی و در نهایت همکاری فناوری با مهارتهای فردی و اجتماعی تا این لحظه تنها راه مقابله مؤثر به نظر میرسد.
رسانهها نهتنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی را نیز بر عهدهدارند
اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
در مواجهه با دیپفیک، مسئولیت رسانهها بیشتر فنی است یا اخلاقی و تحریریهای؟ مرز این دو کجاست؟
به نظر توجه به هر دو وجه ضروری است. پیشرفت فناوری جعل عمیق نشاندهنده نیاز به رویکردی جامع در مسیر صعب این مبارزه است که ابزارهای فنی تنها بخشی از راهحل محسوب میشوند و بدون چارچوبهای اخلاقی ناکارآمدند. مطالعات نشان میدهد که رسانهها نهتنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی، جلوگیری از رشد آسیبهای اجتماعی و رعایت اصول اخلاقی مانند رضایت و شفافیت را نیز بر عهدهدارند.
بعد فنی در این رابطه شامل بهکارگیری ابزارهای پیشرفته برای تشخیص و راستیآزمایی جعل عمیق است. این جنبه بر توسعه و استفاده از فناوریهایی مانند الگوریتمهای هوش مصنوعی برای تحلیل محتواها، نهاننگاریهای نامرئی و سامانههای بلاکچین تمرکز دارد تا اصالت محتوا را تأیید کند. بااینحال، این وجه مسئولیت بیشتر عملیاتی است و در مقام یکلایه اولیه و نه راهحل نهایی عمل میکند زیرا ابزار صحتسنجی همیشه یک تأخر ذاتی فناورانه را نسبت به پیشرفتهای جعل عمیق بدوش میکشند. وجه دیگر مسئولیت رسانهها که اخلاقی و تحریریهای است، جایی است که تصمیمگیریهای انسانی در مورد انتشار، بسترسازی و آموزش مخاطبان شبکهای نقشی کلیدی ایفا میکند. رسانهها باید اصول اخلاقی مانند کسب رضایت، شفافیت در برچسبگذاری محتوای جعلی و جلوگیری از سوءاستفادهها مانند فیلمهای دستکاریشده بهقصد تخریب رقبای تجاری و سیاسی را رعایت کنند. اتاقهای خبر مسئولیت دارند تا محتوای مشکوک را نهتنها از نظر فنی بررسی کنند، بلکه تأثیرات اجتماعی آن را ارزیابی کنند – بهطور مثال آیا انتشار یک فیلم جعلی میتواند به بحران دانستن دامن بزند یا اعتماد عمومی را کاهش دهد؟ علاوه بر این، رسانهها در مقام دروازهبانان رسمی اطلاعات و اخبار، مسئولیت آموزش توأمان تحریریه و مخاطبان شبکهای را برای افزایش سوادهای نوین و تنظیم سیاستهای داخلی را برای جلوگیری از گسترش جعل عمیق بر عهدهدارند که اقدامی فراتر از رویکرد ابزاری است. در تحریریه این آموزشها شامل آشنایی با فنون و روشهای مبارزه با جعل عمیق، افزایش مسئولیتپذیری و تعهد در کارکنان در قبال عدم همرسانی محتواهای جعلی، درک مفهوم مخاطب شبکهای در چارچوب نظریههای معطوف به قلمرو رسانههای نوین (۲۰۰۰ تا ۲۰۲۵)، تأکید بر تهیه هر چه بیشتر گزارشهای تحقیقی جهت جلوگیری از مشروعیتیابیِ اطلاعات نادرست عمدی منبعث از جعل عمیق و قسعلیهذاست. بر این اساس اتحادیه اروپا با وضع قوانینی مانند قانون هوش مصنوعی رسانهها را ملزم کرده است که اخلاقیات را در اولویت قرار دهند و به مسئولیت قانونی خود در این زمینه پایبند بمانند. لازم به ذکر است که در قانون مذکور سامانههای هوش مصنوعی بر اساس سطح خطری که برای کاربران و جامعه ایجاد میکنند، طبقهبندیشدهاند و سطح ریسک جعل عمیق هم محدود عنوانشده است.
جعل عمیق نهتنها یک مسئله فنی، بلکه تهدیدی اجتماعی است/
زمانی که ابزارها محتوای جعلی را شناسایی میکنند، پایان مسئولیت فنی و آغاز مسئولیت اخلاقی است/
بدون اخلاقیات از فناوری سوءاستفاده میشود و بدون فناوری اخلاقیات در عرصه عمل ناکارآمد است
بنابراین جعل عمیق نهتنها یک مسئله فنی، بلکه تهدیدی اجتماعی است که میتواند به مردمسالاری، حریم خصوصی و روابط انسانی آسیب بزند لذا رسانهها باید مانند یک نگهبان اخلاق مدار و نه یک پالاینده فنی صرف عمل کنند. مرز این دو حوزه در نقطهای است که فناوری، ابزار را فراهم میکند اما تصمیمگیری انسانی آن را هدایت میکند. زمانی که ابزارها محتوای جعلی را شناسایی میکنند، پایان مسئولیت فنی و آغاز مسئولیت اخلاقی است؛ وقتیکه تحریریه باید تصمیم بگیرد که آیا محتوا را منتشر کند یا با در نظر گرفتن عواقب اجتماعی آن مانند آسیب به افراد یا گسترش اطلاعات نادرست حذفش کند. برای مثال، یک ابزار فنی ممکن است یک محتوای جعل عمیق را با ۹۸ درصد اطمینان تشخیص دهد، اما تحریریه باید اخلاقیات را ارزیابی کند: آیا انتشار آن مفید است یا میتواند به بحران اعتماد دامن بزند؟ اغلب جایی که فناوری با اصول اخلاقی مانند اصل «هیچ آسیبی وارد نکن» تلاقی پیدا میکنند دارای شفافیت نیست که برای مرزبندی روشن و بدون ابهام نیاز به دستورالعملهایی دارد. در رسانهها اصل مزبور بخشی از اخلاق حرفهای است که بر جلوگیری از آسیبهای احتمالی تأکید میکند. بدون اخلاقیات از فناوری سوءاستفاده میشود و بدون فناوری اخلاقیات در عرصه عمل ناکارآمد است، بنابراین رسانهها باید رویکردی متوازن و تلفیقی اتخاذ کنند. در مجموع تمرکز بر مسئولیت اخلاقی و تحریریهای با بهرهمندی از ابزار روزآمد میتواند رسانهها را به سمت ساختن یک زیستبوم دیجیتال مسئولانهتر سوق دهد که این خود نیازمند استقلال و آزادی عمل حرفهای رسانهها و همراهی سیاستگذاران است.
جعل عمیق اعتماد عمومی به محتوای دیجیتال را بهشدت کاهش داده است
تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیمگیریهای سیاسی و اجتماعی دارد؟
تضعیف اعتبار عکس و فیلم که از ثمرات نامیمون گسترش جعل عمیق است از جدیترین پیچیدگیهای دوران انقلاب هوش مصنوعی است. در سال ۲۰۲۵، با افزایش چشمگیر محتواهای جعل عمیق نهتنها مرز بین واقعیت و جعل محو شد، بلکه پیامدهای مخرب گستردهای بر اعتماد عمومی، امنیت اطلاعاتی و تصمیمگیریهای سیاسی و اجتماعی برجا گذاشت که بخشی از آن را در جنگ ۱۲ روزه علیه کشور عزیزمان شاهد بودیم. این مهم ناشی از عدم شفافیت در فرآیندها و افزایش خطرات اجتماعی مانند فروکاست اعتماد عمومی به رسانهها به دلیل محتواهای تولیدی بر مبنای جعل عمیق است که از آن بهعنوان جعبه سیاه هوش مصنوعی یاد میشود. این تزلزلها و تضعیفها به بحران دانستن منجر شده است، جایی که افراد حتی به محتوای واقعی هم شک میکنند و بر این اساس جامعه هم به سمت بیتفاوتی و سردرگمی سوق پیدا میکند. جعل عمیق اعتماد عمومی به محتوای دیجیتال را بهشدت کاهش داده است. با گذر زمان به نظر میرسد مخاطبان شبکهای بیشازپیش تمایل پیداکردهاند به هر عکس یا فیلم با دیده تردید بنگرند که این منجر به از دست رفتن اعتماد به رسانهها شده است. در سطح اجتماعی، این کاهش اعتماد میتواند به انزوا یا کاهش مشارکت مدنی منجر شود زیرا افراد کمتر به اطلاعات همرسانی شده در رسانههای اجتماعی اعتماد میکنند.
جعل عمیق بنیان امنیت شخصی و سازمانی را به خطر می اندازد/
در حوزه سیاسی، جعل عمیق میتواند انتخابات را مختل و افکار عمومی را دستکاری کند
از منظر امنیت اطلاعاتی، جعل عمیق تهدیدی جدی است و میتواند به حملات سایبری، کلاهبرداری و دستکاری اطلاعات بیانجامد. افزایش چشمگیر تلاشها برای کلاهبرداری و خرابکاری سایبری نشاندهنده این حقیقت است که جعل عمیق بنیان امنیت شخصی و سازمانی را به مخاطره افکنده است. این فناوری میتواند برای فریب افراد در زمینههای مالی یا هویتی استفاده شود، مانند جعل صدا برای دسترسی به حسابها که اعتماد به سامانههای امنیتی را کاهش میدهد. علاوه بر این، در حوزه سایبری، جعل عمیق میتواند اطلاعات نادرست را در مقیاسی بزرگ پخش و امنیت ملی را تهدید کند.
در حوزه سیاسی، جعل عمیق میتواند انتخابات را مختل و افکار عمومی را دستکاری کنند. برای مثال، فیلمهای جعلی از رهبران سیاسی میتواند رأیدهندگان را فریب و نتایج انتخابات را تغییر دهد که این امر مردمسالاری را تحدید و تهدید میکند. تحقیقات نشان میدهد که جعل عمیق گفتمان مردمسالار را به خطر انداخته است. جعل عمیق میتواند بحرانهای سیاسی ایجاد کند یا بدان دامن بزند و از طریق افزایش اطلاعات نادرست غیرعمدی و عمدی در سپهر سیاسی اعتماد به فرآیندهای انتخاباتی را به حداقل برساند.
جعل عمیق میتواند حافظه جمعی را دستکاری کند و جوامع را دچار چنددستگی کند
در سطح اجتماعی، تضعیف اعتبار تصویر میتواند به تغییرات در هنجارهای اجتماعی، روابط و فرآیندهای تصمیمگیری منجر شود. جعل عمیق میتواند برای آزار، باجخواهی یا آسیب به شهرت مورداستفاده قرار گیرد که این مهم باعث کاهش اعتماد اجتماعی و افراد را منزوی میکند. همچنین، این فناوری میتواند حافظه جمعی را دستکاری کند و جوامع را دچار چنددستگی و کاهش همبستگی اجتماعی کند.
این پیامدها نشاندهنده نیاز فوری به آموزش سوادهای نوین، اجرای قوانین موضوعه و ارتقا ابزارهای فنی است تا اعتماد و امنیت حفظ شود. بدون این قبیل اقدامات، جامعه در مسلخ پساحقیقت به سوگ مرگ حقیقت مینشیند.
جعل عمیق با ایجاد شک کلی به محتوای بصری، جامعه را به سمت بحران معرفتی سوق میدهد
کاهش اعتماد به کاهش مشارکت اجتماعی، افزایش قطبیسازی و حتی بحرانهای عمیق اجتماعی منجر میشود
به نظر شما تهدید اصلی دیپفیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو بهعنوان شواهد واقعی؟
هر دو جنبه تهدیدآمیزند اما کاهش تدریجی اعتماد عمومی به محتوای تصویری محل نگرانی مضاعف است. گزارشها حاکی از آن است که تأثیر بلندمدت جعل عمیق بر اعتماد عمومی عمیقتر و فراگیرتر است، زیرا حتی بدون فریب مستقیم یک فرد، جعل عمیق میتواند در جامعه شک کلی به محتوای بصری ایجاد کند و آن را به سمت بحران معرفتی سوق دهد. فریب مستقیم زمانی رخ میدهد که جعل عمیق برای دستکاری باورهای یک فرد یا گروه خاص استفاده شوند، مانند فیلمهای جعلی از سیاستمداران که سخنان دروغین میگویند یا کلاهبرداریهای مالی که با صدای ساختگی انجام میشود. این تهدید واقعی است و میتواند به ضررهای مالی، آسیب روانی یا حتی خشونت منجر شود بااینحال، این جنبه اغلب محدود به مواردی خاص است و با ابزارهای تشخیص یا آموزش، میتوان آن را مدیریت کرد؛ اما تهدید جدی در زوال تدریجی اعتماد عمومی است، جایی که حتی بدون فریب مستقیم، وجود این فناوری باعث میشود افراد به تمام محتواهای بصری شک کنند. این پدیده به آلودگی اطلاعاتی منجر میشود و اعتماد را از رسانهها سلب میکند. در حوزههایی مانند بهداشت، امنیت سایبری و انتخابات، این کاهش اعتماد میتواند به کاهش مشارکت اجتماعی، افزایش قطبیسازی و حتی بحرانهای عمیق اجتماعی منجر شود بهطور مثال وقتی هر صوت و تصویر ظرفیت جعلی بودن یافت؛ اعتماد به سامانههای احراز هویت صوتی یا تصویری از بین میرود و یک زیستبوم فریب ایجاد میشود که اعتماد دیجیتال را بهطورکلی از جامعه سلب میکند.
اقدام لازم و عاجل برای آموزش و یادگیری سوادهای نوین در قالب آموزشهای عمومی بسیار ضروری است
در پایان تصریح میشود بهرغم وجود تمامی کاستیها و ناکارآمدیها، در هنگامهای که ایران عزیز بهشدت درگیر نبرد روایتهاست و افکار عمومی آماج اخبار جعلی، تحلیلهای مغرضانه، وارونه نشان دادن واقعیتها، پنهان کردن جلوههای امیدبخش، بزرگ کردن عیوب کوچک و کوچک نشان دادن یا انکار محسنات بزرگ قرار دارد، اقدام لازم و البته عاجل برای آموزش و یادگیری سوادهای نوین در قالب آموزشهای عمومی بسیار ضروری است تا آحاد ملت بتوانند جهت حفظ کیان و تمامیت سرزمینی به شکستن این حصر تبلیغاتی مبادرت ورزند.
