شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ سید مهدی شریعت زاده، دکتری هوش مصنوعی در این باره می گوید: در مقاطعی، بخش قابل توجهی از محتوای نادرست و گمراهکننده از طریق کتابها منتشر میشد لذا برای مقابله با آن، سازوکارهای مشخص و ساختارمندی شکل گرفت. امروز اما سهم کتاب در انتشار این نوع محتوا بسیار محدود شده و در نتیجه، همان ساختارهای قدیمی که بهتدریج کارایی خود را از دست دادهاند، ناگزیرند با فرایندها و رسانههای جدید تطبیق پیدا کنند. این تطبیق میتواند از مسیر رویکردهای ایجابی مانند ارتقای سواد رسانهای و بصری جامعه، یا رویکردهای سلبی همچون حمایت از فناوریهای تشخیص جعل عمیق و تدوین راهکارهای حقوقی برای برچسبگذاری محتوای تولیدشده توسط هوش مصنوعی و موارد مشابه، دنبال شود.
متن گفتگوی شفقنا رسانه با سید مهدی شریعت زاده، دکتری هوش مصنوعی و مدیر مرکز مشاوره انجمن هوش مصنوعی ایران را در ادامه بخوانید…
در ابتدا بفرمایید که «دیپفیک» به چه معناست و این فناوری در چه زمینهها و با چه کارکردهایی مورد استفاده قرار میگیرد؟
مسئله «جعل عمیق» یا دیپفیک از پیامدهای مهم گسترش فناوری هوش مصنوعی مولد در سالهای اخیر است. در طول بیش از ۷۰ سال عمر هوش مصنوعی، الگوریتمها بهتدریج تکامل یافتهاند؛ بهگونهای که در کمتر از یک دهه گذشته، به مجموعهای از قابلیتها تحت عنوان «هوش مصنوعی مولد» رسیدهایم. ذات این فناوری، فرصتهای گستردهای ایجاد کرده است. برای نمونه، هوش مصنوعی مولد در حوزه توسعه نرمافزار، بهرهوری را تا حدود ۵۰۰ درصد افزایش داده و در تولیدات رسانهای نیز رشد بهرهوری نزدیک به ۲۰ برابر گزارش شده است.
در عین حال، این فناوری بستر شکلگیری کاربردهای مثبت و منفی متعددی را فراهم کرده است. بسیاری از فعالیتهای فرهنگی که پیشتر پرهزینه یا زمانبر بودند، اکنون با صرف زمان و هزینه بسیار کمتر قابل انجاماند و میتوانند به افزایش بهرهوری در حوزههای فرهنگی و اجتماعی منجر شوند. با این حال، استفاده نادرست از همین قابلیتها میتواند به تولید محتوای جعلی و در نهایت، شکلگیری پدیده جعل عمیق بینجامد.
تأثیر اجتماعی جعل عمیق و نوع مواجهه مخاطب با آن، دیپ فیک را به مسئله جدی تبدیل کرده است
با این اوصاف گسترش دیپفیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را بهعنوان سند قابل اتکا تضعیف کرده است؟
تا آنجا که اطلاع دارم، در نظام حقوقی کشور ما از گذشته بر شهادت مستقیم شهود تأکید شده است؛ به این معنا که شاهد باید بدون واسطههایی مانند دوربینهای نظارتی یا ضبط صوت، وقوع یک واقعه را بهطور مستقیم مشاهده کرده باشد. بر همین اساس، صرفِ فیلم یا صدای ضبطشده در دستگاه قضایی ایران معادل شهادت شهود تلقی نمیشود. البته اینگونه مستندات میتوانند بر مبنای «علم قاضی» در صدور رأی مؤثر باشند، اما بهعنوان دلیل مستقل جایگاه شهادت را ندارند.
در مقابل، در برخی کشورهای غربی رویکرد متفاوتی حاکم است و فیلم و صوت ضبطشده بهعنوان مدرک قضایی پذیرفته میشود. با این حال، این نظامهای حقوقی نیز همزمان با گسترش هوش مصنوعی و پدیده جعل عمیق، در حال بازنگری و بهروزرسانی قوانین خود هستند. برای نمونه، الزام تولیدکنندگان محتوای دیپفیک به درج واترمارک یا نشانههای شناسایی از جمله اقداماتی است که در این مسیر مورد توجه قرار گرفته است.
در واقع، پیش از ظهور فناوری جعل عمیق نیز ابزارهای متعددی برای ویرایش ویدئو، رندرینگ سهبعدی و تولید تصاویر غیرواقعی وجود داشت که بهطور گسترده در جلوههای ویژه سینمایی و حوزههای مشابه به کار گرفته میشدند. از سالها قبل، نمایش تصاویری که بازتابدهنده واقعیت نیستند -چه با استفاده از فناوریهای کلاسیک افکتهای ویدئویی و چه امروز با بهرهگیری از هوش مصنوعی مولد – امکانپذیر بوده است.
آنچه این پدیده را به مسئلهای جدی تبدیل میکند، نه صرفاً وجود ابزار، بلکه تأثیر اجتماعی جعل عمیق و نوع مواجهه مخاطب با آن است. در شرایطی که ابزارهای متنوعی برای تولید محتوای غیرواقعی در دسترس قرار دارد، بخش مهمی از مسئولیت به مخاطب بازمیگردد؛ اینکه تا چه اندازه محتوا را باور کند، چه زمانی دچار تردید شود و هر محتوای ویدئویی را بدون پرسش و راستیآزمایی، معادل واقعیت نپندارد.
آیا میتوان گفت وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر کفایت نمیکنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟
قطعاً همینطور است و حتی پیش از رواج فناوری جعل عمیق نیز این چالشها وجود داشته است. با این حال، در شرایط کنونی تولید ویدئوهای غیرواقعی با کیفیتی بهمراتب بالاتر و با هزینهای بسیار کمتر انجام میشود. در نتیجه، موضوعاتی مانند سواد رسانهای روزبهروز اهمیت بیشتری پیدا میکنند؛ هرچند این مباحث در سالهای گذشته نیز واجد اهمیت بودهاند، اما تحولات فناورانه امروز ضرورت توجه جدیتر به آنها را دوچندان کرده است.
بزارهای متعددی برای فریب دادن سامانههای تشخیص محتوای جعلی توسعه یافته اند
رسانهها در آینده از چه ابزارها، فناوریها و پروتکلهای حرفهای برای تشخیص و راستیآزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها بهتنهایی کافیاند؟
بحث تشخیص ویدئوهای تولیدشده توسط هوش مصنوعی، عمری به اندازه خود هوش مصنوعی مولد دارد. با این حال، تجربه و پژوهشها نشان دادهاند که هیچ روش یا ابزاری تاکنون قادر نیست بهطور قطعی ویدئوهای غیرواقعی تولیدشده توسط هوش مصنوعی مولد را شناسایی کند. در مقابل، ابزارهای متعددی توسعه یافتهاند که کارکرد اصلی آنها فریب دادن سامانههای تشخیص محتوای جعلی است و اتفاقاً از جمله ابزارهای پرکاربرد در زیستبوم هوش مصنوعی به شمار میآیند. این ابزارها با پردازش یک ویدئوی تولیدشده توسط هوش مصنوعی، آن را بهگونهای تغییر میدهند که نرمافزارهای تشخیص جعل را گمراه کرده و فرآیند راستیآزمایی را دشوارتر میکنند.
در کنار این مسئله، ضعفهای جدی در ابزارهای تشخیص و راستیآزمایی محتوای جعلی نیز وجود دارد. برای مثال، یکی از ابزارهای شناختهشده تشخیص متن تولیدشده توسط هوش مصنوعی، سندی متعلق به حدود ۲۰۰ سال پیش را به اشتباه بهعنوان متن تولیدشده توسط هوش مصنوعی شناسایی کرده بود. چنین خطاهایی نشان میدهد که در وضعیت کنونی نمیتوان بهطور کامل به این ابزارهای فناورانه برای تشخیص جعلی بودن محتوا اتکا کرد.
تجربه نشان داده که راهکارهای صرفاً حقوقی بهتنهایی قادر به حل کامل مسئله جعل عمیق نیستند
تحریریههای رسانهای در مواجهه با دیپ فیک مسئولیت مضاعفی دارند
راهکارهای فناورانه و سازوکارهای حقوقی، بهتنهایی پاسخگوی مواجهه با پدیده جعل عمیق نیستند
رسانه ها باید به ابزارهای راستیآزمایی محتوای جعلی، سواد رسانهای و تفکر انتقادی مسلط باشند
در مواجهه با دیپفیک، مسئولیت رسانهها بیشتر فنی است یا اخلاقی و تحریریهای؟ مرز این دو کجاست؟
در سطح جهانی تلاشهایی برای تدوین و تصویب قوانین بازدارنده در این حوزه در جریان است. برای نمونه، برخی مقررات منتشرکنندگان محتوا را ملزم میکنند در صورتی که محتوا با استفاده از هوش مصنوعی مولد تولید شده است، این موضوع را از طریق نشانه یا برچسب مشخص به مخاطب نهایی اعلام کنند. با این حال، هم امکان اجرا نشدن این قوانین وجود دارد و هم روشهای مختلفی برای دور زدن آنها شکل گرفته است. افزون بر این، تجربه نشان داده که راهکارهای صرفاً حقوقی بهتنهایی قادر به حل کامل مسئله جعل عمیق نیستند.
برآیند این وضعیت آن است که نه راهکارهای فناورانه و نه سازوکارهای حقوقی، بهتنهایی پاسخگوی مواجهه با پدیده جعل عمیق نیستند و همچنان نیاز جدی به ارتقای سواد رسانهای در میان مخاطبان و عموم جامعه وجود دارد. در این میان، تحریریههای رسانهای نیز مسئولیت مضاعفی دارند؛ از یک سو باید از نظر فنی به ابزارهای راستیآزمایی محتوای جعلی مسلط باشند و از سوی دیگر، از منظر سواد رسانهای و تقویت تفکر انتقادی، خود را بهروز و مجهز نگه دارند.
میزان اثرگذاری پیامهای جعلی ارتباط مستقیمی با سطح سواد رسانهای و بصری جامعه دارد
برای کاهش اثرات دیپ فیک باید از فناوریهای تشخیص جعل عمیق حمایت شود
ضرورت تدوین راهکارهای حقوقی برای برچسبگذاری محتوای تولیدشده توسط هوش مصنوعی
تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیمگیریهای سیاسی و اجتماعی دارد؟
در واقع، ما بهتدریج وارد عصری میشویم که بسیاری از مفاهیم و تصورات پیشین، شکل بالغتر و کاملتری به خود میگیرند. ابزارهایی که در سالهای گذشته عمدتاً برای ذخیره، انتشار یا انتقال محتوا طراحی شده بودند، امروز در حال تغییر کارکرد هستند و از نظر ماهوی، کیفیت، دقت و دامنه اثرگذاری ارتقا یافتهاند. در ادامه همین روند طبیعی پیشرفت علم و فناوری، کارکردهای جدیدی مانند جعل عمیق نیز پدید آمده است.
در کنار این تحولات فناورانه، مواجهه اجتماعی با این پدیدهها و میزان تأثیری که بر انسان و تمدن میگذارند نیز نیازمند بلوغ تدریجی است؛ فرآیندی که بهطور طبیعی رخ میدهد و لزوماً ماهیتی منفی ندارد. برای مثال، در سالهای ابتدایی رواج شبکههای اجتماعی، حجم بالایی از پیامهای جعلی و غیرواقعی در میان مردم دستبهدست میشد و حتی بسیاری از رسانهها نیز ناخواسته فریب خورده و این محتواها را منتشر میکردند. اما با گذشت زمان و تکرار این تجربهها، بخش قابل توجهی از مخاطبان به این جمعبندی رسیدند که هر پیام را نباید بهسادگی پذیرفت و لازم است با نگاه تردید و ارزیابی انتقادی با محتوا مواجه شد. چراکه تداوم انتشار پیامهای جعلی، در نهایت به تضعیف اعتماد عمومی و انحراف در تصمیمگیری سیاستگذاران و صاحبنظران منجر میشود.
بهطور کلی، میزان اثرگذاری پیامهای جعلی ارتباط مستقیمی با سطح سواد رسانهای و بصری جامعه دارد. در صورتی که برای ارتقای این سطح برنامهریزی نشود، جامعه بهطور طبیعی در برابر چنین پدیدههایی آسیبپذیر خواهد بود. همانگونه که بسیاری از نهادها و ساختارهایی که دههها در کشور وجود داشتهاند، در دورههای مختلف کارکردهای متفاوتی داشتهاند. در مقاطعی، بخش قابل توجهی از محتوای نادرست و گمراهکننده از طریق کتابها منتشر میشد و برای مقابله با آن، سازوکارهای مشخص و ساختارمندی شکل گرفت. امروز اما سهم کتاب در انتشار این نوع محتوا بسیار محدود شده و در نتیجه، همان ساختارهای قدیمی که بهتدریج کارایی خود را از دست دادهاند، ناگزیرند با فرایندها و رسانههای جدید تطبیق پیدا کنند. این تطبیق میتواند از مسیر رویکردهای ایجابی مانند ارتقای سواد رسانهای جامعه، یا رویکردهای سلبی همچون حمایت از فناوریهای تشخیص جعل عمیق و تدوین راهکارهای حقوقی برای برچسبگذاری محتوای تولیدشده توسط هوش مصنوعی و موارد مشابه، دنبال شود.
دیپفیک مانند بسیاری از فناوریهای دیگر، بیش از آنکه تهدید باشد، یک فرصت است
نگاه منفی به دیپفیک بیشتر ناشی از کاربردهای نادرست و ناشناخته بودن این فناوری است
بهنظر شما تهدید اصلی دیپفیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو بهعنوان شواهد واقعی؟
بهنظر من، دیپفیک مانند بسیاری از فناوریهای دیگر، بیش از آنکه تهدید باشد، یک فرصت است و ظرفیتهای آن برای انتشار اندیشهها و روایتهای صحیح، بهمراتب بیش از جنبههای بالقوه آن برای انحراف افکار عمومی است. از این منظر، بهجای سخن گفتن از فرسایش اعتماد عمومی، میتوان گفت جامعه نسبت به رسانهها واقعبینتر شده و با نگاه انتقادیتری با محتوا مواجه میشود.
رسانهها از ابتدا نیز ذاتاً امکان تولید محتوای غیرواقعی را در خود داشتهاند؛ آنچه در مقطع کنونی رخ داده، آشکارتر و گستردهتر شدن این ظرفیتهاست. بنابراین نمیتوان این شکوفایی را ذاتاً پدیدهای منفی تلقی کرد. نگاه منفی به دیپفیک بیشتر ناشی از کاربردهای نادرست، ناشناخته بودن این فناوری و فقدان شیوههای مواجهه صحیح با آن است. بر همین اساس، در ارزیابی کلی، من وزن جنبههای تهدیدآمیز این فناوری را کمتر از ظرفیتهای فرصتساز آن میدانم.
