شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ دکتر حمید رضا ضیایی پرور در این باره می گوید: دیپفیک ذاتاً فناوریای خنثی است و ارزشگذاری اخلاقی آن به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد. این فناوری ابزاری برای تولید و انتقال پیام است؛ پیامی که میتواند در خدمت دانش، آگاهی و خلاقیت قرار گیرد یا برعکس، به ابزار فریب، کلاهبرداری و نقض حقوق افراد تبدیل شود.
گفتگوی شفقنا رسانه با دکتر حمید رضا ضیایی پرور، پژوهشگر حوزه سواد رسانه ای و هوش مصنوعی را در ادامه بخوانید…
دیپ فیک می تواند کارکردهای مثبت یا منفی داشته باشد
ارزشگذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد
در ابتدا بفرمایید که «دیپفیک» به چه معناست و این فناوری در چه زمینهها و با چه کارکردهایی مورد استفاده قرار میگیرد؟
دیپفیک (Deepfake) یا «جعل عمیق»، اصطلاحی است که از ترکیب مفاهیم «یادگیری عمیق»(Deep Learning) و «جعل» (Fake) شکل گرفته است. یادگیری عمیق شاخهای از هوش مصنوعی است که امکان تولید محتوای بسیار واقعگرایانه – شامل تصویر، صدا و ویدئو – را فراهم میکند. این فناوری میتواند چهره انسان، اشیا یا موجودات را بهگونهای بازسازی یا شبیهسازی کند که از نظر بصری و شنیداری به نمونه واقعی شباهت زیادی داشته باشند. هنگامی که این محتوای تولیدشده مابهازای واقعی در جهان خارج نداشته باشد، در چارچوب مفهومی «دیپفیک» یا «جعل عمیق» قرار میگیرد.
البته پیش از گسترش این فناوری نیز نمونههایی از بازنماییهای غیرواقعی اما واقعگرایانه در قالب جلوههای ویژه سینمایی وجود داشته است؛ با این تفاوت که دیپفیک بر پایه الگوریتمهای هوش مصنوعی و بهصورت خودکار یا نیمهخودکار تولید میشود. این فناوری در حوزههایی مانند آموزش، رسانه، سینما، فرهنگ و تولیدات رادیو و تلویزیونی کاربردهای گستردهای دارد و میتواند کارکردهای مثبت یا منفی داشته باشد.
برای نمونه، اگر فردی تصویر و صدای خود را با استفاده از فناوری یادگیری عمیق بازتولید کند و از آن برای آموزش دانشگاهی، تولید محتوای علمی یا فعالیت حرفهای در بسترهای دیجیتال استفاده کند، این کاربرد در چارچوب استفاده مثبت قرار میگیرد. همچنین بازسازی تصویر و صدای شخصیتهای تاریخی یا درگذشته برای اهداف فرهنگی، آموزشی یا هنری – با رعایت ملاحظات اخلاقی و حقوقی – میتواند کارکردی مثبت تلقی شود.
در مقابل، اگر این فناوری با هدف فریب مخاطب، انتشار اطلاعات نادرست یا سوءاستفاده مالی و اجتماعی به کار رود، مصداق استفاده منفی خواهد بود. بسیاری از تعاریف بینالمللی مرتبط با «اخبار جعلی» و سواد رسانهای، از جمله دیدگاههای نهادهای آموزشی و پژوهشگران این حوزه، بر «نیت فریب» و «قصد گمراهسازی» بهعنوان معیار اصلی تمایز میان استفاده مشروع و نامشروع از چنین فناوریهایی تأکید دارند.
بنابراین، دیپفیک ذاتاً فناوریای خنثی است و ارزشگذاری اخلاقی آن به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد. این فناوری ابزاری برای تولید و انتقال پیام است؛ پیامی که میتواند در خدمت دانش، آگاهی و خلاقیت قرار گیرد یا برعکس، به ابزار فریب، کلاهبرداری و نقض حقوق افراد تبدیل شود.
برای مثال، بهرهگیری از بازسازی هوشمند تصویر و صدا در آموزش شیوه تعمیر یا نگهداری وسایل، کاربردی آموزشی و پذیرفتنی محسوب میشود. اما بازتولید تصویر یا صدای اشخاص حقیقی -از جمله چهرههای شناختهشده یا شهروندان عادی – با هدف جعل هویت، فریب مخاطب یا دستیابی به منافع غیرقانونی، مصداق روشن استفاده مخرب از این فناوری است.
در نتیجه، مثبت یا منفی بودن دیپفیک نه به ماهیت فناوری، بلکه به شیوه بهرهبرداری و نیت استفادهکننده وابسته است.
در عصر هوش مصنوعی مولد، توانایی تشخیص و تحلیل اصالت محتوا به یک ضرورت اساسی تبدیل شده است
گسترش دیپفیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را بهعنوان سند قابل اتکا تضعیف کرده است؟
با گسترش فناوریهای «هوش مصنوعی مولد» در پنج سال گذشته، بهویژه از سال ۲۰۲۱ به بعد، امکان تولید محتوای جعلیِ بسیار واقعگرایانه ــ شامل متن، صدا، عکس، تصویر و ویدئو ــ توسط این فناوریها فراهم شده است. این روند بهتدریج تولید چنین محتواهایی را از سطحی تخصصی به مهارتی نسبتاً عمومی تبدیل کرده، بهگونهای که حتی کاربران عادی نیز میتوانند به آن دسترسی داشته باشند. در چنین شرایطی، مفهومی که پیشتر با عنوان «سواد رسانهای» و سپس «سواد فضای مجازی» شناخته میشد، اکنون به سطح تازهای با عنوان «سواد هوش مصنوعی» رسیده است.
سواد هوش مصنوعی به این معناست که مخاطب هنگام مشاهده محتوا، به امکان تولید آن توسط هوش مصنوعی توجه داشته باشد. برای نمونه، اخباری منتشر شد مبنی بر اینکه پاکستان جنگندههایی در اختیار ایران قرار داده است. همزمان ویدئوهایی نیز منتشر شد که در آنها جنگندهها سوار بر تریلی از مسیرهای کوهستانی وارد ایران میشوند. سواد هوش مصنوعی ایجاب میکند مخاطب نسبت به چنین تصاویری پرسش انتقادی مطرح کند؛ از جمله اینکه جنگندهای که برای پرواز طراحی شده، چرا باید به این شیوه جابهجا شود. این نوع پرسشگری دقیقاً ناظر بر کارکرد سواد هوش مصنوعی است.
همچنین اگر تصویری از یک سلبریتی، ورزشکار یا سیاستمدار منتشر شود که در آن سخنی بیان کرده است، لازم است مخاطب بهدنبال نشانههای احتمالی دیپفیک باشد. از آنجا که هنوز مدت زیادی از فراگیر شدن این فناوری نگذشته، در بسیاری از موارد نشانههای تولید مصنوعی قابل تشخیص است. بر اساس تجربه حرفهای در این حوزه، تشخیص برخی ویدئوهای تولیدشده با هوش مصنوعی ــ چه در اینستاگرام، تلگرام یا سایر رسانهها ــ با مشاهده دقیق ممکن است؛ همانگونه که یک پزشک با نگاه به چهره بیمار میتواند به نشانههایی از وضعیت او پی ببرد. این یک تشبیه برای توضیح توانایی تشخیص نشانههاست. در رسانههای ماهوارهای و تبلیغات تصویری نیز میتوان با دقت به سرنخها، به مصنوعی بودن برخی تولیدات پی برد.
این مهارتها باید در قالب «سواد هوش مصنوعی» به جامعه آموزش داده شود. با پیشرفت فناوری، روشهای تولید محتوا پیچیدهتر و در نتیجه تشخیص آنها دشوارتر خواهد شد. برای مثال، در ماجرای مربوط به حمله موشکی اسرائیل به میدان تجریش مدتی بحث بود که آیا ویدئوها واقعیاند یا با هوش مصنوعی تولید شدهاند. همچنین درباره ویدئوی پینگپنگ بازی کردن سیدمحمد خاتمی نیز برای مدتی بحثهایی درباره واقعی یا جعلی بودن آن مطرح شد، زیرا همزمان ویدئوهای دیگری منتشر شده بود که او را در حال شطرنج یا دارت بازی کردن نشان میداد و این موارد در زمره تولیدات دیپفیک قرار میگرفت. با این حال، ویدئوی اولیه پینگپنگ به دلایل متعدد نشانههایی داشت که واقعی بودن آن را نشان میداد و از همان ابتدا میشد این موضوع را تشخیص داد. این دقیقاً مصداق سواد هوش مصنوعی است.
بنابراین، مباحثی مانند سواد بصری، تغییر ذائقه مخاطبان و شیوه مواجهه مردم با محتوای فضای مجازی باید متناسب با رشد این فناوریها ارتقا یابد. در عصر هوش مصنوعی مولد، توانایی تشخیص و تحلیل اصالت محتوا به یک ضرورت اساسی تبدیل شده است.
وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند
آیا میتوان گفت وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر کفایت نمیکنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟
ما وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند. مسئله صرفاً به فایلهای صوتی محدود نیست، بلکه تصاویر و ویدئوها نیز میتوانند با فناوری دیپفیک تولید شوند. امروزه حتی صدا نیز قابلیت «کلونسازی» دارد؛ به این معنا که اگر سامانههای هوش مصنوعی مانند فناوریهای موسوم به Voice AI نمونهای از صدای یک فرد در اختیار داشته باشند، میتوانند آن صدا را بازتولید کنند.
این فناوری میتواند کاربردهای مثبت نیز داشته باشد. برای مثال، صدای یک فرد درگذشته میتواند بازسازی شود؛ بهگونهای که یک فرزند شهید صدای پدر شهید خود را بشنود یا با بازسازی آن ارتباط عاطفی برقرار کند. همچنین مشاهده شده است که در برخی مراسم، قرائت قرآن بهصورت بازتولیدشده با صدای یک شهید ارائه میشود؛ به این شکل که صدای فرد با حفظ ویژگیهای صوتی او و در قالب سبک تلاوت یک قاری شناختهشده، برای خواندن آیات انتخاب میشود. این موارد نشان میدهد که فناوری یادشده میتواند کارکردهای مثبت، ارزشی و ایدئولوژیک نیز داشته باشد.
با این حال، همین فناوری در موقعیتهای دیگر میتواند جنبههای منفی نیز پیدا کند و در صورت استفاده نادرست، زمینهساز فریب یا سوءاستفاده شود.
در آینده، فرایند «دروازهبانی» محتوا، خبر و اطلاعات بهطور فزایندهای پیچیده می شود
ضرورت آشنایی با ابزارهای جدید فکتچکینگ و به روزرسانی سازوکارهای راستیآزمایی اطلاعات
کسانی که به فناوریهای راستی آزمایی مسلط هستند، قادر به شناسایی محتوای جعلی اند
رسانهها در آینده از چه ابزارها، فناوریها و پروتکلهای حرفهای برای تشخیص و راستیآزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها بهتنهایی کافیاند؟
در حوزه آینده رسانهها، فرایند «دروازهبانی» محتوا، خبر و اطلاعات بهطور فزایندهای پیچیده می شود. در این شرایط، رسانهها نه تنها باید با ابزارهای جدید فکتچکینگ آشنا باشند، بلکه لازم است سازوکارهای راستیآزمایی اطلاعات خود را متناسب با فناوریهای نوین بهروز کنند. رسانههایی در این حوزه موفقتر هستند که نحوه کار و کاربرد این فناوریها را بهطور کامل درک کرده باشند، زیرا عدم آگاهی نسبت به عملکرد یک فناوری باعث میشود نتوان تولیدات آن را به درستی تشخیص داد و تمایز میان محتواهای واقعی و جعلی ممکن نشود. برعکس، کسانی که با این فناوریها مسلط هستند، قادر خواهند بود محتوای جعلی را شناسایی کنند.
از این رو، فرایند دروازهبانی خبر در رسانهها تخصصیتر شده و تشخیص راست از دروغ دشوارتر میشود. رسانهها در سطح جهانی به پروتکلهای جدیدی نیاز دارند که هم شیوه استفاده از هوش مصنوعی در تولید محتوا و هم روشهای فکتچکینگ را پوشش دهد. جالب است بدانید که فدراسیون بینالمللی روزنامهنگاران و انجمن مطبوعات پاریس دو منشور در این زمینه منتشر کردهاند که میتواند بهعنوان مبنای راهنمایی برای نهادهای مدنی و رسانهای در سطح جهان مورد استفاده قرار گیرد و به شکل توصیه، چارچوب عملیاتی برای رسانهها ارائه دهد.
در ایران، رگولاتور اصلی این حوزه بهطور طبیعی وزارت فرهنگ و ارشاد اسلامی و سازمان صدا و سیما هستند و این دو نهاد میتوانند در فرآیند بهروزرسانی روشها و پروتکلهای رسانهای ورود کنند. با این حال، بر اساس شناخت موجود از عملکرد این دو مجموعه، تاکنون این فرایندها به طور جدی در آنها اجرا نشده است. با توجه به پیچیدگیهای ناشی از فناوریهای نوین، این امر جزو نیازهای ضروری و فوری رسانهها محسوب میشود.
مسئولیت رسانهها در مواجهه با دیپ فیک فنی و اخلاقی است
فقدان دانش کافی، توانایی تشخیص محتوای واقعی از جعلی را کاهش می دهد
دیپفیک میتواند در حوزههای فرهنگی و هنری نیز کاربرد داشته باشد
در مواجهه با دیپفیک، مسئولیت رسانهها بیشتر فنی است یا اخلاقی و تحریریهای؟ مرز این دو کجاست؟
مسئولیت رسانهها در مواجهه با دیپ فیک هم از نظر فنی و هم از نظر اخلاقی و تحریریهای است. در صورتی که دانش فنی کافی نداشته باشند، توانایی تشخیص محتوای واقعی از جعلی کاهش مییابد و مناقشات درباره صحت یا جعلی بودن اطلاعات شکل میگیرد. از سوی دیگر، اگر رسانهها رسالت آگاهیبخشی خود را نادیده بگیرند، عملکردشان دچار مشکل خواهد شد. به بیان دیگر، بینش و دانش فنی باید همزمان با یکدیگر در رسانهها حضور داشته باشند.
در عین حال، رسانهها میتوانند از فناوری دیپفیک به شیوههای مثبت بهرهبرداری کنند. برای مثال، یک رسانه تصویری میتواند از دیپفیک برای ارتقای فرآیندهای آموزشی، پیشگیری، اطلاعرسانی، افزایش دانش یا ارتقای مهارت استفاده کند. همچنین، در مواقعی که محتوا به زبانهای دیگر تولید شده است، دیپفیک امکان ترجمه و بازتولید سخن را فراهم میکند؛ بهگونهای که چهره فرد با صدای ترجمهشده هماهنگ شود و برای اهداف آموزشی مورد استفاده قرار گیرد. این نوع کاربردها از نظر رسانهای و اخلاقی مشکلی ندارد و با گذر زمان، رسانهها به تدریج از چنین فناوریهایی بهرهمند خواهند شد.
علاوه بر این، دیپفیک میتواند در حوزههای فرهنگی و هنری نیز کاربرد داشته باشد. به عنوان مثال، میتوان اساطیر را بازسازی و احیا کرد، یا صدای یک شاعر بزرگ را بازتولید کرد تا شعرهای خود را به سبکهای جدید اجرا کند. چنین ابتکاراتی بهویژه برای نسلهای جوان مانند نسلهای Z، آلفا و بتا جذابیت دارد و رسانهها برای حفظ ارتباط با مخاطبان جوان باید محتوای خود را متناسب با ذائقه آنها تولید و بهروزرسانی کنند. در غیر این صورت، مخاطبان بهتدریج از رسانه فاصله خواهند گرفت.
در جمعبندی، میتوان گفت که رسانهها باید پروتکلهای جامعی برای نحوه استفاده از هوش مصنوعی تدوین کنند، که فناوری دیپفیک نیز بهعنوان بخشی از آن لحاظ شود، و این پروتکلها باید بهطور رسمی در فرآیند تولید محتوا مدنظر قرار گیرند.
حفظ و ارتقای اعتبار رسانهها مستلزم ارتقای سواد هوش مصنوعی نزد مخاطبان است
تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیمگیریهای سیاسی و اجتماعی دارد؟
من معتقدم که اعتبار تصویر تضعیف نمیشود. هرچند در فضای مجازی گسترش دیپفیکها ممکن است بهظاهر موجب کاهش اعتبار تصویر یا رسانه شود، اما این وضعیت نمایانگر واقعیت جامعه نیست. حفظ و ارتقای اعتبار رسانهها مستلزم ارتقای سواد هوش مصنوعی نزد مخاطبان است.
برای نمونه، امروزه بسیاری از رسانههای معتبر مانند نیویورک تایمز در اتاقهای تصمیمگیری دولتها و مراکز سیاستگذاری کشورها مورد استناد قرار میگیرند. تصمیمگیریهای سیاسی و دیپلماتیک اغلب بر اساس محتوای منتشرشده در رسانههایی مانند سیانان، نیویورک تایمز یا گاردین انجام میشود. به این معنا، مخاطبان رسانه تنها مردم عادی نیستند؛ سیاستمداران، مسئولان و تصمیمسازان نیز بخشی از این مخاطبان هستند.
بنابراین، اگر فناوریهای نوین بهویژه دیپفیکها بهطور صحیح و مسؤولانه مورد استفاده قرار گیرند، نه تنها اعتبار رسانه کاهش نمییابد، بلکه میتواند موجب افزایش ضریب نفوذ و اثرگذاری آنها نیز شود.
