شفقنا رسانه– در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده از آن است. دیپ فیک که از جمله تکنیک های مبتنی بر هوش مصنوعی است و با تغییر در محتواهای صوتی و تصویری، محتوای کاملاً متفاوتی از واقعیت به مخاطب می دهد. به همین دلیل آشنایی با دیپ فیک، استفاده از فرصت های آن و مقابله با تهدیدهای آن مسئله مهمی است. سید روح الله میرحسینی مدرس دانشگاه و پژوهشگر هوش مصنوعی و امنیت سایبری در بیان فرصت هایی که دیپ فیک می تواند در نشر ارزش های یک جامعه داشته باشد، می گوید: با توجه به آرمان و نگرش های موجود در کشور، می توان از این فناوری برای نشر ارزش های اسلامی و ایرانی استفاده کنیم. همچنین با توجه به محدودیت هایی که در تولید آثار به زبان فارسی داریم، ما می توانیم با استفاده از این تکنیک کارهای ماندگاری بر جای بگذاریم که بسیار فراگیر و به صرفه تر باشد. ما برای انتشار و توسعه دین و فرهنگ می توانیم از این تکنولوژی بهره بگیریم. البته باید مراقبت تهدیدات این تکنیک هم با لحاظ جرم انگاری هم باشیم.
سید روح اله میرحسینی مدرس دانشگاه و پژوهشگر هوش مصنوعی و امنیت سایبری در بیان توضیح دیپ فیک به شفقنا رسانه می گوید: ما در عصری قرار گرفتیم که برخی این عصر را عصر حاکمیت داده مینامند. با توجه به رشد روزافزون داده هایی که در فضای مجازی تولید می شوند و ظهور تکنولوژیهایی مثل GPU (واحد پردازش گرافیک) برای پردازش این دادهها، تکنولوژی جدید به نام یادگیری عمیق ( دیپ لرنینگ) در علوم هوش مصنوعی و یادگیری ماشین پدید آمد و این امکان را در دهه اخیر برای صاحبان تکنولوژی و صاحبان داده ایجاد کرده تا بتوانند با این فناوریهای نوین حوزه دانش را متحول کنند. در واقع دیپ لرنینگ با کمک دو ابزار مهم یعنی داده و تکنولوژی پردازش داده، تحول بزرگی را در حوزه هوش مصنوعی ایجاد کرده است. دیپ فیک (جعل عمیق) حاصل تکنولوژی دیپ لرنینگ یا یادگیری عمیق است و چهار شبکههای عصبی Encoder-Decoder Networks، Convolutional Neural Networks، Generative Adversarial Networks و Recurrent Neural Networks معمولا برای تولید Deepfakes استفاده میشوند.
او توضیح می دهد: ما در روشهای مختلف در فضای مجازی داده تولید می کنیم، از طرفی پردازنده ها نیز توسعه پیدا کرده اند. این دو کمک کرده اند تا ما با استفاده از عملکرد یک شبکه عصبی مصنوعی عمیق که یادگیری عمیق نام دارد، بتوانیم یادگیری را در سیستم های هوش مصنوعی ارتقاء دهیم. لذا در دیپ فیک با استفاده از یک شبکه عصبی مصنوعی عمیق و استفاده مجدد از شباهت اجرا کننده یا اجرای جدید یا ترکیب این دو، تصویر یا ویدئویی با یک تصویر ویدوئویی دیگر جایگزین یا اضافه می شود. در واقع با یک سیستم یادگیری عمیق و استفاده مجدد از بعضی تصاویر و یا جایگزینی آن ها، فیلم، صدا و یا تصویری را تقلید یا شبیه سازی می کنیم که به آن دیپ فیک (جعل عمیق) می گوییم. پس دیپ فیک از تکنولوژی یادگیری ماشین یا یادگیری عمیق استفاده می کند. به عبارتی دیپ فیک، فیلم واقعی (معتبر) را دستکاری می کند تا یک تقلید دیجیتال ایجاد کند.
این پژوهشگر حوزه هوش مصنوعی و امنیت سایبری به اهداف استفاده از دیپ فیک اشاره می کند و می گوید: هدف اول این کار ویرایش یا بهبود یک تصویر است که در تدوین یک فیلم از آن استفاده می شود. هدف دوم؛ اجرای مجدد از یک فیلم یا موسیقی و جایگزین کردن آن با اجرای دیگری و نهایتا اجرای جدید که با تصاویر قبلی کاملاً در تضاد است.
میرحسینی با بیان اینکه اهداف مورد استفاده در دیپ فیک؛ شامل اهداف مشروع و اهداف نامشروع هستند، می گوید: اهداف مشروع شامل استفاده از دیپ فیک برای سرگرم کردن، ایجاد منابع آموزشی جذاب تر، تولید محتوای قابل دسترس برای کاربران با توانایی های متفاوت، محتواهای چند زبانه، تولیدات هنری، تقلید، انتقاد، طنز و… است. اهداف نامشروع مثل تهدید استقلال فردی و آزادی فردی با استفاده از سوء استفاده های جنسی، باجگیری، تهمت، افترا و… است یا تهدید دموکراسی از طریق دستکاری در انتخابات، جعل خبر و… است.
این مدرس دانشگاه به دسته بندی ذی نفعان حوزه دیپ فیک در مجامع علمی می پردازد و می گوید: دسته اول این ذی نفعان افرادی هستند که در ساخت دیپ فیک از داده هایشان استفاده می کنیم و یا کسانی که دیپ فیکشان ساخته شده است (Deepfaked person). دسته دوم؛ تولید کننده و سازنده دیپ فیک (Deepfake maker) هستند. دسته سوم؛ Deepfake viewer ها هستند، یعنی اشخاصی که یک دیپ فیک را دریافت و مشاهده می کنند. دسته چهارم؛ اشاعه دهندگان (Deepfake disseminator) دیپ فیک هستند. البته در دسته بندی های علمی، ذی نفعان دیگری هم هستند که مستقیم با دیپ فیک در ارتباط نیستند ولی تحت تاثیر اقدامات و یا تصمیمات این افراد قرار می گیرند. به عنوان مثال اگر دیپ فیکی را در حوزه سلامت از یک مقام اجرایی منتشر کنیم، مردم در هیچکدام از این ۴ مورد نیستند بلکه این مردم تحت تاثیر القائات رسانه ای قرار میگیرند و ضررهایی را از دیپ فیک متحمل شوند. به عبارتی این افراد ذی نفعان ثانویه دیپ فیک هستند.
با این اوصاف چگونه می توان محتوای فیک را تشخیص داد؟ این پژوهشگر حوزه هوش مصنوعی و امنیت سایبری پاسخ می دهد: ما وقتی بخواهیم فضای رسانه ای را فضای مطمئنی کنیم، باید هم سیاستمداران حوزه رسانه در این زمینه بیندیشند و برنامه ریزی کنند و هم اهالی رسانه آگاهی بخشی کنند، تا سواد رسانه ای مردم ارتقاء یابد و این فضا ایمن شود. به عبارتی ما باید دو رویکرد؛ تخصصی و عمومی داشته باشیم.
او ادامه می دهد: به عنوان مثال Kaggle (بزرگترین جامعه مهندسی داده و یادگیری ماشین) که زیر مجموعه ای از گوگل با بیش از نه میلیون کاربر است در دو سال گذشته مسابقه یک میلیون دلاری گذاشت تا مخاطبانش بتوانند راهکارهایی ارائه دهند که بتوان دیپ فیک را تشخیص داد. چون دیپ فیک حاصل دانش تخصصی یادگیری ماشین یا یادگیری عمیق است، برای تشخیص هم باید از همین ابزار استفاده کنیم. به عبارتی صاحبان رسانه و سیاست باید پروژه های تخصصی و فنی ایجاد کنند تا تصویر مورد نظر را به نرم افزار یا ماشین دهند که ساختگی یا اصلی بودن تصویر را تشخیص دهد. البته امروزه رویکرد تخصصی در تولیدات سخت افزاری مثل دوربین ها ورود پیدا کرده اند تا وقتی تصویری تولید می شود، مشخص باشد که این تصویر دارای امضای اصلی بوده و فلان دوربین آن را ثبت کرده است.
میرحسینی در توضیح رویکرد عمومی می گوید: در رویکرد عمومی باید سه اصل مدنظر قرار بگیرد. اصل اول درک دقیق از فناوری است به عبارتی این را باید جا انداخت و فرهنگ سازی کرد که هر داده ای می تواند منقلب شود و با دیدن هر تصویر یا فیلم بر فیک بودن آن شک کنیم. اصل دوم در نظر داشتن این نکته است که هر فناوری کارکردهایی منفی و مثبت دارد و اصل سوم این است که باید تعریف درستی از ذی نفعان آن داشته باشیم. لذا با توجه به این اصل به عنوان مخاطب عمومی چندین محدودیت را باید درنظر بگیریم و از طرفی باید قوانینی را وضع نمود تا استفاده از دادههای افراد براساس قواعد و مقرراتی باشد. به عبارتی هرکسی ممکن است به صدا یا تصویر ما دسترسی پیدا کند ولی نباید امکان استفاده از آن را داشته باشد. در نهایت آموزش سواد رسانه ای بهترین راهکاری است که می توان برای مخاطبان با رویکرد عمومی مطرح کرد.
این پژوهشگر حوزه هوش مصنوعی و امنیت سایبری با اشاره به اهمیت سواد رسانه ای می گوید: رسانه ها به نوعی حالت میانجیگری را دارند و در واقع در جامعه مدرن، رسانه نقش بیشتری پیدا می کنند و از آنجایی که در یکی از تعاریف سازمان علمی جهانی، سواد رسانه ای به عنوان یکی از هفت سواد معرفی شده است. ما باید بتوانیم در حوزه رسانه به اهمیت این سواد رسانه ای بپردازیم.
او ادامه می دهد: این سواد به قدری دارای اهمیت است که هم مردم باید از آن مطلع شوند هم مسئولین و صاحبان قدرت. حتی این سواد برای کسانیکه دارای فعالیت اقتصادی کوچک هم هستند، ضروری است و همه باید به حوزه سواد رسانه ای، تسلط پیدا کنند. با توجه به اهمیت و ضرورت چنین سوادی، قرار گرفتن درسی به نام سواد رسانه ای در مقطع دبیرستان سبب امیدواری فراوان شده است. لذا باید با رسانه های موجود اعم از تصویری و چاپی، به افزایش سواد رسانه ای مخاطبان کمک کنیم.
این مدرس دانشگاه با توضیح درباره فرصت هایی که دیپ فیک می تواند در نشر ارزش های یک جامعه داشته باشد، بیان می کند: با توجه به آرمان و نگرش های موجود در کشور، می توان از این فناوری برای نشر ارزش های اسلامی و ایرانی استفاده کنیم. همچنین با توجه به محدودیت هایی که در تولید آثار به زبان فارسی داریم، ما می توانیم با استفاده از این تکنیک کارهای ماندگاری بر جای بگذاریم که بسیار فراگیر و به صرفه تر باشد. ما برای انتشار و توسعه دین و فرهنگ می توانیم از این تکنولوژی بهره بگیریم.
میرحسینی در ادامه به تهدیدات دیپ فیک می پردازد و هشدار می دهد: گزارش های مختلفی از دیپ فیک موجود است که باعث باج گیری از نوجوانان و به نوعی سوءاستفاده از آنها شده است. پس باید نوجوانان و جوانان ما این آگاهی را پیدا کنند که اگر با چنین مسأله ای برخورد کردند، بتوانند به افراد معتمد رجوع کنند و به نوعی مانع قربانی شدن شان در برابر این تهدید شد.
او ادامه می دهد: در فضای رسانه ای بایستی این فرهنگ را ایجاد کنیم که به راحتی افراد تصاویر یکدیگر را بازنشر و بازسازی نکنند و در واقع این مسأله باید جرم انگاری شود. علاوه بر آن باید قواعد کپی رایت مدون تر شود تا از جامعه محافظت بیشتری شود.