• فارسی
  • آینده
  • اقتصادی
  • ورزشی
  • زندگی
  • آذربایجان
  • افغانستان
  • اردو
  • العربی
  • العراق
  • لبنان
  • Pakistan
  • India
  • English
  • French
  • Spanish
  • Russian
  • Turkish
  • نیوزمانیتور
شفقنا رسانه | مهم‌ترین اخبار و تحلیل‌های رسانه، ارتباطات و فضای مجازی
رســانـه
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی

چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیک‌ها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد

توسط hakimi 14:55 | سه شنبه 7 بهمن، 1404
14:55 | سه شنبه 7 بهمن، 1404

شفقنا رسانه- امروزه با پیشرفت فناوری دیپ‌فیک، تصاویر و ویدیوهای جعلی فراوانی در شبکه‌های اجتماعی منتشر می‌شوند و تشخیص صحت آن‌ها روزبه‌روز سخت‌تر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ سید مهدی شریعت زاده، دکتری هوش مصنوعی در این باره می گوید: در مقاطعی، بخش قابل توجهی از محتوای نادرست و گمراه‌کننده از طریق کتاب‌ها منتشر می‌شد لذا برای مقابله با آن، سازوکارهای مشخص و ساختارمندی شکل گرفت. امروز اما سهم کتاب در انتشار این نوع محتوا بسیار محدود شده و در نتیجه، همان ساختارهای قدیمی که به‌تدریج کارایی خود را از دست داده‌اند، ناگزیرند با فرایندها و رسانه‌های جدید تطبیق پیدا کنند. این تطبیق می‌تواند از مسیر رویکردهای ایجابی مانند ارتقای سواد رسانه‌ای و بصری جامعه، یا رویکردهای سلبی همچون حمایت از فناوری‌های تشخیص جعل عمیق و تدوین راهکارهای حقوقی برای برچسب‌گذاری محتوای تولیدشده توسط هوش مصنوعی و موارد مشابه، دنبال شود.

 

متن گفتگوی شفقنا رسانه با سید مهدی شریعت زاده، دکتری هوش مصنوعی و مدیر مرکز مشاوره انجمن هوش مصنوعی ایران را در ادامه بخوانید…

در ابتدا بفرمایید که «دیپ‌فیک» به چه معناست و این فناوری در چه زمینه‌ها و با چه کارکردهایی مورد استفاده قرار می‌گیرد؟

مسئله «جعل عمیق» یا دیپ‌فیک از پیامدهای مهم گسترش فناوری هوش مصنوعی مولد در سال‌های اخیر است. در طول بیش از ۷۰ سال عمر هوش مصنوعی، الگوریتم‌ها به‌تدریج تکامل یافته‌اند؛ به‌گونه‌ای که در کمتر از یک دهه گذشته، به مجموعه‌ای از قابلیت‌ها تحت عنوان «هوش مصنوعی مولد» رسیده‌ایم. ذات این فناوری، فرصت‌های گسترده‌ای ایجاد کرده است. برای نمونه، هوش مصنوعی مولد در حوزه توسعه نرم‌افزار، بهره‌وری را تا حدود ۵۰۰ درصد افزایش داده و در تولیدات رسانه‌ای نیز رشد بهره‌وری نزدیک به ۲۰ برابر گزارش شده است.

در عین حال، این فناوری بستر شکل‌گیری کاربردهای مثبت و منفی متعددی را فراهم کرده است. بسیاری از فعالیت‌های فرهنگی که پیش‌تر پرهزینه یا زمان‌بر بودند، اکنون با صرف زمان و هزینه بسیار کمتر قابل انجام‌اند و می‌توانند به افزایش بهره‌وری در حوزه‌های فرهنگی و اجتماعی منجر شوند. با این حال، استفاده نادرست از همین قابلیت‌ها می‌تواند به تولید محتوای جعلی و در نهایت، شکل‌گیری پدیده جعل عمیق بینجامد.

 

 تأثیر اجتماعی جعل عمیق و نوع مواجهه مخاطب با آن، دیپ فیک را به مسئله جدی تبدیل کرده است

با این اوصاف گسترش دیپ‌فیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را به‌عنوان سند قابل اتکا تضعیف کرده است؟

تا آنجا که اطلاع دارم، در نظام حقوقی کشور ما از گذشته بر شهادت مستقیم شهود تأکید شده است؛ به این معنا که شاهد باید بدون واسطه‌هایی مانند دوربین‌های نظارتی یا ضبط صوت، وقوع یک واقعه را به‌طور مستقیم مشاهده کرده باشد. بر همین اساس، صرفِ فیلم یا صدای ضبط‌شده در دستگاه قضایی ایران معادل شهادت شهود تلقی نمی‌شود. البته این‌گونه مستندات می‌توانند بر مبنای «علم قاضی» در صدور رأی مؤثر باشند، اما به‌عنوان دلیل مستقل جایگاه شهادت را ندارند.

در مقابل، در برخی کشورهای غربی رویکرد متفاوتی حاکم است و فیلم و صوت ضبط‌شده به‌عنوان مدرک قضایی پذیرفته می‌شود. با این حال، این نظام‌های حقوقی نیز هم‌زمان با گسترش هوش مصنوعی و پدیده جعل عمیق، در حال بازنگری و به‌روزرسانی قوانین خود هستند. برای نمونه، الزام تولیدکنندگان محتوای دیپ‌فیک به درج واترمارک یا نشانه‌های شناسایی از جمله اقداماتی است که در این مسیر مورد توجه قرار گرفته است.

در واقع، پیش از ظهور فناوری جعل عمیق نیز ابزارهای متعددی برای ویرایش ویدئو، رندرینگ سه‌بعدی و تولید تصاویر غیرواقعی وجود داشت که به‌طور گسترده در جلوه‌های ویژه سینمایی و حوزه‌های مشابه به کار گرفته می‌شدند. از سال‌ها قبل، نمایش تصاویری که بازتاب‌دهنده واقعیت نیستند -چه با استفاده از فناوری‌های کلاسیک افکت‌های ویدئویی و چه امروز با بهره‌گیری از هوش مصنوعی مولد – امکان‌پذیر بوده است.

آنچه این پدیده را به مسئله‌ای جدی تبدیل می‌کند، نه صرفاً وجود ابزار، بلکه تأثیر اجتماعی جعل عمیق و نوع مواجهه مخاطب با آن است. در شرایطی که ابزارهای متنوعی برای تولید محتوای غیرواقعی در دسترس قرار دارد، بخش مهمی از مسئولیت به مخاطب بازمی‌گردد؛ اینکه تا چه اندازه محتوا را باور کند، چه زمانی دچار تردید شود و هر محتوای ویدئویی را بدون پرسش و راستی‌آزمایی، معادل واقعیت نپندارد.

 

آیا می‌توان گفت وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر کفایت نمی‌کنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟

قطعاً همین‌طور است و حتی پیش از رواج فناوری جعل عمیق نیز این چالش‌ها وجود داشته است. با این حال، در شرایط کنونی تولید ویدئوهای غیرواقعی با کیفیتی به‌مراتب بالاتر و با هزینه‌ای بسیار کمتر انجام می‌شود. در نتیجه، موضوعاتی مانند سواد رسانه‌ای روزبه‌روز اهمیت بیشتری پیدا می‌کنند؛ هرچند این مباحث در سال‌های گذشته نیز واجد اهمیت بوده‌اند، اما تحولات فناورانه امروز ضرورت توجه جدی‌تر به آن‌ها را دوچندان کرده است.

 

بزارهای متعددی برای فریب دادن سامانه‌های تشخیص محتوای جعلی توسعه یافته اند

رسانه‌ها در آینده از چه ابزارها، فناوری‌ها و پروتکل‌های حرفه‌ای برای تشخیص و راستی‌آزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها به‌تنهایی کافی‌اند؟

بحث تشخیص ویدئوهای تولیدشده توسط هوش مصنوعی، عمری به اندازه خود هوش مصنوعی مولد دارد. با این حال، تجربه و پژوهش‌ها نشان داده‌اند که هیچ روش یا ابزاری تاکنون قادر نیست به‌طور قطعی ویدئوهای غیرواقعی تولیدشده توسط هوش مصنوعی مولد را شناسایی کند. در مقابل، ابزارهای متعددی توسعه یافته‌اند که کارکرد اصلی آن‌ها فریب دادن سامانه‌های تشخیص محتوای جعلی است و اتفاقاً از جمله ابزارهای پرکاربرد در زیست‌بوم هوش مصنوعی به شمار می‌آیند. این ابزارها با پردازش یک ویدئوی تولیدشده توسط هوش مصنوعی، آن را به‌گونه‌ای تغییر می‌دهند که نرم‌افزارهای تشخیص جعل را گمراه کرده و فرآیند راستی‌آزمایی را دشوارتر می‌کنند.

در کنار این مسئله، ضعف‌های جدی در ابزارهای تشخیص و راستی‌آزمایی محتوای جعلی نیز وجود دارد. برای مثال، یکی از ابزارهای شناخته‌شده تشخیص متن تولیدشده توسط هوش مصنوعی، سندی متعلق به حدود ۲۰۰ سال پیش را به‌ اشتباه به‌عنوان متن تولیدشده توسط هوش مصنوعی شناسایی کرده بود. چنین خطاهایی نشان می‌دهد که در وضعیت کنونی نمی‌توان به‌طور کامل به این ابزارهای فناورانه برای تشخیص جعلی بودن محتوا اتکا کرد.

 

تجربه نشان داده که راهکارهای صرفاً حقوقی به‌تنهایی قادر به حل کامل مسئله جعل عمیق نیستند

تحریریه‌های رسانه‌ای در مواجهه با دیپ فیک مسئولیت مضاعفی دارند

راهکارهای فناورانه و سازوکارهای حقوقی، به‌تنهایی پاسخ‌گوی مواجهه با پدیده جعل عمیق نیستند

رسانه ها باید به ابزارهای راستی‌آزمایی محتوای جعلی، سواد رسانه‌ای و تفکر انتقادی مسلط باشند

در مواجهه با دیپ‌فیک، مسئولیت رسانه‌ها بیشتر فنی است یا اخلاقی و تحریریه‌ای؟ مرز این دو کجاست؟

در سطح جهانی تلاش‌هایی برای تدوین و تصویب قوانین بازدارنده در این حوزه در جریان است. برای نمونه، برخی مقررات منتشرکنندگان محتوا را ملزم می‌کنند در صورتی که محتوا با استفاده از هوش مصنوعی مولد تولید شده است، این موضوع را از طریق نشانه یا برچسب مشخص به مخاطب نهایی اعلام کنند. با این حال، هم امکان اجرا نشدن این قوانین وجود دارد و هم روش‌های مختلفی برای دور زدن آن‌ها شکل گرفته است. افزون بر این، تجربه نشان داده که راهکارهای صرفاً حقوقی به‌تنهایی قادر به حل کامل مسئله جعل عمیق نیستند.

برآیند این وضعیت آن است که نه راهکارهای فناورانه و نه سازوکارهای حقوقی، به‌تنهایی پاسخ‌گوی مواجهه با پدیده جعل عمیق نیستند و همچنان نیاز جدی به ارتقای سواد رسانه‌ای در میان مخاطبان و عموم جامعه وجود دارد. در این میان، تحریریه‌های رسانه‌ای نیز مسئولیت مضاعفی دارند؛ از یک سو باید از نظر فنی به ابزارهای راستی‌آزمایی محتوای جعلی مسلط باشند و از سوی دیگر، از منظر سواد رسانه‌ای و تقویت تفکر انتقادی، خود را به‌روز و مجهز نگه دارند.

 

میزان اثرگذاری پیام‌های جعلی ارتباط مستقیمی با سطح سواد رسانه‌ای و بصری جامعه دارد

برای کاهش اثرات دیپ فیک باید از فناوری‌های تشخیص جعل عمیق حمایت شود

ضرورت تدوین راهکارهای حقوقی برای برچسب‌گذاری محتوای تولیدشده توسط هوش مصنوعی

تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیم‌گیری‌های سیاسی و اجتماعی دارد؟

در واقع، ما به‌تدریج وارد عصری می‌شویم که بسیاری از مفاهیم و تصورات پیشین، شکل بالغ‌تر و کامل‌تری به خود می‌گیرند. ابزارهایی که در سال‌های گذشته عمدتاً برای ذخیره، انتشار یا انتقال محتوا طراحی شده بودند، امروز در حال تغییر کارکرد هستند و از نظر ماهوی، کیفیت، دقت و دامنه اثرگذاری ارتقا یافته‌اند. در ادامه همین روند طبیعی پیشرفت علم و فناوری، کارکردهای جدیدی مانند جعل عمیق نیز پدید آمده است.

در کنار این تحولات فناورانه، مواجهه اجتماعی با این پدیده‌ها و میزان تأثیری که بر انسان و تمدن می‌گذارند نیز نیازمند بلوغ تدریجی است؛ فرآیندی که به‌طور طبیعی رخ می‌دهد و لزوماً ماهیتی منفی ندارد. برای مثال، در سال‌های ابتدایی رواج شبکه‌های اجتماعی، حجم بالایی از پیام‌های جعلی و غیرواقعی در میان مردم دست‌به‌دست می‌شد و حتی بسیاری از رسانه‌ها نیز ناخواسته فریب خورده و این محتواها را منتشر می‌کردند. اما با گذشت زمان و تکرار این تجربه‌ها، بخش قابل توجهی از مخاطبان به این جمع‌بندی رسیدند که هر پیام را نباید به‌سادگی پذیرفت و لازم است با نگاه تردید و ارزیابی انتقادی با محتوا مواجه شد. چراکه تداوم انتشار پیام‌های جعلی، در نهایت به تضعیف اعتماد عمومی و انحراف در تصمیم‌گیری سیاست‌گذاران و صاحب‌نظران منجر می‌شود.

به‌طور کلی، میزان اثرگذاری پیام‌های جعلی ارتباط مستقیمی با سطح سواد رسانه‌ای و بصری جامعه دارد. در صورتی که برای ارتقای این سطح برنامه‌ریزی نشود، جامعه به‌طور طبیعی در برابر چنین پدیده‌هایی آسیب‌پذیر خواهد بود. همان‌گونه که بسیاری از نهادها و ساختارهایی که دهه‌ها در کشور وجود داشته‌اند، در دوره‌های مختلف کارکردهای متفاوتی داشته‌اند. در مقاطعی، بخش قابل توجهی از محتوای نادرست و گمراه‌کننده از طریق کتاب‌ها منتشر می‌شد و برای مقابله با آن، سازوکارهای مشخص و ساختارمندی شکل گرفت. امروز اما سهم کتاب در انتشار این نوع محتوا بسیار محدود شده و در نتیجه، همان ساختارهای قدیمی که به‌تدریج کارایی خود را از دست داده‌اند، ناگزیرند با فرایندها و رسانه‌های جدید تطبیق پیدا کنند. این تطبیق می‌تواند از مسیر رویکردهای ایجابی مانند ارتقای سواد رسانه‌ای جامعه، یا رویکردهای سلبی همچون حمایت از فناوری‌های تشخیص جعل عمیق و تدوین راهکارهای حقوقی برای برچسب‌گذاری محتوای تولیدشده توسط هوش مصنوعی و موارد مشابه، دنبال شود.

 

دیپ‌فیک مانند بسیاری از فناوری‌های دیگر، بیش از آنکه تهدید باشد، یک فرصت است

نگاه منفی به دیپ‌فیک بیشتر ناشی از کاربردهای نادرست و ناشناخته بودن این فناوری است

به‌نظر شما تهدید اصلی دیپ‌فیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو به‌عنوان شواهد واقعی؟

به‌نظر من، دیپ‌فیک مانند بسیاری از فناوری‌های دیگر، بیش از آنکه تهدید باشد، یک فرصت است و ظرفیت‌های آن برای انتشار اندیشه‌ها و روایت‌های صحیح، به‌مراتب بیش از جنبه‌های بالقوه آن برای انحراف افکار عمومی است. از این منظر، به‌جای سخن گفتن از فرسایش اعتماد عمومی، می‌توان گفت جامعه نسبت به رسانه‌ها واقع‌بین‌تر شده و با نگاه انتقادی‌تری با محتوا مواجه می‌شود.

رسانه‌ها از ابتدا نیز ذاتاً امکان تولید محتوای غیرواقعی را در خود داشته‌اند؛ آنچه در مقطع کنونی رخ داده، آشکارتر و گسترده‌تر شدن این ظرفیت‌هاست. بنابراین نمی‌توان این شکوفایی را ذاتاً پدیده‌ای منفی تلقی کرد. نگاه منفی به دیپ‌فیک بیشتر ناشی از کاربردهای نادرست، ناشناخته بودن این فناوری و فقدان شیوه‌های مواجهه صحیح با آن است. بر همین اساس، در ارزیابی کلی، من وزن جنبه‌های تهدیدآمیز این فناوری را کمتر از ظرفیت‌های فرصت‌ساز آن می‌دانم.

اخبار جعلیاخلاق رسانه‌ایاعتماد رسانه‌ایبحران اعتماد عمومیجعل تجربهجعل عمیقحقیقت بصریدیپ‌فیکراستی‌آزمایی محتواسواد رسانه‌ایهوش مصنوعی و رسانه
0 FacebookTwitterLinkedinWhatsappTelegramEmail
خبر قبلی
تلفن همراهی که یک پروژکتور در دلش دارد
خبر بعدی
وعده جدید برای اتصال اینترنت: دسترسی‌ها از ظهر امروز بیشتر می‌شود

خبرهای پیشنهادی

یک مدرس ارتباطات: جامعه ایران به رژیم خبری...

10:23 | دوشنبه 20 بهمن، 1404

ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی...

18:49 | جمعه 17 بهمن، 1404

یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی،...

12:47 | پنجشنبه 16 بهمن، 1404

بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک...

12:37 | پنجشنبه 16 بهمن، 1404

هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی...

19:03 | چهارشنبه 15 بهمن، 1404

ایلان ماسک، نخست وزیر اسپانیا را به دلیل...

14:48 | چهارشنبه 15 بهمن، 1404

یک پژوهشگر حوزه کودک و رسانه: نظام آموزشی و رسانه‌های کودک‌محور،...

15:20 | سه شنبه 14 بهمن، 1404

آخرین اخبار شفقنا از حوزه فناوری و هوش...

15:15 | دوشنبه 13 بهمن، 1404

ضیایی پرور: ارزش‌گذاری اخلاقی دیپ فیک به نوع...

10:08 | یکشنبه 12 بهمن، 1404

آخرین اخبار

  • یک مدرس ارتباطات: جامعه ایران به رژیم خبری آگاهانه نیاز دارد/ مصرف بی‌وقفه خبر، جامعه را به فرسودگی روانی می‌کشاند/مسئله امروز جامعه ایران «خبر بد» نیست، شیوه مصرف خبر است

  • آیا اروپا می‌تواند کودکان را از شبکه‌های اجتماعی دور کند؟

  • ویترین روزنامه ها/ بررسی کارشناسانه «اعتماد» درباره دلایل رویکرد محتاطانه ایران و آمریکا در مذاکرات/ اشاره «دنیای اقتصاد» به سه مانع رشد ۱۴۰۴

  • وقتی چت‌بات‌ها در تشخیص از پزشکان پیشی می‌گیرند

  • رونمایی از رایانه هرمی‌شکل جدید چین

  • مدیرعامل واشنگتن پست پس از تعدیل گسترده نیرو استعفا داد

  • مخالفت نیویورک با مراکز داده جدید

  • ویترین روزنامه ها/ اشاره «شرق» به بی اعتمادی دلار به اخبار مذاکرات و برگشت دلارهای بلوکه شده/ هشدار «پیام ما» نسبت به کم آبی شدید سدهای تامین کننده آب تهران

  • بدرالسادات مفیدی: هنوز حیطه روزنامه‌نگاری مکتوب، اصالت و ارزش دارد/دوم خرداد ۱۳۷۶ دوره طلایی تاریخ معاصر بعد از انقلاب اسلامی بود

  • عضو کمیسیون اجتماعی: رسانه‌ها در زمان محدودیت اینترنت مستثنی شوند

  • رد شایعات درباره ساخت «موبایل استارلینک» از سوی ایلان ماسک

  • گفت‌وگوی کاربران «کارپلی» با چت‌بات‌های هوش مصنوعی امکان‌پذیر می‌شود

  • اتحادیه اروپا: تیک تاک با طراحی اعتیاد آور خود قانون سرویس های دیجیتال منطقه را نقض کرده است

  • ویترین روزنامه ها/ مذاکرات مسقط در قاب روزنامه ها/گزارش میدانی «شرق» از محل آتش‌سوزی بازارچه جنت‌آباد تهران

  • ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی می‌کند

  • سوژه های منتخب هفته/ راهکار نجات اقتصاد، بازار سیاه «VPN‌»فروشی، بحران تالاب‌ها، ایرانِ پریشان و تأثیر جراحی اقتصادی دولت‌ها بر سفره خانوار

  • حالت خاموش کردن و وضعیت خواب چه تاثیری بر عملکر لپ‌تاپ دارد؟

  • سایت استخدام انسان توسط هوش مصنوعی، راه اندازی شد

  • تولیدکنندگان رایانه‌های شخصی مشتری تراشه‌های چین شدند

  • یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت ‌شود

  • بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک همکاری می‌کند

  • اظهارات جدید درباره آخرین وضعیت اینترنت و اختلال‌های فعلی

  • هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی تولید می‌کند

  • پاول دوروف: فرانسه شبکه‌های اجتماعی را که به مردم درجه‌ای از آزادی می‌دهند، اذیت می کند

  • پلتفرم هوش مصنوعی صنعتی انویدیا در راه است

پربازدیدترین ها

  • رونمایی از گوشی های Tribute 2 و Volt 2 ال جی

  • چند راه حل ساده برای کاهش مصرف حجم اینترنت در گوشی های اندروید

  • بازداشت ۱۴ خبرنگار در ونزوئلا/ اخراج یک خبرنگار خارجی

  • ویترین روزنامه ها/ بررسی کارشناسانه «شرق» درباره پارامترهای سیاسی و اقتصادی حوادث اخیر/ اشاره «دنیای اقتصاد» به دلایل افزایش قیمت طلای جهانی

  • چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیک‌ها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد

  • استرالیا ویزای اینفلوئنسر اسرائیلی را به خاطر توهین به اسلام باطل کرد

  • چراغ خاموش اقتصاد دیجیتال؛ از اینترنت صفی تا رومینگ در مرز

  • اسرار دستگاه‌‌های الکترونیکی به‌جا مانده از گروه‌های شبه‌نظامی فاش شد

  • عکس های منتخب/ طبیعت پاییزی گیلان از دریچه دوربین «سید جواد میرحسینی»

  • چرا سرما گوشی‌تان را خاموش می‌کند؟

  • مهاجرانی خبر داد؛ بسته های جبرانی معاونت علمی برای حمایت از کسب و کارهای اینترنت پایه

  • معاون آموزش انجمن سواد رسانه‌ای ایران: دیپ‌فیک علاوه بر یک فناوری، چالشی شناختی و رسانه‌ای است/ جامعه‌ای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیب‌پذیر است

  • «مایکروسافت» از تراشه جدید خود رونمایی کرد

  • بنیانگذار تلگرام: فقط «کودن‌ها» باور دارند واتس‌اپ امن است

  • کتاب فلسفه ارتباطات بررسی می شود

  • مهاجری:«مشکلات اقتصادی کشور ریشه اصلی اعتراضات را شکل می دهد/ این مشکلات راه‌حل اقتصادی ندارند/ حل این مشکلات راه‌حل‌های سیاسی و دیپلماتیک دارند»

  • تشخیص افسردگی با استفاده از واتس‌اپ!

  • تصمیم دولت ترامپ برای استفاده از هوش مصنوعی در نوشتن قوانین فدرال

  • قانونگذاران فرانسوی طرحی را برای ممنوعیت رسانه‌های اجتماعی برای افراد زیر ۱۵ سال تصویب کردند

  • در اتاق گفتگوی شفقنا مطرح شد؛ دکتر اجاق: شبکه‌های اجتماعی در حوزه سلامت ظرفیت و خطر را هم‌زمان دارند/ آگاهی سلامت بدون سواد رسانه‌ای امکان‌پذیر نیست/ اعتماد به متخصصان در ایران نیازمند ترمیم نهادی و ارتقای سواد عمومی سلامت و رسانه‌ای است

  • در اتاق گفتگوی شفقنا مطرح شد؛ نوروزی: شرایط الان کشور به گونه‌ای نیست که فعلاً بازنگری در قانون مطبوعات را بطلبد/ به‌طور مطلق باید حق توقیف یا لغو پروانه رسانه‌ها از نظام حقوقی ایران حذف شود/ جرم مطبوعاتی یک جرم غیرعمد است/ پوربابایی: الفاظ و عبارت به کار برده شده در قانون مطبوعات کشدار و مبهم هستند/جرم‌انگاری روزنامه نگاران باید محدود شود/توقیف ناگهانی مطبوعات ظلمی آشکار است

  • ویدئو/ رییس سازمان صدا و سیما در گفت و گو با شفقنا: سختگیری ساترا در صدور مجوز تولید افزایش یافته است/ ضوابط تولید نمایش خانگی به‌روزرسانی می‌شود

  • عکاس فلسطینی در غزه، برنده جایزه ریاست‌جمهوری ترکیه شد + تصاویر

  • در اتاق گفتگوی شفقنا مطرح شد؛ چگونه می‌توان با «شبه علم» در فضای مجازی مقابله کرد؟

  • آخرین اخبار شفقنا از حوزه فناوری و هوش مصنوعی؛ از افتتاح اولین کارخانه تولید مفاصل رباتیک جهان تا ساخت نخستین ویلای هوشمند با ربات‌ها

نشر مطالب با ذکر نام پایگاه خبری شفقنا بلامانع است. شفقنا مسئولیت مطالب از سایر منابع را عهده دار نمی باشد.


بالا
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی