• فارسی
  • آینده
  • اقتصادی
  • ورزشی
  • زندگی
  • آذربایجان
  • افغانستان
  • اردو
  • العربی
  • العراق
  • لبنان
  • Pakistan
  • India
  • English
  • French
  • Spanish
  • Russian
  • Turkish
  • نیوزمانیتور
شفقنا رسانه | مهم‌ترین اخبار و تحلیل‌های رسانه، ارتباطات و فضای مجازی
رســانـه
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی

یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت ‌شود

توسط hakimi 12:47 | پنجشنبه 16 بهمن، 1404
12:47 | پنجشنبه 16 بهمن، 1404

شفقنا رسانه– امروزه با پیشرفت فناوری دیپ‌فیک، تصاویر و ویدیوهای جعلی فراوانی در شبکه‌های اجتماعی منتشر می‌شوند و تشخیص صحت آن‌ها روزبه‌روز سخت‌تر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ یک دکترای هوش مصنوعی می گوید: دیپ‌فیک ابزاری برای بازنمایی جعلی موضوعات، مفاهیم و رویدادهاست و به همین دلیل می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد. پذیرش این واقعیت که فناوری توان ایجاد تأثیرات غیرواقعی اما اقناع‌کننده را دارد، ضرورت تأمل انتقادی در مواجهه با محتوای بصری را افزایش می‌دهد؛ به‌گونه‌ای که هر تصویر یا ویدئوی مشاهده‌شده باید از منظر اصالت و انطباق با واقعیت مورد ارزیابی قرار گیرد.

گفتگوی شفقنا با سید روح الله میرحسینی مدرس دانشگاه و دکترای هوش مصنوعی را در ادامه بخوانید…

 

دیپ‌فیک ابزاری برای بازنمایی جعلی موضوعات، مفاهیم و رویدادهاست

دیپ‌فیک می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد

در ابتدا بفرمایید که «دیپ‌فیک» به چه معناست و این فناوری در چه زمینه‌ها و با چه کارکردهایی مورد استفاده قرار می‌گیرد؟

کاربرد فناوری «دیپ‌فیک» (جعل عمیق) عمدتاً در حوزه رسانه‌های تصویری، به‌ویژه تصویر و ویدئو، مطرح است. این فناوری مبتنی بر هوش مصنوعی امکان تولید یا دست‌کاری محتوای بصری را به‌گونه‌ای فراهم می‌کند که نتیجه نهایی برای مخاطب واقعی و باورپذیر جلوه کند، در حالی‌که ماهیت آن ساختگی است. محتوای تولیدشده می‌تواند شامل تصویر ثابت یا ویدئوی متحرک باشد و در بسترهای رسانه‌ای مورد استفاده قرار گیرد.

دیپ‌فیک ابزاری برای بازنمایی جعلی موضوعات، مفاهیم و رویدادهاست و به همین دلیل می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد. پذیرش این واقعیت که فناوری توان ایجاد تأثیرات غیرواقعی اما اقناع‌کننده را دارد، ضرورت تأمل انتقادی در مواجهه با محتوای بصری را افزایش می‌دهد؛ به‌گونه‌ای که هر تصویر یا ویدئوی مشاهده‌شده باید از منظر اصالت و انطباق با واقعیت مورد ارزیابی قرار گیرد.

از منظر مسئولیت حرفه‌ای رسانه‌ها، ارتقای حساسیت نسبت به اصالت محتوای تصویری و ترویج رویکرد تردید حرفه‌ای نسبت به تصاویر منتشرشده، یک ضرورت محسوب می‌شود. از آنجا که این فناوری اساساً قابلیت وارونه‌نمایی واقعیت و تحریف معنا را دارد، بی‌توجهی به سازوکارهای تشخیص و راستی‌آزمایی می‌تواند به تضعیف اعتماد عمومی و اختلال در فرایند شکل‌گیری ادراک اجتماعی منجر شود.

 

هوش مصنوعی می‌توانند امکان تمایز محتوای واقعی از جعلی را نیز فراهم می‌سازند

برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت ‌شود

آیا می‌توان گفت وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر کفایت نمی‌کنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟

هر فناوریِ نوظهور، در کنار کارکردهای خود، زمینه شکل‌گیری فناوری‌های مقابله‌ای یا پیشگیرانه را نیز فراهم می‌کند. به بیان دیگر، همان‌گونه که قفل‌کردن خودرو به‌معنای مصونیت کامل از سرقت نیست، اما سازوکارهای حفاظتی را فعال می‌کند، در برابر کاربرد هوش مصنوعی برای دیپ‌فیک، هوش مصنوعی می‌توانند امکان تشخیص و تمایز محتوای واقعی از محتوای جعلی را نیز فراهم می‌سازند.

وقتی این آگاهی وجود داشته باشد که هر تصویر یا ویدئو می‌تواند واقعی یا جعلی باشد، رویکرد تأمل و ارزیابی انتقادی تقویت می‌شود؛ به این معنا که مخاطب در مواجهه با محتوای بصری، اصالت آن را مورد پرسش قرار می‌دهد. از منظر رسانه‌ای نیز، هنگام انتشار تصویر یا ویدئو، به‌منظور جلوگیری از گمراه‌سازی مخاطب و تقویت اعتماد عمومی، می‌توان از فناوری‌های مشابه برای بررسی صحت محتوا استفاده کرد تا مشخص شود تصویر موردنظر واقعی است یا جعلی.

در واقع، رسانه با بهره‌گیری از فناوری‌های نوین، از جمله هوش مصنوعی، می‌تواند این توانایی را در خود ایجاد کند که تأثیرات واقعی را از تأثیرات ساختگی تشخیص دهد. هنگامی که مخاطب به رسانه‌ای اعتماد دارد و آن رسانه در پیشینه حرفه‌ای خود اعتمادسازی کرده است، این اعتماد به محتوای منتشرشده نیز تسری می‌یابد. به این ترتیب، مخاطب می‌تواند با اتکا به اعتبار رسانه، به تصاویر و ویدئوهای بازنشرشده اعتماد کند، زیرا اطمینان دارد که بررسی‌های اولیه برای تشخیص جعلی‌نبودن محتوا انجام شده است.

البته تقویت سواد رسانه‌ای و تفکر انتقادی در میان مخاطبان اهمیت بالایی دارد و مخاطبان نیز باید خود را به این دانش مجهز کنند. آگاهی از این‌که تصویر و ویدئو ممکن است بازتاب کامل واقعیت نباشد، ایجاب می‌کند مخاطب نسبت به رسانه‌هایی که به آن‌ها اعتماد ندارد، با تردید بیشتری برخورد کند و برای راستی‌آزمایی، نحوه بازنمایی همان تصاویر را در رسانه‌های معتبر بررسی کند.

در برخی موارد، در پدیده جعل عمیق ممکن است در خود تصویر دست‌کاری آشکاری صورت نگرفته باشد، بلکه تصویر صرفاً برشی از یک تصویر دیگر باشد که مفهومی متفاوت را القا می‌کند. به بیان دیگر، ممکن است تصویر لزوماً جعلی نباشد، اما گزینش بخشی از آن موجب انتقال معنایی تحریف‌شده شود. از این رو، مخاطب باید سطح تردید، تأمل و آگاهی خود را در مواجهه با تصاویر منتشرشده در رسانه‌های ناشناخته، نامعتبر و شبکه‌های اجتماعی افزایش دهد.

 

برای جلب و حفظ اعتماد مخاطب، رسانه باید با جدیدترین ابزارها و فناوری‌ها آشنا باشد

رسانه‌ها در آینده از چه ابزارها، فناوری‌ها و پروتکل‌های حرفه‌ای برای تشخیص و راستی‌آزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها به‌تنهایی کافی‌اند؟

نه‌تنها رسانه‌ها، بلکه هر موجودیتی در عصر حاضر ناگزیر است به‌طور مستمر خود را به‌روزرسانی کند. هم مخاطب و هم رسانه باید با جدیدترین ابزارها و فناوری‌ها آشنا باشند. از آنجا که ذات رسانه مبتنی بر اطلاع‌رسانی و آگاهی‌بخشی به مخاطب است، ضروری است همواره از به‌روزترین فناوری‌ها بهره بگیرد تا بتواند تصویر واقعی را از تصویر غیرواقعی تشخیص دهد و بدین‌ترتیب اعتماد مخاطب را مخدوش نکند. زیرا اگر حتی یک‌بار خطا رخ دهد و رسانه تصویری را منتشر کند که با واقعیت مطابقت نداشته باشد، بی‌تردید اعتبار آن رسانه آسیب خواهد دید.

در رویدادهایی که امروزه در جهان شاهد آن هستیم، هرگاه عملکرد رسانه با آنچه مردم در واقعیت مشاهده می‌کنند متفاوت باشد، اعتماد مخاطبان به‌طور قطع خدشه‌دار می‌شود. بر این اساس، رسانه باید به پیشرفته‌ترین تجهیزات و فناوری‌های نوین، از جمله هوش مصنوعی، مجهز باشد تا بتواند اعتماد مخاطبان خود را جلب و حفظ کند.

 

نمی‌توان حوزه فنی را خارج از قلمرو وظایف رسانه دانست

رسانه باید زیرساخت‌های فنی لازم برای تشخیص محتوای ویدئویی جعلی از واقعی را ایجاد کند

در مواجهه با دیپ‌فیک، مسئولیت رسانه‌ها بیشتر فنی است یا اخلاقی و تحریریه‌ای؟ مرز این دو کجاست؟

اگرچه ممکن است مسئولیت رسانه در نگاه نخست بیشتر ماهیتی اخلاقی و تحریریه‌ای داشته باشد، اما با توجه به اینکه حتی یک تصویر جعلی می‌تواند بر مخاطب اثرگذار باشد، نمی‌توان حوزه فنی را خارج از قلمرو وظایف رسانه دانست. در این چارچوب می‌توان رسانه‌ها را به دو دسته کلی، شامل رسانه‌های وابسته و رسانه‌های مستقل، تقسیم‌بندی کرد.

رسانه‌ای که در پی حفظ استقلال حرفه‌ای خود است، ناگزیر باید در بُعد فنی نیز خود را تقویت کند و با بهره‌گیری از فناوری‌های نوین، امکان احراز اصالت تصاویر و ویدئوها را فراهم سازد تا بتواند اعتماد مخاطب را حفظ کند.

در مجموع، اگرچه ذات رسانه به‌طور سنتی بر عهده‌دار بودن مستقیم وظایف فنی تعریف نشده است، اما برای ایفای مسئولیت آگاهی‌رسانی و صیانت از اعتماد مخاطب، تقویت زیرساخت‌های فنی امری ضروری است. همان‌گونه که رسانه برای فعالیت خبری و تحریریه‌ای زیرساخت فراهم می‌کند، باید زیرساخت‌های فنی لازم برای تشخیص محتوای تصویری و ویدئویی جعلی از واقعی را نیز ایجاد کند. زیرا ممکن است رسانه‌ای تصویری را جعلی اعلام کند در حالی‌که آن تصویر واقعی باشد؛ در چنین شرایطی رسانه با چالش جدی مواجه شده و اعتبار و مخاطبان خود را از دست خواهد داد.

 

تضعیف اعتبار تصویر، فرایند تصمیم‌گیری را از مسیر صحیح منحرف می کند

دانش برآمده از داده‌های غیرواقعی، به شکست منجر می شود

تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیم‌گیری‌های سیاسی و اجتماعی دارد؟

با گسترش این فناوری که امکان بازنمایی تصاویر غیرواقعی را فراهم می‌کند، اگر به چنین تصاویری اعتماد شود، به‌طور قطع فرایند تصمیم‌گیری نیز از مسیر صحیح منحرف خواهد شد. تأکید بر «هرم دانش» در این زمینه اهمیت می‌یابد؛ هرمی که از داده، اطلاعات، دانش و خرد تشکیل شده است. چنانچه از یک تصویر جعلی به دانشی جعلی برسیم، تصمیم‌گیری حاصل از آن غیرقابل اعتماد و غیرقابل اتکا خواهد بود. از این‌رو، برای دستیابی به حکمرانی بهتر و مطلوب‌تر، همان‌گونه که امروز بر اصل حاکمیت داده تأکید می‌شود، لازم است تصمیم‌گیری‌ها مبتنی بر دانش صورت گیرد؛ دانشی که اگر برآمده از داده‌های غیرواقعی باشد، بی‌تردید به شکست منجر خواهد شد.

هدف، حذف نقش تصویر در فرایند تصمیم‌گیری نیست؛ بلکه در شرایطی که چنین فناوری‌هایی وجود دارند، تصمیم‌گیران و تصمیم‌سازان باید با رویکردی مبتنی بر تردید سازنده وارد این فرایند شوند و تمهیداتی بیندیشند تا از داده صحیح به دانش معتبر دست یابند و از آن دانش برای تصمیم‌گیری خردمندانه استفاده کنند.

فارغ از اهمیت ارتقای سوادهای رسانه‌ای در جامعه، خود رسانه‌ها نیز باید این رسالت‌ها را به‌درستی ایفا کنند تا اعتمادسازی تحقق یابد. به‌گونه‌ای که مخاطب، هنگام مواجهه با تصاویر متناقض، بتواند به رسانه‌ای که به آن اعتماد دارد رجوع کند و دریابد که بازنمایی واقعیت به چه صورت است.

 

جامعه نخبگانی و کارشناسان هوش مصنوعی باید در کنار رسانه‌ها قرار گیرند

به‌نظر شما تهدید اصلی دیپ‌فیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو به‌عنوان شواهد واقعی؟

دیپ‌فیک در بسیاری از موارد با اهداف مخرب، چه در عرصه سیاست و چه در حوزه رسانه، به کار گرفته می‌شود. در تعریف کلی هوش مصنوعی، می‌توان هوش مصنوعی را «شتاب‌دهنده» تلقی نمود؛ به این معنا که اهداف مثبت را در جهت سازنده و اهداف منفی را در جهت مخرب تقویت می‌کند. در نتیجه، هنگامی که این فناوری در اختیار افرادی با نیت‌های نادرست قرار گیرد، آنان نیز آن را در راستای سیاست‌ها و اهداف فکری خود توسعه داده و به کار می‌گیرند. بر این اساس، رسانه‌ای که در پی فریب مخاطب باشد، ممکن است از دیپ‌فیک برای انحراف ذهنی مخاطبان خود استفاده کند.

در پایان باید تأکید کرد که جامعه نخبگانی و کارشناسان این حوزه باید در کنار رسانه‌ها قرار گیرند. لازم است آگاهی‌رسانی گسترده‌ای صورت گیرد مبنی بر اینکه تصاویر و ویدئوهایی که امروز مشاهده می‌شوند لزوماً ممکن است بازتاب کامل واقعیت نباشند. چنین آگاهی‌ای کمک می‌کند افراد، چه در جایگاه شهروند و چه در مقام تصمیم‌گیر و حکمران، تصمیمات خود را با دقت و درستی بیشتری اتخاذ کنند.

 

اخلاق رسانهاعتماد عمومیامنیت اطلاعاتجعل عمیقحقیقت‌سنجی رسانه‌ایدستکاری تصویر و ویدئودیپ‌فیکراستی‌آزمایی محتواسواد رسانه‌ایهوش مصنوعی
0 FacebookTwitterLinkedinWhatsappTelegramEmail
خبر قبلی
بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک همکاری می‌کند
خبر بعدی
تولیدکنندگان رایانه‌های شخصی مشتری تراشه‌های چین شدند

خبرهای پیشنهادی

یک مدرس ارتباطات: جامعه ایران به رژیم خبری...

10:23 | دوشنبه 20 بهمن، 1404

مدیرعامل واشنگتن پست پس از تعدیل گسترده نیرو...

13:11 | یکشنبه 19 بهمن، 1404

ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی...

18:49 | جمعه 17 بهمن، 1404

سوژه های منتخب هفته/ راهکار نجات اقتصاد، بازار...

18:46 | جمعه 17 بهمن، 1404

بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک...

12:37 | پنجشنبه 16 بهمن، 1404

هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی...

19:03 | چهارشنبه 15 بهمن، 1404

ایلان ماسک، نخست وزیر اسپانیا را به دلیل...

14:48 | چهارشنبه 15 بهمن، 1404

آخرین اخبار شفقنا از حوزه فناوری و هوش...

15:15 | دوشنبه 13 بهمن، 1404

ضیایی پرور: ارزش‌گذاری اخلاقی دیپ فیک به نوع...

10:08 | یکشنبه 12 بهمن، 1404

آخرین اخبار

  • یک مدرس ارتباطات: جامعه ایران به رژیم خبری آگاهانه نیاز دارد/ مصرف بی‌وقفه خبر، جامعه را به فرسودگی روانی می‌کشاند/مسئله امروز جامعه ایران «خبر بد» نیست، شیوه مصرف خبر است

  • آیا اروپا می‌تواند کودکان را از شبکه‌های اجتماعی دور کند؟

  • ویترین روزنامه ها/ بررسی کارشناسانه «اعتماد» درباره دلایل رویکرد محتاطانه ایران و آمریکا در مذاکرات/ اشاره «دنیای اقتصاد» به سه مانع رشد ۱۴۰۴

  • وقتی چت‌بات‌ها در تشخیص از پزشکان پیشی می‌گیرند

  • رونمایی از رایانه هرمی‌شکل جدید چین

  • مدیرعامل واشنگتن پست پس از تعدیل گسترده نیرو استعفا داد

  • مخالفت نیویورک با مراکز داده جدید

  • ویترین روزنامه ها/ اشاره «شرق» به بی اعتمادی دلار به اخبار مذاکرات و برگشت دلارهای بلوکه شده/ هشدار «پیام ما» نسبت به کم آبی شدید سدهای تامین کننده آب تهران

  • بدرالسادات مفیدی: هنوز حیطه روزنامه‌نگاری مکتوب، اصالت و ارزش دارد/دوم خرداد ۱۳۷۶ دوره طلایی تاریخ معاصر بعد از انقلاب اسلامی بود

  • عضو کمیسیون اجتماعی: رسانه‌ها در زمان محدودیت اینترنت مستثنی شوند

  • رد شایعات درباره ساخت «موبایل استارلینک» از سوی ایلان ماسک

  • گفت‌وگوی کاربران «کارپلی» با چت‌بات‌های هوش مصنوعی امکان‌پذیر می‌شود

  • اتحادیه اروپا: تیک تاک با طراحی اعتیاد آور خود قانون سرویس های دیجیتال منطقه را نقض کرده است

  • ویترین روزنامه ها/ مذاکرات مسقط در قاب روزنامه ها/گزارش میدانی «شرق» از محل آتش‌سوزی بازارچه جنت‌آباد تهران

  • ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی می‌کند

  • سوژه های منتخب هفته/ راهکار نجات اقتصاد، بازار سیاه «VPN‌»فروشی، بحران تالاب‌ها، ایرانِ پریشان و تأثیر جراحی اقتصادی دولت‌ها بر سفره خانوار

  • حالت خاموش کردن و وضعیت خواب چه تاثیری بر عملکر لپ‌تاپ دارد؟

  • سایت استخدام انسان توسط هوش مصنوعی، راه اندازی شد

  • تولیدکنندگان رایانه‌های شخصی مشتری تراشه‌های چین شدند

  • یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت ‌شود

  • بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک همکاری می‌کند

  • اظهارات جدید درباره آخرین وضعیت اینترنت و اختلال‌های فعلی

  • هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی تولید می‌کند

  • پاول دوروف: فرانسه شبکه‌های اجتماعی را که به مردم درجه‌ای از آزادی می‌دهند، اذیت می کند

  • پلتفرم هوش مصنوعی صنعتی انویدیا در راه است

پربازدیدترین ها

  • رونمایی از گوشی های Tribute 2 و Volt 2 ال جی

  • چند راه حل ساده برای کاهش مصرف حجم اینترنت در گوشی های اندروید

  • بازداشت ۱۴ خبرنگار در ونزوئلا/ اخراج یک خبرنگار خارجی

  • ویترین روزنامه ها/ بررسی کارشناسانه «شرق» درباره پارامترهای سیاسی و اقتصادی حوادث اخیر/ اشاره «دنیای اقتصاد» به دلایل افزایش قیمت طلای جهانی

  • چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیک‌ها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد

  • چراغ خاموش اقتصاد دیجیتال؛ از اینترنت صفی تا رومینگ در مرز

  • استرالیا ویزای اینفلوئنسر اسرائیلی را به خاطر توهین به اسلام باطل کرد

  • چرا سرما گوشی‌تان را خاموش می‌کند؟

  • اسرار دستگاه‌‌های الکترونیکی به‌جا مانده از گروه‌های شبه‌نظامی فاش شد

  • عکس های منتخب/ طبیعت پاییزی گیلان از دریچه دوربین «سید جواد میرحسینی»

  • مهاجرانی خبر داد؛ بسته های جبرانی معاونت علمی برای حمایت از کسب و کارهای اینترنت پایه

  • معاون آموزش انجمن سواد رسانه‌ای ایران: دیپ‌فیک علاوه بر یک فناوری، چالشی شناختی و رسانه‌ای است/ جامعه‌ای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیب‌پذیر است

  • «مایکروسافت» از تراشه جدید خود رونمایی کرد

  • بنیانگذار تلگرام: فقط «کودن‌ها» باور دارند واتس‌اپ امن است

  • مهاجری:«مشکلات اقتصادی کشور ریشه اصلی اعتراضات را شکل می دهد/ این مشکلات راه‌حل اقتصادی ندارند/ حل این مشکلات راه‌حل‌های سیاسی و دیپلماتیک دارند»

  • تصمیم دولت ترامپ برای استفاده از هوش مصنوعی در نوشتن قوانین فدرال

  • تشخیص افسردگی با استفاده از واتس‌اپ!

  • کتاب فلسفه ارتباطات بررسی می شود

  • قانونگذاران فرانسوی طرحی را برای ممنوعیت رسانه‌های اجتماعی برای افراد زیر ۱۵ سال تصویب کردند

  • در اتاق گفتگوی شفقنا مطرح شد؛ دکتر اجاق: شبکه‌های اجتماعی در حوزه سلامت ظرفیت و خطر را هم‌زمان دارند/ آگاهی سلامت بدون سواد رسانه‌ای امکان‌پذیر نیست/ اعتماد به متخصصان در ایران نیازمند ترمیم نهادی و ارتقای سواد عمومی سلامت و رسانه‌ای است

  • در اتاق گفتگوی شفقنا مطرح شد؛ نوروزی: شرایط الان کشور به گونه‌ای نیست که فعلاً بازنگری در قانون مطبوعات را بطلبد/ به‌طور مطلق باید حق توقیف یا لغو پروانه رسانه‌ها از نظام حقوقی ایران حذف شود/ جرم مطبوعاتی یک جرم غیرعمد است/ پوربابایی: الفاظ و عبارت به کار برده شده در قانون مطبوعات کشدار و مبهم هستند/جرم‌انگاری روزنامه نگاران باید محدود شود/توقیف ناگهانی مطبوعات ظلمی آشکار است

  • ویدئو/ رییس سازمان صدا و سیما در گفت و گو با شفقنا: سختگیری ساترا در صدور مجوز تولید افزایش یافته است/ ضوابط تولید نمایش خانگی به‌روزرسانی می‌شود

  • عکاس فلسطینی در غزه، برنده جایزه ریاست‌جمهوری ترکیه شد + تصاویر

  • در اتاق گفتگوی شفقنا مطرح شد؛ چگونه می‌توان با «شبه علم» در فضای مجازی مقابله کرد؟

  • آخرین اخبار شفقنا از حوزه فناوری و هوش مصنوعی؛ از افتتاح اولین کارخانه تولید مفاصل رباتیک جهان تا ساخت نخستین ویلای هوشمند با ربات‌ها

نشر مطالب با ذکر نام پایگاه خبری شفقنا بلامانع است. شفقنا مسئولیت مطالب از سایر منابع را عهده دار نمی باشد.


بالا
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی