• فارسی
  • آینده
  • اقتصادی
  • ورزشی
  • زندگی
  • آذربایجان
  • افغانستان
  • اردو
  • العربی
  • العراق
  • لبنان
  • Pakistan
  • India
  • English
  • French
  • Spanish
  • Russian
  • Turkish
  • نیوزمانیتور
شفقنا رسانه | مهم‌ترین اخبار و تحلیل‌های رسانه، ارتباطات و فضای مجازی
رســانـه
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی

ضیایی پرور: ارزش‌گذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد/وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر برای تشخیص واقعیت کفایت نمی‌کند

توسط hakimi 10:08 | یکشنبه 12 بهمن، 1404
10:08 | یکشنبه 12 بهمن، 1404

شفقنا رسانه- امروزه با پیشرفت فناوری دیپ‌فیک، تصاویر و ویدیوهای جعلی فراوانی در شبکه‌های اجتماعی منتشر می‌شوند و تشخیص صحت آن‌ها روزبه‌روز سخت‌تر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ دکتر حمید رضا ضیایی پرور در این باره می گوید:  دیپ‌فیک ذاتاً فناوری‌ای خنثی است و ارزش‌گذاری اخلاقی آن به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد. این فناوری ابزاری برای تولید و انتقال پیام است؛ پیامی که می‌تواند در خدمت دانش، آگاهی و خلاقیت قرار گیرد یا برعکس، به ابزار فریب، کلاهبرداری و نقض حقوق افراد تبدیل شود.

 

گفتگوی شفقنا رسانه با دکتر حمید رضا ضیایی پرور، پژوهشگر حوزه سواد رسانه ای و هوش مصنوعی را در ادامه بخوانید…

 

دیپ فیک می تواند کارکردهای مثبت یا منفی داشته باشد

ارزش‌گذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد

در ابتدا بفرمایید که «دیپ‌فیک» به چه معناست و این فناوری در چه زمینه‌ها و با چه کارکردهایی مورد استفاده قرار می‌گیرد؟

دیپ‌فیک (Deepfake) یا «جعل عمیق»، اصطلاحی است که از ترکیب مفاهیم «یادگیری عمیق»(Deep Learning)  و «جعل» (Fake) شکل گرفته است. یادگیری عمیق شاخه‌ای از هوش مصنوعی است که امکان تولید محتوای بسیار واقع‌گرایانه – شامل تصویر، صدا و ویدئو – را فراهم می‌کند. این فناوری می‌تواند چهره انسان، اشیا یا موجودات را به‌گونه‌ای بازسازی یا شبیه‌سازی کند که از نظر بصری و شنیداری به نمونه واقعی شباهت زیادی داشته باشند. هنگامی که این محتوای تولیدشده مابه‌ازای واقعی در جهان خارج نداشته باشد، در چارچوب مفهومی «دیپ‌فیک» یا «جعل عمیق» قرار می‌گیرد.

البته پیش از گسترش این فناوری نیز نمونه‌هایی از بازنمایی‌های غیرواقعی اما واقع‌گرایانه در قالب جلوه‌های ویژه سینمایی وجود داشته است؛ با این تفاوت که دیپ‌فیک بر پایه الگوریتم‌های هوش مصنوعی و به‌صورت خودکار یا نیمه‌خودکار تولید می‌شود. این فناوری در حوزه‌هایی مانند آموزش، رسانه، سینما، فرهنگ و تولیدات رادیو و تلویزیونی کاربردهای گسترده‌ای دارد و می‌تواند کارکردهای مثبت یا منفی داشته باشد.

برای نمونه، اگر فردی تصویر و صدای خود را با استفاده از فناوری یادگیری عمیق بازتولید کند و از آن برای آموزش دانشگاهی، تولید محتوای علمی یا فعالیت حرفه‌ای در بسترهای دیجیتال استفاده کند، این کاربرد در چارچوب استفاده مثبت قرار می‌گیرد. همچنین بازسازی تصویر و صدای شخصیت‌های تاریخی یا درگذشته برای اهداف فرهنگی، آموزشی یا هنری – با رعایت ملاحظات اخلاقی و حقوقی – می‌تواند کارکردی مثبت تلقی شود.

در مقابل، اگر این فناوری با هدف فریب مخاطب، انتشار اطلاعات نادرست یا سوءاستفاده مالی و اجتماعی به کار رود، مصداق استفاده منفی خواهد بود. بسیاری از تعاریف بین‌المللی مرتبط با «اخبار جعلی» و سواد رسانه‌ای، از جمله دیدگاه‌های نهادهای آموزشی و پژوهشگران این حوزه، بر «نیت فریب» و «قصد گمراه‌سازی» به‌عنوان معیار اصلی تمایز میان استفاده مشروع و نامشروع از چنین فناوری‌هایی تأکید دارند.

بنابراین، دیپ‌فیک ذاتاً فناوری‌ای خنثی است و ارزش‌گذاری اخلاقی آن به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد. این فناوری ابزاری برای تولید و انتقال پیام است؛ پیامی که می‌تواند در خدمت دانش، آگاهی و خلاقیت قرار گیرد یا برعکس، به ابزار فریب، کلاهبرداری و نقض حقوق افراد تبدیل شود.

برای مثال، بهره‌گیری از بازسازی هوشمند تصویر و صدا در آموزش شیوه تعمیر یا نگهداری وسایل، کاربردی آموزشی و پذیرفتنی محسوب می‌شود. اما بازتولید تصویر یا صدای اشخاص حقیقی -از جمله چهره‌های شناخته‌شده یا شهروندان عادی – با هدف جعل هویت، فریب مخاطب یا دستیابی به منافع غیرقانونی، مصداق روشن استفاده مخرب از این فناوری است.

در نتیجه، مثبت یا منفی بودن دیپ‌فیک نه به ماهیت فناوری، بلکه به شیوه بهره‌برداری و نیت استفاده‌کننده وابسته است.

 

در عصر هوش مصنوعی مولد، توانایی تشخیص و تحلیل اصالت محتوا به یک ضرورت اساسی تبدیل شده است

گسترش دیپ‌فیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را به‌عنوان سند قابل اتکا تضعیف کرده است؟

با گسترش فناوری‌های «هوش مصنوعی مولد» در پنج سال گذشته، به‌ویژه از سال ۲۰۲۱ به بعد، امکان تولید محتوای جعلیِ بسیار واقع‌گرایانه ــ شامل متن، صدا، عکس، تصویر و ویدئو ــ توسط این فناوری‌ها فراهم شده است. این روند به‌تدریج تولید چنین محتواهایی را از سطحی تخصصی به مهارتی نسبتاً عمومی تبدیل کرده، به‌گونه‌ای که حتی کاربران عادی نیز می‌توانند به آن دسترسی داشته باشند. در چنین شرایطی، مفهومی که پیش‌تر با عنوان «سواد رسانه‌ای» و سپس «سواد فضای مجازی» شناخته می‌شد، اکنون به سطح تازه‌ای با عنوان «سواد هوش مصنوعی» رسیده است.

سواد هوش مصنوعی به این معناست که مخاطب هنگام مشاهده محتوا، به امکان تولید آن توسط هوش مصنوعی توجه داشته باشد. برای نمونه، اخباری منتشر شد مبنی بر اینکه پاکستان جنگنده‌هایی در اختیار ایران قرار داده است. هم‌زمان ویدئوهایی نیز منتشر شد که در آن‌ها جنگنده‌ها سوار بر تریلی از مسیرهای کوهستانی وارد ایران می‌شوند. سواد هوش مصنوعی ایجاب می‌کند مخاطب نسبت به چنین تصاویری پرسش انتقادی مطرح کند؛ از جمله اینکه جنگنده‌ای که برای پرواز طراحی شده، چرا باید به این شیوه جابه‌جا شود. این نوع پرسشگری دقیقاً ناظر بر کارکرد سواد هوش مصنوعی است.

همچنین اگر تصویری از یک سلبریتی، ورزشکار یا سیاستمدار منتشر شود که در آن سخنی بیان کرده است، لازم است مخاطب به‌دنبال نشانه‌های احتمالی دیپ‌فیک باشد. از آنجا که هنوز مدت زیادی از فراگیر شدن این فناوری نگذشته، در بسیاری از موارد نشانه‌های تولید مصنوعی قابل تشخیص است. بر اساس تجربه حرفه‌ای در این حوزه، تشخیص برخی ویدئوهای تولیدشده با هوش مصنوعی ــ چه در اینستاگرام، تلگرام یا سایر رسانه‌ها ــ با مشاهده دقیق ممکن است؛ همان‌گونه که یک پزشک با نگاه به چهره بیمار می‌تواند به نشانه‌هایی از وضعیت او پی ببرد. این یک تشبیه برای توضیح توانایی تشخیص نشانه‌هاست. در رسانه‌های ماهواره‌ای و تبلیغات تصویری نیز می‌توان با دقت به سرنخ‌ها، به مصنوعی بودن برخی تولیدات پی برد.

این مهارت‌ها باید در قالب «سواد هوش مصنوعی» به جامعه آموزش داده شود. با پیشرفت فناوری، روش‌های تولید محتوا پیچیده‌تر و در نتیجه تشخیص آن‌ها دشوارتر خواهد شد. برای مثال، در ماجرای مربوط به حمله موشکی اسرائیل به میدان تجریش مدتی بحث بود که آیا ویدئوها واقعی‌اند یا با هوش مصنوعی تولید شده‌اند. همچنین درباره ویدئوی پینگ‌پنگ بازی کردن سیدمحمد خاتمی نیز برای مدتی بحث‌هایی درباره واقعی یا جعلی بودن آن مطرح شد، زیرا هم‌زمان ویدئوهای دیگری منتشر شده بود که او را در حال شطرنج یا دارت بازی کردن نشان می‌داد و این موارد در زمره تولیدات دیپ‌فیک قرار می‌گرفت. با این حال، ویدئوی اولیه پینگ‌پنگ به دلایل متعدد نشانه‌هایی داشت که واقعی بودن آن را نشان می‌داد و از همان ابتدا می‌شد این موضوع را تشخیص داد. این دقیقاً مصداق سواد هوش مصنوعی است.

بنابراین، مباحثی مانند سواد بصری، تغییر ذائقه مخاطبان و شیوه مواجهه مردم با محتوای فضای مجازی باید متناسب با رشد این فناوری‌ها ارتقا یابد. در عصر هوش مصنوعی مولد، توانایی تشخیص و تحلیل اصالت محتوا به یک ضرورت اساسی تبدیل شده است.

 

وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر برای تشخیص واقعیت کفایت نمی‌کند

آیا می‌توان گفت وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر کفایت نمی‌کنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟

ما وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر برای تشخیص واقعیت کفایت نمی‌کند. مسئله صرفاً به فایل‌های صوتی محدود نیست، بلکه تصاویر و ویدئوها نیز می‌توانند با فناوری دیپ‌فیک تولید شوند. امروزه حتی صدا نیز قابلیت «کلون‌سازی» دارد؛ به این معنا که اگر سامانه‌های هوش مصنوعی مانند فناوری‌های موسوم به Voice AI  نمونه‌ای از صدای یک فرد در اختیار داشته باشند، می‌توانند آن صدا را بازتولید کنند.

این فناوری می‌تواند کاربردهای مثبت نیز داشته باشد. برای مثال، صدای یک فرد درگذشته می‌تواند بازسازی شود؛ به‌گونه‌ای که یک فرزند شهید صدای پدر شهید خود را بشنود یا با بازسازی آن ارتباط عاطفی برقرار کند. همچنین مشاهده شده است که در برخی مراسم، قرائت قرآن به‌صورت بازتولیدشده با صدای یک شهید ارائه می‌شود؛ به این شکل که صدای فرد با حفظ ویژگی‌های صوتی او و در قالب سبک تلاوت یک قاری شناخته‌شده، برای خواندن آیات انتخاب می‌شود. این موارد نشان می‌دهد که فناوری یادشده می‌تواند کارکردهای مثبت، ارزشی و ایدئولوژیک نیز داشته باشد.

با این حال، همین فناوری در موقعیت‌های دیگر می‌تواند جنبه‌های منفی نیز پیدا کند و در صورت استفاده نادرست، زمینه‌ساز فریب یا سوءاستفاده شود.

 

در آینده، فرایند «دروازه‌بانی» محتوا، خبر و اطلاعات به‌طور فزاینده‌ای پیچیده می شود

ضرورت آشنایی با ابزارهای جدید فکت‌چکینگ و به روزرسانی سازوکارهای راستی‌آزمایی اطلاعات

کسانی که به فناوری‌های راستی آزمایی مسلط هستند، قادر به شناسایی محتوای جعلی اند

رسانه‌ها در آینده از چه ابزارها، فناوری‌ها و پروتکل‌های حرفه‌ای برای تشخیص و راستی‌آزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها به‌تنهایی کافی‌اند؟

در حوزه آینده رسانه‌ها، فرایند «دروازه‌بانی» محتوا، خبر و اطلاعات به‌طور فزاینده‌ای پیچیده می شود. در این شرایط، رسانه‌ها نه تنها باید با ابزارهای جدید فکت‌چکینگ آشنا باشند، بلکه لازم است سازوکارهای راستی‌آزمایی اطلاعات خود را متناسب با فناوری‌های نوین به‌روز کنند. رسانه‌هایی در این حوزه موفق‌تر هستند که نحوه کار و کاربرد این فناوری‌ها را به‌طور کامل درک کرده باشند، زیرا عدم آگاهی نسبت به عملکرد یک فناوری باعث می‌شود نتوان تولیدات آن را به درستی تشخیص داد و تمایز میان محتواهای واقعی و جعلی ممکن نشود. برعکس، کسانی که با این فناوری‌ها مسلط هستند، قادر خواهند بود محتوای جعلی را شناسایی کنند.

از این رو، فرایند دروازه‌بانی خبر در رسانه‌ها تخصصی‌تر شده و تشخیص راست از دروغ دشوارتر می‌شود. رسانه‌ها در سطح جهانی به پروتکل‌های جدیدی نیاز دارند که هم شیوه استفاده از هوش مصنوعی در تولید محتوا و هم روش‌های فکت‌چکینگ را پوشش دهد. جالب است بدانید که فدراسیون بین‌المللی روزنامه‌نگاران و انجمن مطبوعات پاریس دو منشور در این زمینه منتشر کرده‌اند که می‌تواند به‌عنوان مبنای راهنمایی برای نهادهای مدنی و رسانه‌ای در سطح جهان مورد استفاده قرار گیرد و به شکل توصیه، چارچوب عملیاتی برای رسانه‌ها ارائه دهد.

در ایران، رگولاتور اصلی این حوزه به‌طور طبیعی وزارت فرهنگ و ارشاد اسلامی و سازمان صدا و سیما هستند و این دو نهاد می‌توانند در فرآیند به‌روزرسانی روش‌ها و پروتکل‌های رسانه‌ای ورود کنند. با این حال، بر اساس شناخت موجود از عملکرد این دو مجموعه، تاکنون این فرایندها به طور جدی در آنها اجرا نشده است. با توجه به پیچیدگی‌های ناشی از فناوری‌های نوین، این امر جزو نیازهای ضروری و فوری رسانه‌ها محسوب می‌شود.

 

مسئولیت رسانه‌ها در مواجهه با دیپ فیک فنی و اخلاقی است

فقدان دانش کافی، توانایی تشخیص محتوای واقعی از جعلی را کاهش می دهد

دیپ‌فیک می‌تواند در حوزه‌های فرهنگی و هنری نیز کاربرد داشته باشد

در مواجهه با دیپ‌فیک، مسئولیت رسانه‌ها بیشتر فنی است یا اخلاقی و تحریریه‌ای؟ مرز این دو کجاست؟

مسئولیت رسانه‌ها در مواجهه با دیپ فیک هم از نظر فنی و هم از نظر اخلاقی و تحریریه‌ای است. در صورتی که دانش فنی کافی نداشته باشند، توانایی تشخیص محتوای واقعی از جعلی کاهش می‌یابد و مناقشات درباره صحت یا جعلی بودن اطلاعات شکل می‌گیرد. از سوی دیگر، اگر رسانه‌ها رسالت آگاهی‌بخشی خود را نادیده بگیرند، عملکردشان دچار مشکل خواهد شد. به بیان دیگر، بینش و دانش فنی باید همزمان با یکدیگر در رسانه‌ها حضور داشته باشند.

در عین حال، رسانه‌ها می‌توانند از فناوری دیپ‌فیک به شیوه‌های مثبت بهره‌برداری کنند. برای مثال، یک رسانه تصویری می‌تواند از دیپ‌فیک برای ارتقای فرآیندهای آموزشی، پیشگیری، اطلاع‌رسانی، افزایش دانش یا ارتقای مهارت استفاده کند. همچنین، در مواقعی که محتوا به زبان‌های دیگر تولید شده است، دیپ‌فیک امکان ترجمه و بازتولید سخن را فراهم می‌کند؛ به‌گونه‌ای که چهره فرد با صدای ترجمه‌شده هماهنگ شود و برای اهداف آموزشی مورد استفاده قرار گیرد. این نوع کاربردها از نظر رسانه‌ای و اخلاقی مشکلی ندارد و با گذر زمان، رسانه‌ها به تدریج از چنین فناوری‌هایی بهره‌مند خواهند شد.

علاوه بر این، دیپ‌فیک می‌تواند در حوزه‌های فرهنگی و هنری نیز کاربرد داشته باشد. به عنوان مثال، می‌توان اساطیر را بازسازی و احیا کرد، یا صدای یک شاعر بزرگ را بازتولید کرد تا شعرهای خود را به سبک‌های جدید اجرا کند. چنین ابتکاراتی به‌ویژه برای نسل‌های جوان مانند نسل‌های Z، آلفا و بتا جذابیت دارد و رسانه‌ها برای حفظ ارتباط با مخاطبان جوان باید محتوای خود را متناسب با ذائقه آن‌ها تولید و به‌روزرسانی کنند. در غیر این صورت، مخاطبان به‌تدریج از رسانه فاصله خواهند گرفت.

در جمع‌بندی، می‌توان گفت که رسانه‌ها باید پروتکل‌های جامعی برای نحوه استفاده از هوش مصنوعی تدوین کنند، که فناوری دیپ‌فیک نیز به‌عنوان بخشی از آن لحاظ شود، و این پروتکل‌ها باید به‌طور رسمی در فرآیند تولید محتوا مدنظر قرار گیرند.

 

حفظ و ارتقای اعتبار رسانه‌ها مستلزم ارتقای سواد هوش مصنوعی نزد مخاطبان است

تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیم‌گیری‌های سیاسی و اجتماعی دارد؟

من معتقدم که اعتبار تصویر تضعیف نمی‌شود. هرچند در فضای مجازی گسترش دیپ‌فیک‌ها ممکن است به‌ظاهر موجب کاهش اعتبار تصویر یا رسانه شود، اما این وضعیت نمایانگر واقعیت جامعه نیست. حفظ و ارتقای اعتبار رسانه‌ها مستلزم ارتقای سواد هوش مصنوعی نزد مخاطبان است.

برای نمونه، امروزه بسیاری از رسانه‌های معتبر مانند نیویورک تایمز در اتاق‌های تصمیم‌گیری دولت‌ها و مراکز سیاست‌گذاری کشورها مورد استناد قرار می‌گیرند. تصمیم‌گیری‌های سیاسی و دیپلماتیک اغلب بر اساس محتوای منتشرشده در رسانه‌هایی مانند سی‌ان‌ان، نیویورک تایمز یا گاردین انجام می‌شود. به این معنا، مخاطبان رسانه تنها مردم عادی نیستند؛ سیاستمداران، مسئولان و تصمیم‌سازان نیز بخشی از این مخاطبان هستند.

بنابراین، اگر فناوری‌های نوین به‌ویژه دیپ‌فیک‌ها به‌طور صحیح و مسؤولانه مورد استفاده قرار گیرند، نه تنها اعتبار رسانه کاهش نمی‌یابد، بلکه می‌تواند موجب افزایش ضریب نفوذ و اثرگذاری آن‌ها نیز شود.

 

آموزش رسانه‌ایاعتماد به تصویرجعل عمیقدیپ‌فیکرسانه‌های دیجیتالسواد رسانه‌ایسواد هوش مصنوعیفکت‌چکینگمحتوای جعلیهوش مصنوعی مولد
0 FacebookTwitterLinkedinWhatsappTelegramEmail
خبر قبلی
ویترین روزنامه ها/ راهکار «اعتماد» برای عبور از بحران برای مقابله با دشمن/ گزارش میدانی «شرق» از فروش فیلترشکن در روزهای اینترنت قطره‌چکانی
خبر بعدی
اختلال در اینترنت بین‌الملل کشور

خبرهای پیشنهادی

یک مدرس ارتباطات: جامعه ایران به رژیم خبری...

10:23 | دوشنبه 20 بهمن، 1404

ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی...

18:49 | جمعه 17 بهمن، 1404

یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی،...

12:47 | پنجشنبه 16 بهمن، 1404

بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک...

12:37 | پنجشنبه 16 بهمن، 1404

هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی...

19:03 | چهارشنبه 15 بهمن، 1404

ایلان ماسک، نخست وزیر اسپانیا را به دلیل...

14:48 | چهارشنبه 15 بهمن، 1404

یک پژوهشگر حوزه کودک و رسانه: نظام آموزشی و رسانه‌های کودک‌محور،...

15:20 | سه شنبه 14 بهمن، 1404

آخرین اخبار شفقنا از حوزه فناوری و هوش...

15:15 | دوشنبه 13 بهمن، 1404

بلومبرگ: آمریکا در حال بررسی ادعاهایی مبنی بر...

12:16 | شنبه 11 بهمن، 1404

آخرین اخبار

  • یک مدرس ارتباطات: جامعه ایران به رژیم خبری آگاهانه نیاز دارد/ مصرف بی‌وقفه خبر، جامعه را به فرسودگی روانی می‌کشاند/مسئله امروز جامعه ایران «خبر بد» نیست، شیوه مصرف خبر است

  • آیا اروپا می‌تواند کودکان را از شبکه‌های اجتماعی دور کند؟

  • ویترین روزنامه ها/ بررسی کارشناسانه «اعتماد» درباره دلایل رویکرد محتاطانه ایران و آمریکا در مذاکرات/ اشاره «دنیای اقتصاد» به سه مانع رشد ۱۴۰۴

  • وقتی چت‌بات‌ها در تشخیص از پزشکان پیشی می‌گیرند

  • رونمایی از رایانه هرمی‌شکل جدید چین

  • مدیرعامل واشنگتن پست پس از تعدیل گسترده نیرو استعفا داد

  • مخالفت نیویورک با مراکز داده جدید

  • ویترین روزنامه ها/ اشاره «شرق» به بی اعتمادی دلار به اخبار مذاکرات و برگشت دلارهای بلوکه شده/ هشدار «پیام ما» نسبت به کم آبی شدید سدهای تامین کننده آب تهران

  • بدرالسادات مفیدی: هنوز حیطه روزنامه‌نگاری مکتوب، اصالت و ارزش دارد/دوم خرداد ۱۳۷۶ دوره طلایی تاریخ معاصر بعد از انقلاب اسلامی بود

  • عضو کمیسیون اجتماعی: رسانه‌ها در زمان محدودیت اینترنت مستثنی شوند

  • رد شایعات درباره ساخت «موبایل استارلینک» از سوی ایلان ماسک

  • گفت‌وگوی کاربران «کارپلی» با چت‌بات‌های هوش مصنوعی امکان‌پذیر می‌شود

  • اتحادیه اروپا: تیک تاک با طراحی اعتیاد آور خود قانون سرویس های دیجیتال منطقه را نقض کرده است

  • ویترین روزنامه ها/ مذاکرات مسقط در قاب روزنامه ها/گزارش میدانی «شرق» از محل آتش‌سوزی بازارچه جنت‌آباد تهران

  • ترکیه ممنوعیت شبکه‌های اجتماعی را برای کودکان بررسی می‌کند

  • سوژه های منتخب هفته/ راهکار نجات اقتصاد، بازار سیاه «VPN‌»فروشی، بحران تالاب‌ها، ایرانِ پریشان و تأثیر جراحی اقتصادی دولت‌ها بر سفره خانوار

  • حالت خاموش کردن و وضعیت خواب چه تاثیری بر عملکر لپ‌تاپ دارد؟

  • سایت استخدام انسان توسط هوش مصنوعی، راه اندازی شد

  • تولیدکنندگان رایانه‌های شخصی مشتری تراشه‌های چین شدند

  • یک دکترای هوش مصنوعی: دیپ‌فیک می‌تواند پیامدهای اجتماعی، سیاسی و رسانه‌ای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت ‌شود

  • بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپ‌فیک همکاری می‌کند

  • اظهارات جدید درباره آخرین وضعیت اینترنت و اختلال‌های فعلی

  • هوش مصنوعی گروکِ ایلان ماسک همچنان تصاویر جنسی تولید می‌کند

  • پاول دوروف: فرانسه شبکه‌های اجتماعی را که به مردم درجه‌ای از آزادی می‌دهند، اذیت می کند

  • پلتفرم هوش مصنوعی صنعتی انویدیا در راه است

پربازدیدترین ها

  • رونمایی از گوشی های Tribute 2 و Volt 2 ال جی

  • چند راه حل ساده برای کاهش مصرف حجم اینترنت در گوشی های اندروید

  • ویترین روزنامه ها/ بررسی کارشناسانه «شرق» درباره پارامترهای سیاسی و اقتصادی حوادث اخیر/ اشاره «دنیای اقتصاد» به دلایل افزایش قیمت طلای جهانی

  • بازداشت ۱۴ خبرنگار در ونزوئلا/ اخراج یک خبرنگار خارجی

  • چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیک‌ها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد

  • چراغ خاموش اقتصاد دیجیتال؛ از اینترنت صفی تا رومینگ در مرز

  • چرا سرما گوشی‌تان را خاموش می‌کند؟

  • استرالیا ویزای اینفلوئنسر اسرائیلی را به خاطر توهین به اسلام باطل کرد

  • اسرار دستگاه‌‌های الکترونیکی به‌جا مانده از گروه‌های شبه‌نظامی فاش شد

  • عکس های منتخب/ طبیعت پاییزی گیلان از دریچه دوربین «سید جواد میرحسینی»

  • معاون آموزش انجمن سواد رسانه‌ای ایران: دیپ‌فیک علاوه بر یک فناوری، چالشی شناختی و رسانه‌ای است/ جامعه‌ای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیب‌پذیر است

  • «مایکروسافت» از تراشه جدید خود رونمایی کرد

  • مهاجرانی خبر داد؛ بسته های جبرانی معاونت علمی برای حمایت از کسب و کارهای اینترنت پایه

  • مهاجری:«مشکلات اقتصادی کشور ریشه اصلی اعتراضات را شکل می دهد/ این مشکلات راه‌حل اقتصادی ندارند/ حل این مشکلات راه‌حل‌های سیاسی و دیپلماتیک دارند»

  • تصمیم دولت ترامپ برای استفاده از هوش مصنوعی در نوشتن قوانین فدرال

  • بنیانگذار تلگرام: فقط «کودن‌ها» باور دارند واتس‌اپ امن است

  • کتاب فلسفه ارتباطات بررسی می شود

  • تشخیص افسردگی با استفاده از واتس‌اپ!

  • قانونگذاران فرانسوی طرحی را برای ممنوعیت رسانه‌های اجتماعی برای افراد زیر ۱۵ سال تصویب کردند

  • در اتاق گفتگوی شفقنا مطرح شد؛ دکتر اجاق: شبکه‌های اجتماعی در حوزه سلامت ظرفیت و خطر را هم‌زمان دارند/ آگاهی سلامت بدون سواد رسانه‌ای امکان‌پذیر نیست/ اعتماد به متخصصان در ایران نیازمند ترمیم نهادی و ارتقای سواد عمومی سلامت و رسانه‌ای است

  • در اتاق گفتگوی شفقنا مطرح شد؛ نوروزی: شرایط الان کشور به گونه‌ای نیست که فعلاً بازنگری در قانون مطبوعات را بطلبد/ به‌طور مطلق باید حق توقیف یا لغو پروانه رسانه‌ها از نظام حقوقی ایران حذف شود/ جرم مطبوعاتی یک جرم غیرعمد است/ پوربابایی: الفاظ و عبارت به کار برده شده در قانون مطبوعات کشدار و مبهم هستند/جرم‌انگاری روزنامه نگاران باید محدود شود/توقیف ناگهانی مطبوعات ظلمی آشکار است

  • ویدئو/ رییس سازمان صدا و سیما در گفت و گو با شفقنا: سختگیری ساترا در صدور مجوز تولید افزایش یافته است/ ضوابط تولید نمایش خانگی به‌روزرسانی می‌شود

  • عکاس فلسطینی در غزه، برنده جایزه ریاست‌جمهوری ترکیه شد + تصاویر

  • در اتاق گفتگوی شفقنا مطرح شد؛ چگونه می‌توان با «شبه علم» در فضای مجازی مقابله کرد؟

  • آخرین اخبار شفقنا از حوزه فناوری و هوش مصنوعی؛ از افتتاح اولین کارخانه تولید مفاصل رباتیک جهان تا ساخت نخستین ویلای هوشمند با ربات‌ها

نشر مطالب با ذکر نام پایگاه خبری شفقنا بلامانع است. شفقنا مسئولیت مطالب از سایر منابع را عهده دار نمی باشد.


بالا
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی