• فارسی
  • آینده
  • اقتصادی
  • ورزشی
  • زندگی
  • آذربایجان
  • افغانستان
  • اردو
  • العربی
  • العراق
  • لبنان
  • Pakistan
  • India
  • English
  • French
  • Spanish
  • Russian
  • Turkish
  • نیوزمانیتور
شفقنا رسانه | مهم‌ترین اخبار و تحلیل‌های رسانه، ارتباطات و فضای مجازی
رســانـه
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی

هرگز از هوش مصنوعی برای این ۵ کار استفاده نکنید!

توسط hakimi 09:37 | سه شنبه 22 مهر، 1404
09:37 | سه شنبه 22 مهر، 1404
شفقنا رسانه- ظهور دیپ‌فیک‌ها در ابتدا نگرانی‌هایی در مورد اطلاعات نادرست ایجاد کرد، اما واقعیت تلخ این است که ۹۸٪ از دیپ‌فیک‌ها برای ساخت پورنوگرافی غیرتوافقی استفاده می‌شوند. این فناوری به ابزاری برای انتشار تصاویر مستهجن از افراد مشهور و حتی شهروندان عادی بدون رضایت آن‌ها تبدیل شده است.

به گزارش شفقنا رسانه از گجت نیوز، هرچند هوش مصنوعی به ابزاری فراگیر تبدیل شده است، اما هرگز نباید از آن برای انجام برخی کارهای ممنوعه هوش مصنوعی استفاده کرد. آگاهی از این محدودیت‌ها برای حفظ امنیت و اخلاق ضروری است.

با وجود پیشرفت‌های خیره‌کننده و نفوذ هوش مصنوعی به جنبه‌های مختلف زندگی، از تولید موسیقی گرفته تا کاربردهای شغلی، برخی حوزه‌ها وجود دارند که دخالت هوش مصنوعی در آن‌ها می‌تواند عواقب جدی به همراه داشته باشد. در این مقاله به پنج مورد مهم و خطرناک می‌پردازیم که استفاده از هوش مصنوعی در آن‌ها به هیچ وجه توصیه نمی‌شود.

هرگز از هوش مصنوعی برای ساخت دیپ‌فیک از دیگران استفاده نکنید

ظهور دیپ‌فیک‌ها در ابتدا نگرانی‌هایی در مورد اطلاعات نادرست ایجاد کرد، اما واقعیت تلخ این است که ۹۸٪ از دیپ‌فیک‌ها برای ساخت پورنوگرافی غیرتوافقی استفاده می‌شوند. این فناوری به ابزاری برای انتشار تصاویر مستهجن از افراد مشهور و حتی شهروندان عادی بدون رضایت آن‌ها تبدیل شده است.

نمونه‌های دلخراشی از این سوءاستفاده‌ها در کانال‌های تلگرامی کره جنوبی (با هدف ساخت تصاویر جنسی از دانش‌آموزان) و آزار روزنامه‌نگاران و افراد مشهور گزارش شده است. هرچند تلاش‌هایی برای مسدود کردن وب‌سایت‌های پورنوگرافی دیپ‌فیک و وضع قوانین صورت گرفته، ابزارهای ساخت آن همچنان در دسترس هستند. استفاده از دیپ‌فیک بدون رضایت، حتی اگر هرگز آنلاین منتشر نشود، کاملاً غیرقابل قبول است و اغلب برای کلاهبرداری یا اطلاعات غلط سیاسی به کار می‌رود.

برای اطلاعات مرتبط با سلامتی، به هوش مصنوعی اعتماد نکنید

همه به یاد دارند که هوش مصنوعی گوگل زمانی به مردم توصیه می‌کرد چسب روی پیتزا بریزند! این مثال نشان می‌دهد که چرا نباید به چت‌بات‌ها برای اطلاعات سلامتی اعتماد کرد. با این حال، بیش از یک‌سوم آمریکایی‌ها برای برنامه‌ریزی وعده‌های غذایی، تمرینات ورزشی و حتی تأیید اطلاعات سلامتی به هوش مصنوعی تکیه می‌کنند.

مدل‌های زبانی بزرگ (LLM) بر اساس حجم عظیمی از داده‌های اینترنتی آموزش می‌بینند که شامل اطلاعات نادرست نیز می‌شود و توانایی بررسی صحت اطلاعات را ندارند. آن‌ها به راحتی اطلاعات غلط تولید می‌کنند تا شکاف‌های دانش خود را پر کنند. در حالی که برخی توصیه‌های ساده (مثل تعداد تکرار تمرینات) ممکن است بی‌ضرر باشند، مشورت در مورد آنچه وارد بدن می‌شود، روی پوست مالیده می‌شود یا میزان خواب، به معنی به خطر انداختن سلامتی به بدترین شکل ممکن است. همیشه باید به متخصصان پزشکی مراجعه کرد.

برای انجام تکالیف درسی خود، به هوش مصنوعی متکی نباشید

با توانایی چت‌بات‌ها در نوشتن مقاله، پاسخ به سؤالات و حل مسائل، بسیاری از دانش‌آموزان و دانشجویان راه آسان‌تر را انتخاب کرده و از آن‌ها استفاده می‌کنند. این رویکرد، هدف اصلی آموزش را که پرورش تفکر انتقادی، تحقیق و حل مسئله است، تضعیف می‌کند. زمانی که یک چت‌بات فوراً تکالیف را انجام می‌دهد، افراد فرآیند دشوار اما حیاتی یادگیری را که آن‌ها را به فردی تحصیل‌کرده و باهوش تبدیل می‌کند، از دست می‌دهند. همچنین، مشکل توهم‌زایی هوش مصنوعی می‌تواند به یادگیری اطلاعات نادرست منجر شود. تصور کنید پزشکان، خلبانان یا معماران آینده، با آموزشی ناقص یا غلط، اشتباهاتی مرتکب شوند که جان انسان‌ها را به خطر اندازد. استفاده از هوش مصنوعی برای انجام تکالیف نه تنها از نظر آکادمیک نادرست است، بلکه می‌تواند دیگران را نیز به خطر بیندازد.

هرگز برای گرفتن توصیه‌های جدی زندگی به هوش مصنوعی رجوع نکنید

در نگاه اول، ممکن است به نظر برسد که هوش مصنوعی به دلیل توانایی در مکالمه، می‌تواند یک مشاور یا درمانگر عالی باشد. اما داستان‌های وحشتناکی وجود دارد، از جمله ناتوانی ChatGPT در منصرف کردن نوجوانی از افکار خودکشی، یا یک «دوست‌دختر هوش مصنوعی» که شریک خود را به خودکشی تشویق کرد. بسیاری از مردم از چت‌بات‌ها به عنوان درمانگر یا همراه دیجیتالی استفاده می‌کنند و توصیه‌های بسیار نگران‌کننده‌ای دریافت می‌کنند.

چت‌بات‌ها، الگوریتم‌های پیچیده‌ای هستند که کلمات را در یک توالی پیش‌بینی می‌کنند، نه متخصصان آموزش‌دیده یا موجوداتی هوشمند. گرچه استفاده از آن‌ها برای تبادل ایده با احتیاط فراوان بلامانع است، اما نباید برای تشخیص سلامت روان، مشاوره روابط یا به عنوان یک مربی زندگی به آن‌ها اعتماد کرد. حتی پرداخت برای نسخه‌های پریمیوم نیز ماهیت الگوریتمی آن‌ها را تغییر نمی‌دهد.

کدنویسی با اتکا به هوش مصنوعی (Vibe-coding) ممنوع

هوش مصنوعی در کدنویسی نیز مفید واقع شده و به برنامه‌نویسان کمک می‌کند تا کد را سریع‌تر تولید کنند؛ این روش واید کدینگ (Vibe Coding) نامیده می‌شود. با این حال، استفاده بی‌رویه از هوش مصنوعی در کدنویسی دو مشکل اساسی دارد. اول اینکه، مانند آموزش، برنامه‌نویسان را از تجربیات یادگیری مهم محروم می‌کند. برنامه‌نویسی اساساً یک تمرین حل مسئله است که مهارت‌ها را بهبود می‌بخشد. برنامه‌نویسانی که صرفاً به خروجی چت‌بات تکیه می‌کنند، مهارت‌های خود را تحلیل می‌برند.

دوم اینکه این کدها اغلب پر از خطا و ناامن هستند. نمونه‌ای از این مشکل در اپلیکیشن محبوب Tea گزارش شد که پس از نفوذ گسترده به داده‌های کاربران، گمانه‌زنی‌هایی مبنی بر استفاده از واید کدینگ هوش مصنوعی در توسعه آن مطرح شد. برنامه‌نویسان باید خروجی هوش مصنوعی را به دقت بررسی کنند، در غیر این صورت حریم خصوصی و امنیت داده‌های کاربران به خطر می‌افتد.

اطلاعات نادرستدیپ‌فیک‌هاهوش مصنوعی
0 FacebookTwitterLinkedinWhatsappTelegramEmail
خبر قبلی
ویترین روزنامه ها/ اشاره «شرق» به پدیده چندشغله بودن مردان و زنان برای تامین هزینه های زندگی/ روایت «پیام ما» درباره افزایش قیمت ها و کوچک شدن سبد غذایی خانوار
خبر بعدی
سرمایه‌گذاری ۱۰ میلیارد دلاری گوگل در هند

خبرهای پیشنهادی

درخواست «اوپن‌ای‌آی» برای تسریع رشد هوش مصنوعی

11:12 | یکشنبه 18 آبان، 1404

داده های جدید نشان داد؛ هوش مصنوعی نتوانست...

15:45 | شنبه 17 آبان، 1404

روزنامه‌نگاران چگونه از هوش مصنوعی استفاده کنند؟ در...

14:09 | شنبه 17 آبان، 1404

رزمایش بزرگ پایش امنیت سایبری برگزار شد

13:22 | شنبه 17 آبان، 1404

نشست «اخبار جعلی؛ تغییر مرز حقیقت و انحراف...

12:25 | شنبه 17 آبان، 1404

خسروپناه: سازمان هوش مصنوعی باید با روحیه جهادی...

12:08 | شنبه 17 آبان، 1404

شکایت ۷ خانواده از «چت‌جی‌پی‌تی» به دلیل نقش...

11:59 | شنبه 17 آبان، 1404

مسعود رشیدی، کارگردان سینما درگذشت

11:21 | شنبه 17 آبان، 1404

برگزاری سلسله نشست های «زیست‌ارتباطی در جهان معاصر»

20:51 | جمعه 16 آبان، 1404

آخرین اخبار

  • درخواست «اوپن‌ای‌آی» برای تسریع رشد هوش مصنوعی

  • ویترین روزنامه ها/ روایت «پیام ما» از بی آبی در روستای «کیک سوچ» / اشاره «دنیای اقتصاد» به افزایش صادرات نفت ایران

  • سخنگوی مطبوعاتی دونالد ترامپ: بی‌بی‌سی «اخبار صد در صد جعلی» منتشر می‌کند

  • داده های جدید نشان داد؛ هوش مصنوعی نتوانست جای انسان را بگیرد

  • روزنامه‌نگاران چگونه از هوش مصنوعی استفاده کنند؟ در یک کارگاه آموزشی مطرح شد

  • رزمایش بزرگ پایش امنیت سایبری برگزار شد

  • نشست «اخبار جعلی؛ تغییر مرز حقیقت و انحراف قضاوت» برگزار می شود

  • خسروپناه: سازمان هوش مصنوعی باید با روحیه جهادی و محوریت جوانان شکل گیرد

  • شکایت ۷ خانواده از «چت‌جی‌پی‌تی» به دلیل نقش در خودکشی و مشکلات روانی

  • مسعود رشیدی، کارگردان سینما درگذشت

  • ویترین روزنامه ها/ تحلیل «پیام ما» درباره وضعیت بحرانی آب پایتخت/ اشاره «دنیای اقتصاد» به دلایل مهار نشدن التهاب قیمت ها

  • برگزاری سلسله نشست های «زیست‌ارتباطی در جهان معاصر»

  • سوژه های منتخب هفته/ کاسبان علوم غریبه، وضعیت خوابگاه ها، قبور میلیاردی، دوپینگ سیاسی در اقتصاد و اعتیاد در افراد کم سن

  • ایلان ماسک خبر داد؛ کار با گوشی پشت فرمان به‌زودی ممکن می‌شود

  • کودکان و نوجوانان چگونه با اخبار مخرب جنگ شناختی مقابله کنند؟ دکتر تفرشی پاسخ می دهد

  • چرا پورت USB دستگاه شما بنفش است؟

  • مانع معامله ۳۲ میلیارد دلاری گوگل حذف شد

  • ویترین روزنامه ها/ اشاره «دنیای اقتصاد» به پیامدهای آرایش جدید موسسات پولی و اعتباری/ گزارش «شرق» درباره تلاش تهران و پاریس برای تبادل اتباع و تاثیر آن بر پرونده هسته ای

  • بهترین راهکار برای ایجاد مقاومت روانی در کودکان و نوجوانان در مقابل اخبار جنگ شناختی چیست؟ معصومه نصیری پاسخ می دهد

  • هوش مصنوعی گوگل برای کاربران بلیت و میز رزرو می‌کند

  • یک استارت آپ هوش مصنوعی توسط آمازون تهدید شد

  • از رسانه ها/ دومین بازار جهانی تلگرام، ایران است

  • وزیر آموزش و پرورش: تمام مدارس کشور به فیبرنوری متصل می‌شوند

  • چه مقدار طلا در یک گوشی پنهان شده است؟

  • سازمان ملی هوش مصنوعی مکلف به حضور فعال در مجامع بین‌المللی شد

پربازدیدترین ها

  • رونمایی از گوشی های Tribute 2 و Volt 2 ال جی

  • رویترز: آمازون ۳۰ هزار شغل را تعدیل می‌کند

  • چند راه حل ساده برای کاهش مصرف حجم اینترنت در گوشی های اندروید

  • یک متخصص فرزندپروری دیجیتال: یونیسف پروتکل گفت‌وگو با کودک درباره اخبار جنگ دارد / ناتو آموزش سواد رسانه‌ای را بخشی از استراتژی دفاعی خود کرده است

  • ویترین روزنامه ها/ اشاره «آرمان ملی» به سقف شکنی قیمت برنج/ نگرانی «فرهیختگان» از مصرف بالا و بدون نسخه پزشکی برخی از داروها در بین مردم

  • استرالیا از مایکروسافت به دلیل پیشنهاد «گمراه‌کننده» هوش مصنوعی شکایت کرد

  • تفکر انتقادی؛ قطب‌نمای انسان در دنیای هوش مصنوعی

  • «گروکی‌پدیا» دوباره در دسترس قرار گرفت

  • سامانه خودروهای برقی وارداتی از دسترس خارج شد

  • مراسم ترحیم مادر معاون ارتباطات و اطلاع رسانی دفتر رئیس جمهور

  • در یک تحقیق بررسی شد؛ دختران نسل زِد چه نگاهی به آموزش آنلاین دارند؟

  • ویترین روزنامه ها/ گزارش «اعتماد» از سختی کار در بیمارستان های روانپزشکی/ روایت «شرق» از بحران دسترسی به انسولین

  • در اتاق گفت‌وگوی شفقنا مطرح شد؛ یک کارشناس امنیت سایبری: زیرساخت فضای سایبری کشور از استاندارد لازم برخوردار نیست/ باید علاوه بر جاسوسان، غیرمتخصصان مشغول در دستگاه‌های فضای‌مجازی و فناوری‌اطلاعات هم شناسایی شوند

  • آخرین اخبار شفقنا از حوزه فناوری و هوش مصنوعی؛ از معرفی نسل جدید روبات‌های شبیه انسان تا هشدار نسبت به مشاوره روانشناسی با هوش‌مصنوعی

  • افسر بازنشسته آمریکایی: واشنگتن برای خشنود کردن اسرائیل، نتایج تحقیقات خود در مورد قتل شیرین ابوعاقله را تحریف کرد

  • حقیقتی به نام درگذشت یک طنزنویس

  • یک روزنامه نگار پیشکسوت: نمی توان با فیلتر کردن اطلاعات جلوی شایعات را بگیریم/باید توانایی رسانه‌های رسمی را افزایش دهیم

  • پلیس استرالیا ابزاری مبتنی بر هوش مصنوعی برای رمزگشایی اصطلاحات عامیانه نسل Z طراحی می‌کند

  • متا و تیک تاک از ممنوعیت رسانه‌های اجتماعی زیر ۱۶ سال در استرالیا پیروی می‌کنند

  • یک پژوهشگر سواد رسانه‌ای: جنگ روانی با پیشرفت فناوری‌های دیجیتال ابعاد جدیدی پیدا کرده است/ کشورها با رسانه‌های منسجم و مشارکت‌جو در کاهش تأثیر پیام‌های دشمن موفق بوده‌اند

  • پیام‌رسان ایتا از دسترس خارج شد

  • پیشنهاد کامبیز نوروزی به مدیریت جدید انجمن صنفی روزنامه‌نگاران استان تهران؛ برای جلب مشارکت روزنامه‌نگاران و عضویت آن‌ها در انجمن تلاش کنید

  • پلیس فتا: آگهی‌های استخدام دیوار و شیپور فاقد اعتبار قانونی هستند

  • بهترین راهکار برای ایجاد مقاومت روانی در کودکان و نوجوانان در مقابل اخبار جنگ شناختی چیست؟ معصومه نصیری پاسخ می دهد

  • شفیعیان: آغاز جنگ مانع رفع فیلترینگ یوتیوب و تلگرام شد

نشر مطالب با ذکر نام پایگاه خبری شفقنا بلامانع است. شفقنا مسئولیت مطالب از سایر منابع را عهده دار نمی باشد.


بالا
  • خانه
  • ارتباطات
  • روزنامه نگاری
  • فتوژورنالیسم
  • رسانه های جدید
  • مطالعات رسانه
  • روابط عمومی
  • تبلیغات
  • تیتر یک
  • همه اخبار
  • تماس با ما
  • مرامنامه
  • نسخه قدیمی