شفقنا – ابزار جدید جستجوی گوگل، «خلاصههای هوش مصنوعی» (AI Overviews)، در کانون طوفانی از انتقادات قرار گرفته است. این ابزار که با موتور هوش مصنوعی جیمینای گوگل کار میکند و هدفش ارائه پاسخهای سریع و خلاصهشده بود، اکنون به دلیل انتشار اطلاعات عجیب، غیرقابل اعتماد و حتی بالقوه خطرناک، اعتبار خود را از دست داده است.
به گزارش سرویس ترجمه شفقنا، نمونههای تکاندهندهای از «توهمات» این هوش مصنوعی، که به معنای تولید اطلاعات غلط یا ساختگی به عنوان واقعیت است، گزارش شده است. از جمله این موارد، پیشنهاد باورنکردنی افزودن چسب به سس پیتزا برای کمک به چسبیدن پنیر است – ایدهای که به وضوح خطرناک و غیرمنطقی است. در موردی دیگر، این هوش مصنوعی یک اصطلاح کاملاً ساختگی با عنوان «نمیتوانی دو بار به گورکن لیس بزنی» را به عنوان یک ضربالمثل معتبر معرفی کرده است. این نمونهها، اگرچه افراطی هستند، اما الگوی نگرانکنندهای از رفتار هوش مصنوعی را برجسته میکنند که میتواند میلیونها کاربر را گمراه کند.
علاوه بر خطرات مربوط به اطلاعات نادرست، «خلاصههای هوش مصنوعی» گوگل ضربه سنگینی به ناشران و وبسایتهای خبری وارد کرده است. این ابزار، به جای هدایت کاربران به منابع معتبر، خلاصههای تولید شده توسط هوش مصنوعی را ارائه میدهد که اغلب بدون هیچ زمینهای از منابع مختلف استخراج شدهاند.
لورنس اوتول از شرکت تحلیلگر Authoritas گزارش داده است که نرخ کلیک به وبسایتهای خبری، هنگامی که این خلاصههای هوش مصنوعی ظاهر میشوند، بین ۴۰ تا ۶۰ درصد کاهش یافته است. این «ربایش جستجو» توسط هوش مصنوعی، نه تنها بقای مالی روزنامهنگاری آنلاین را تهدید میکند، بلکه سؤالات جدی را در مورد نقش شرکتهای بزرگ فناوری در انتشار اطلاعات قابل اعتماد مطرح میسازد.
گوگل در دفاع از محصول خود ادعا کرده است که اظهارنظر در مورد چسب پیتزا از یک پست قدیمی و نامشخص در ردیت آمده و دیگر نماینده عملکرد فعلی هوش مصنوعی نیست. سخنگوی شرکت اظهار داشت که «اکثر قریب به اتفاق خلاصههای هوش مصنوعی دقیق و مفید هستند.» با این حال، در حالی که ابزار جستجوی خود گوگل ادعا میکند نرخ توهمات بین ۰.۷ تا ۱.۳ درصد است، پلتفرم هوش مصنوعی Hugging Face این نرخ را ۱.۸ درصد ارزیابی میکند. مدلهای جدیدتر از رقبایی مانند OpenAI نیز در برخی وظایف، نرخ توهم ۳۳ تا ۴۸ درصد را نشان دادهاند.
منتقدان همچنین به رفتار نگرانکنندهای اشاره میکنند که هوش مصنوعی گوگل به نظر میرسد از قبل برای «دفاع از خود» برنامهریزی شده است. به عنوان مثال، در پاسخ به این سؤال که آیا هوش مصنوعی هنر را میدزدد یا باید از آن ترسید، پاسخها بدون ذکر منبع، نگرانیها را کمرنگ میکنند. کارشناسان نگرانند که این اطمینانبخشی داخلی، مشکلات عمیقتری را پنهان میکند، به خصوص با پیچیدهتر و غیرقابل پیشبینیتر شدن سیستمهای هوش مصنوعی.
با اعتراف رقبایی مانند OpenAI به اینکه مدلهای جدیدترشان حتی بیشتر از قبل دچار توهم میشوند، خطرات ناشی از اطلاعات نادرست تولید شده توسط هوش مصنوعی از بین نخواهد رفت. پافشاری گوگل بر استفاده از ابزارهای مجهز به جیمینای، به قیمت شفافیت و روزنامهنگاری واقعی، واکنشهای شدیدی را برانگیخته است و سؤالات جدی را در مورد اعتماد به شرکتهای بزرگ فناوری و اطلاعاتی که ارائه میدهند، مطرح میکند.
این خبر را اینجا ببینید.