شفقنا رسانه- سید غلامرضا فلسفی∗:
سازندگان استارتآپ در شرکت سنسوریوم[۱] محیطی مملو از سرگرمی را در نسخه متاورس[۲] خود تصویر کردهاند که در آن شما میتوانید در یک تور سایبریِ بازدید از دنیایی متروک در زیر دریا شرکت کنید، در کنسرتی زنده که توسط ژان میشل ژار[۳] برگزار میشود، حضور به هم رسانید یا با باتها چت کنید و با پوششی خاص از نوشیدن چای با دوستانتان لذت ببرید.
اما هنگام رونمایی از این جهان سایبری طی اجلاس فناوریِ سال ۲۰۲۱ در لیسبون، اتفاقی عجیبتر از مجموع عجایب قابلمشاهده در این رویداد فناورانه توجهات را به خود معطوف کرد. درحالیکه شرکتکنندگان در این اجلاس به چت کردن با شخصیتهای سایبری مشغول بودند، برخی حاضران با باتی به نام «دیوید» که ویژگی متمایزکنندهاش سر بدون موی او بود، آشنا شدند؛ که وقتی نظرش را درباره واکسیناسیون پرسیدند، دیوید به انتشار اطلاعات نادرست غیرعمدی[۴] مبادرت کرد و مدعی شد که گاه واکسنها زیانبارتر از بیماریهایی محسوب میشوند که سعی در پیشگیری از آن دارند.
پس از طرح این اظهارات شرمآور از سوی دیوید، درعینحال که توسعهدهندگان این مصنوع در سنسوریوم اظهار کردند فیلترهایی را جهت ایجاد محدودیت در گفتههای وی درباره موضوعات حساسیت برانگیز در نظر میگیرند، این رخداد نشان داد که چگونه در متاورس افراد به سهولت میتوانند در معرض محتواهای توهینآمیز و گمراهکننده قرار بگیرند و امکان مدیریت این محتواها تا چه میزان است.
در حال حاضر شرکتهایی مانند مایکروسافت، اپل و متا برای ساخت فراجهان رقابت میکنند؛ جهان دیجیتالی سهبعدی که بسیاری معتقدند این امکان فناورانه بر بخشی از ارتباطات بین فردیِ حضوری، سایه میافکند. این فناوری در مراحل ابتدایی شکلگیری قرار دارد اما ناظران حوزه نوآوری هشدار میدهند که چالشهای به ستوه آورنده مربوط به حوزه محتوا که در رسانههای اجتماعی تعدیلشدهاند، در این جهانهای جدید که بر واقعیت مجازی و افزوده مبتنی است، شکلی شدیدتر به خود میگیرد.
پیشینه ناامیدکننده شرکتهای فناوری در زمینه سیاستگزاری جهت مدیریتِ محتواهای تفرقهانگیز در ماههای اخیر پس از انتشار هزاران صفحه از اسناد داخلی متا که توسط فرانسیس هاوگن[۵] مدیر سابق محصولات فیسبوک افشا شد، موردتوجه و بررسی مجدد تنظیمکنندههای مقررات و ارتباطات رادیویی آمریکایی قرار گرفت. اسنادی که توسط هاوگن در اختیار کنگره قرار گرفت و توسط کنسرسیومی از سازمانهای خبری از جمله واشنگتنپست با همکاری دهها کارمند فعلی و سابق فیسبوک که با آنان مصاحبه شد، مورد بررسی واقع گردید[۶] و جزئیاتی جدید از نحوه انتشار اطلاعات زیانبار از جمله توهم توطئه[۷] همچنین برجسته کردن ادبیات نفرت آفرین و خشونتبار توسط الگوریتمهای فیسبوک را عیان کرد که به انتشار دهها گزارش انتقادی در این رابطه از سوی والاستریت ژورنال، پُست و رسانههای خبری انجامید. بالطبع این گزارشها حاوی پرسشهایی از این دست بود که متا و دیگر غولهای رسانهای چگونه بر ارکان مولد محتواهای تفرقهانگیز و گمراهکننده در جهان سایبریای که به سرعت در حال رشد است نظارت میکنند.
الکس کادیر[۸] مدیرعامل شرکت نیوزگارد[۹] در بریتانیا که در حوزه مبارزه با اخبار غیرمعتبر فعالیت میکند میگوید که با وجود تغییر نام فیسبوک به متا، این شرکت در سکوهای[۱۰] فعلی خود همچنان امکانی برای ترکتازی حامیان اطلاعات نادرست غیرعمدی محسوب میشود. وی میافزاید که اگر این شرکت نتوانسته در سکوهایی سادهتر مانند فیسبوک و اینستاگرام با اطلاعات نادرست غیرعمدی مقابله کند، بعید است بتوانند در متاورس که شرایطی بسیار پیچیدهتر بر آن حکمفرماست، این کار را انجام دهد.
طرح این قبیل مسائل، دال بر بیاطلاعی مدیران متا از انتقادات نیست. همزمان با شکلگیری خزنده تبلیغات منفی درباره نقش شرکت متا در فراجهان، آنها متعهد شدهاند که به هنگام توسعه این سکو ضمن توجه به حریم خصوصی، بهترین شرایط را برای حضور کاربران در این فضا مهیا کنند. همچنین این شرکت استدلال میکند که جهانهای سایبری در انحصار متا نیست بلکه جمعی از طراحان، مهندسان و شرکتهای فناوری که فضاهای کاری و محصولات مشابه دارند در این کار سهیم و شریکاند.
مدیران متا میگویند که افراد نوآور و خلاق همچنین تنظیمکنندههای مقررات و ارتباطات رادیوییِ سراسر دنیا از هماکنون میتوانند درباره سیاستهای حفظ امنیت در متاورس بحثهای کارشناسی خود را آغاز کنند؛ حتی پیش از آنکه فناوریهای زیرساخت فراجهان بهطور کامل توسعه یابد.
نیک کلگ[۱۱] معاون متا در حوزه کسبوکار جهانی معتقد است در گذشته سیر سریع روزآمدی فناوریها سبب میشد که واضعان قوانین و تنظیمکنندههای مقررات و ارتباطات رادیویی از این قافله پرشتاب عقب بمانند. وی که اکتبر ۲۰۲۱ در اجلاس سالانه کانکت متا[۱۲] این سخنان را ایراد داشت افزود که این اتفاق نباید در رابطه با فراجهان تکرار شود چراکه سالها برای تحقق کامل متاورسی که متصوریم، مجال داریم.
متا همچنین میگوید که قصد دارد جهت توسعه مسئولانه فراجهان با گروههای حامی حقوق بشر و کارشناسان دولتی همکاری کند و به این منظور مبلغ ۵۰ میلیون دلار سرمایهگذاری کرده است.[۱۳]
داستانهای علمی- تخیلی رنگ واقعیت به خود میگیرند
واقعیتهای مجازی و افزوده امکان کسب تجربهای جدید از جهان را مطابق با آنچه پیش از این در رؤیاهای نویسندگان داستانهای علمی- تخیلی وجود داشت در فرا جهان بشارت میدهند. شرکتها میتوانند جلسات دیجیتالی در اتاقهای اعضای هیئتمدیره برگزار کنند به نحوی که تمامی کارکنان در مکانهای متفاوت حضور دارند، حس کنند که همگی در یک مکان و کنار یکدیگرند. دوستان، نماد شخصیتهای سایبری موردنظر خود را انتخاب میکنند و به رغم حضور در فضا و مکانهای مختلف با هم در یک کنسرت، سالن ورزشی و بازی ویدئویی سهبعدی شرکت میکنند. اهالی هنر بهاحتمالزیاد پذیرای تولیدات هنری مبتکرانه متناسب با جغرافیای مختلف در واقعیت مجازی میشوند، به نحوی که هر کس با ابزار لازم دسترسی بتواند از این تولیدات هنری بهرهمند شود. کارآفرینان به تأسیس فروشگاههای دیجیتال در مقام مکانهایی که بتوان توأمان از آن اقلام و اجناس دیجیتال و واقعی را ابتیاع کرد، مبادرت میورزند.
اما ناظران دیجیتال میگویند همان ویژگیهایی که متاورس را به یک نوآوری وسوسهانگیز تبدیل میکند حتی ممکن است زمینه را برای ورود، بروز و ظهور محتوای مضر مهیاتر کند. این مهم برگرفته از نگاهی واقعبینانه به تجربیات موجود از واقعیت دیجیتال است که فراجهان ممکن است به سلاحی مرگبار در دستان بازیگرانی خطرناک بدل شود که در پی برافروختن آتش کینه، خشونت و تروریسماند.
به اعتقاد کارن کورنبلو[۱۴] سفیر سابق ایالاتمتحده در سازمان همکاری و توسعه اقتصادی و مدیر صندوق نوآوری دیجیتال جهت اعتلای دموکراسی[۱۵] اسناد افشای شده فیسبوک نشاندهنده آن است که فراجهان همچون یک دستگاه رایانه که برای برنامهای خاص سفارشیسازی شده، میتواند دستآویز آنانی شود که افراطگرایی را به خدمت میگیرند لذا این سکو، به عاملی تسهیلکننده در اعمال خشونت بدل میشود.
گرچه گستره ابعاد و نحوه چیدمان اجزای متاورس هنوز مراحل نظری خود را طی میکند، لیک سکوهای موجودِ واقعیت مجازی و بازیها، دریچهای است که از طریق آنها میتوان درباره انواع محتواهایی مشکلدار که در متاورس رشد و نمو میکنند، گمانهزنی کرد.
در برخی اسناد افشاشده فیسبوک، شواهدی مبنی بر احتمال انتقال فزاینده محتوای توهینآمیز از اجتماعات انسانی به اجتماعات سایبری وجود دارد. شاهد مثال این امر، محتوای مصاحبه یکی از کارمندان فیسبوک با سازمانهای خبری افشاکننده اسناد فیسبوک است که در آن تصریح میکند حین بازی واقعیت مجازی رِک روم[۱۶] بر روی هدست اُکلوس کوئست[۱۷] از سوی نژادپرستان مورد هجمه قرارگرفته است.
این مصاحبه شونده اظهار میکند که پس از ورود به این بازی پرطرفدارِ دنیای سایبری، با شعارهای کاکاسیاه …کاکاسیاه …[۱۸] که پیاپی تکرار میشد، مورد استقبال قرار گرفته است! طبق مستندات افشاشده، این شخص در یکی از اتاقهای سایبری داخلی شرکت خود نوشت که پس از مورد حمله قرار گرفتن، تلاش کرده تا از هویت آنانی که فریادهای نژادپرستانه سر میدادند، آگاه شود و سعی کرده بفهمد چگونه باید این مسئله را حین حضور در آن بازی ویدئویی برخط گزارش کند که البته در هیچکدام از موارد مزبور، موفق نشده است. این کارمند که در اسناد افشاشده نامش به میان آمده در پایان اظهارات خود نوشت که در نهایت تسلیم و با احساس شکست از دنیای سایبری رک روم خارج شدم.
رک روم در واکنش به این حادثه گفت بر روی حسابهای کاربری که حین بازی مشغول صحبت هستند، حتی اگر قابلیت مشاهده شدنشان را غیرفعال کرده باشند، چندین امکان مدیریت ایجاد کرده تا پس از شناسایی، حساب کاربر متخلف را مسدود کند.
هتک و تعدی بر بستر واقعیت مجازی
بدرفتاری دیری است که سایر محصولات واقعیت مجازی را نیز متأثر کرده است. افراد درباره ویآر چت[۱۹] -سکویی برخط که کاربران در آن میتوانند در پوششِ نماد یا شکلی که نشاندهنده شخصیتی خاص در بازیهای ویدئویی است دنیاها را سیاحت کنند- تجاربی شگرف را روایت میکنند که برگرفته از تعاملات انجامگرفته در بیش از ۲۵ هزار اجتماع گوناگون سایبریِ آن سکو است. در رشته مطالب مربوط به کیفیت حضور در ویآر چت که در تارنمای رِدیت[۲۰] آمده، کاربران از مواردی معتنابه و غیرقابلتحمل از اقدامات نژادپرستانه و جنسیتستیزانه حکایت میکنند تا جایی که یکی از کاربران این سکو نوشته «نازیهای بیکله را فراموش نکنید.» با این اوصاف وقتی در جهان سایبری افرادی با عکس هیتلر و نماد کو کلوس کلان، دیگر کاربران را مورد آزار قرار میدهند، تکرار خونسردانه واژه کاکاسیاه توسط بازیکنان یک بازی ویدئویی امری معمول تلقی میشود.
ویآر چت طی توضیحاتی که در ژوئن ۲۰۱۸ خطاب به بیش از ۲۵ هزار اجتماع حاضر در سکوی خود منتشر کرد مدعی شد که توسط گروهی که بهطور مداوم کمیت و کیفیت این فضا را رصد میکنند، در حال رسیدگی به وضعیتِ درصدی از کاربران است که مرتکب رفتار موهن و کریه میشوند.[۲۱] اما پس از گذشت چند سال، کثیری از کاربران سکوی مزبور همچنان نسبت به ادامه کژ رفتاریها معترض و به گزارش کاربران متعدی مبادرت میورزند؛ تا جایی که به نظر آنان برخلاف ادعای مطرحشده در نامه سرگشاده مذکور، گویا هیچ اقدامی عملی از سوی سکوی مذکور انجام نگرفته است. البته کاربران سعی میکنند از امکان خاموش یا مسدود کردن کاربران کژ رفتار جهت محدودیت و ممنوعیت ادامه فعالیت آنها بهره بگیرند. البته لازم به ذکر است که این دو امکان بازدارنده، بسیار دچار سوء کارکرد شده و خلاف ماهیتشان مورد استفاده تبهکاران دیجیتالی قرار میگیرد.
البته افراد از وجود نژادپرستی در بازیهای ویدئویی برخطی محبوب مانند زندگی دوم[۲۲] و فورتنایت[۲۳] نیز خبر میدهند. برخی زنان نیز اعتراف کردهاند که در سکوهای واقعیت مجازی مورد آزار جنسی و تجاوز قرارگرفتهاند و همچنین والدینی که از حضور فرزندانشان در سکوی بازیِ برخطِ بهظاهر بیضررِ روبلاکس[۲۴] اظهار نگرانی کردهاند.
شرکتهایی مانند متا، توئیتر و گوگل ناظر بر سکوی یوتیوب که در حوزه رسانههای اجتماعی حضوری مؤثر و چشمگیر دارند، با سیاستگذاریهایی مفصل در پی آناند که کاربران را از انتشار محتوای موهن و خطرناک منع کنند. این شرکتها برای اداره مناسب سایت شبکههای اجتماعی خود جهت بررسی اجمالی تصاویر همچنین متن و فیلمهایی که به نظر میرسد میتوانند قوانین این شرکتها را درباره ممنوعیت انتشار گفتار نفرت پراکن یا تحریککننده جهت ارتکاب خشونت نقض کنند به دانش هوش مصنوعی بسیار متکیاند. سامانههای بهرهمند از هوش مصنوعی در بعضی اوقات بهطور خودکار به حذف فرستِهای توهینآمیز مبادرت میکنند و گاهی نیز نسبت به الصاق برچسبهای خاصِ راستی آزمایی اقدام یا برای دیده شدن محتواهای حساس، محدودیت ایجاد میکنند.
آندره آ امیلیو ریزولی[۲۵] مدیر موسسه هوش مصنوعی داله موله در سوئیس[۲۶] میگوید سطح امنیت متاورس تا حدی به این مهم بستگی دارد که شرکتها چگونه سامانههای هوش مصنوعی را برای اداره سکوها به خدمت میگیرند. برای تشخیص و حذف سخنان نفرتپراکن و اطلاعات نادرست غیرعمدی میتوان هوش مصنوعی را برنامهریزی کرد و سامانههای مذکور نیز بنا به ماهیت فناورانه خود با قوت به این امر مبادرت میورزند.
سویِ دیگر گستره محتوای مسئلهدار در فراجهان تابع طراحیِ نحوه عملکرد محیطهای دیجیتال از سوی شرکتهای فناوری است بدین معنی که آیا ساختار در قالب گروههای بسته و خصوصی شکل میگیرد تا شخصیتها سایبری با دعوت، مجال ورود به آنها را بیابند یا در قالب گروههای باز و عمومی که همگان امکان حضور خواهند داشت. هاوگن که در افشاگریهایش آشکارا از برنامههای متاورسِ فیسبوک انتقاد کرده، در ایام متأخر به قانونگذاران اروپایی گفت به نظر نمیرسد سخنان نفرتانگیز و اطلاعات نادرست غیرعمدی در فراجهان به سرعت و وسعتی که در رسانههای اجتماعی مبادله میشوند، انتشار یابند چراکه تعاملات معدود و محدود خواهد بود.
برخلاف نظر هاوگن، برنت میتلستاد[۲۷] پژوهشگر ارشد اخلاق داده در حوزه اینترنتِ موسسه آکسفورد[۲۸] در این زمینه میگوید چون به ناگاه منابعی عظیم از داده -حتی بیش از آنچه تاکنون در دسترس مردم است- از طریق متاورس هدایت و در اختیار کاربران قرار میگیرد و اگر فیسبوک به این هدف برسد، کثیری از افراد مدتی قابلتوجه از وقت خود را در فراجهان صرف میکنند؛ به همان اندازه محتمل است که متا، شبکههای فعلی خود از جمله فیسبوک، اینستاگرام و واتسآپ را با فراجهان ادغام کند که این امر تعاملات در متاورس را به نحوی چشمگیر افزایش میدهد.
میتلستاد که در گروه اخلاق داده موسسه آلن تورینگ[۲۹] نیز به فعالیت اشتغال دارد، میافزاید اگر مدیران متا سازوکار سکوهای فعلی خود را که در انتشار اطلاعات نادرست غیرعمدی نقشآفریناند، در فراجهان حفظ کنند؛ گفتنِ اینکه شرایط در متاورس بهبود پیدا میکند، دشوار است.
ریزولی نیز در ادامه نظرات خود با بیان اینکه اطلاعات نادرست غیرعمدی و سخنان نفرت پراکن میتوانند طی تعاملات بین فردی در فراجهان پدیدار شوند، تصریح کرد که این امر، سکوها را به هنگام تصمیم جهت حذف محتواهای مضر با بحثهایی حول آزادی بیان و سانسور مواجه میکند. وی در پاسخ به این پرسش که آیا سکوها میخواهند موجوداتی سایبری به افراد نزدیک و به آنها متذکر شوند که مکالمهشان مبتنی بر واقعیت نیست یا ترجیح میدهند بهطور کل از گفتوشنود بین فردی جلوگیری کنند؛ اظهار داشت شیوه مدیریت و نوع نظارتی که سکوها در فراجهان جهت جلوگیری از انتشار اطلاعات نادرست غیرعمدی اعمال میکنند، محل بحث و تأمل است.
تعریف و تعیُّن اصالت در متاورس میتواند از آنچه در جهان انجام میشود، غامضتر شود. اریک رامیرز[۳۰] دانشیار دانشگاه سانتا کلارا[۳۱] میگوید شرکتهای فناوری ممکن است در رابطه با آزادی مردم از لذتی که به واسطه نمایش متفاوت نژاد یا جنسیت خود در فراجهان میبرند، با پرسشهایی شیطنتآمیز و درعینحال چالشی مواجه شوند. با این حال میتوان پیشبینی کرد با توجه به روند پیشرفتِ تولید جعلهای عمیق[۳۲] -صداها، تصاویر و نوشتههایی که با استفاده از دانش هوش مصنوعی ساخته میشوند تا افعالی به فردی منتسب شود که از انجام آنها مبراست- باید جعلهای ژرفِ باورپذیرتر و تعاملیتری را در متاورس شاهد باشیم.
رامیرز در میزگردی با موضوع پیامدهای جهانشمولیِ متاورس که کلگ نیز در آن حضور داشت ضمن اشاره به اینکه مجال و امکانی بیشتر برای فریبکاری در فراجهان وجود دارد، افزود: در این شکل فریبکاری از ظرفیت درونی روانشناسی جهت آگاهی از نحوه تعامل ما با دیگر آدمها و چگونگی شناختن افراد بسیار بهره برده شده است.
حریم خصوصی سایبری؟
پژوهشگران حتی طرفداران حوزه متاورس اذعان دارند که فراجهان میتواند حریم خصوصی کاربر را به خطر افکند. بهطور مثال عینکهای مبتنی بر واقعیت افزوده که توسط اسنپ اینک[۳۳] و متا در مرحله نهایی شدن است، میتوانند بدون اطلاع و رضایت کاربرانشان نسبت به ثبت و ضبط اطلاعات از اشخاص پیرامونی مبادرت ورزند. لازم به ذکر است کاربرانی که تنها سیاح جهانهای سایبری نیز محسوب میشوند، از آزار دیجیتال یا کمین بدخواهان شرور در امان نیستند.
نیل چیلسون[۳۴] محقق ارشد حوزه فناوری و نوآوری در موسسه راستگرای چارلز کخ[۳۵] که در میزگرد متا نیز شرکت داشت میگوید بهطور مثال اگر در دنیای فیزیکی بخواهید فردی را رصد کنید مجبور به کارهایی زیاد و بعضاً زائد هستید اما دنیای برخط انجام این کار را بسیار سهل و ممتنع میکند.
بیل استیلول[۳۶] مدیر محصول متا در حوزه حریم خصوصی و یکپارچگی واقعیت مجازی طی اظهاراتی بیان کرد که توسعهدهندگان استارتآپها برای تعدیل تجارب شبیهسازیشده در هدست اُکلوس کوئست ابزارهایی در اختیار دارند با این قید که ابزارها همیشه میتوانند ارتقا یافته، کارایی بهتر پیدا کنند. او در ادامه افزود که ما میخواهیم بر همه این احساس مستولی شود که بر تجارب واقعیت مجازی خود، احاطه دارند و بر این مبنی در سکوی ما احساس امنیت کنند.
حتی حامیان متاورس چون چیلسون و ژان میشل ژار هنرمند فرانسوی که به زودی کنسرتهای واقعیت مجازی برگزار میکند، تصریح میکنند که تنظیمکنندههای مقررات و ارتباطات رادیویی در سراسر دنیا باید قوانینی جدید در مورد حریم خصوصی، مدیریت محتوا و دیگر موارد مربوط به ایجاد و ارتقا امنیت در این فضاهای دیجیتالی تهیه و مصوب کنند. البته این مهم برای دولتهایی که سالهاست جهت تصویب قوانین مدیریت رسانههای اجتماعی در تلاش بودهاند، تکلیفی شاق محسوب شود. ژار در این رابطه میگوید که هر فناوری، یکسویه تاریک دارد که فراجهان نیز از آن مبرا نیست به همین منظور ما دراینباره نیاز فوری به وضع قوانین و مقررات داریم.
جاناتان ویکتور[۳۷] مدیر محصول در حوزه توسعهدهندههای متن باز[۳۸] جنبههای مثبتِ بالقوه متاورس را مورد توجه قرار میدهد. از منظر وی هر فرد میتواند یک نسخه دیجیتال سهبعدی از خود در فراجهان داشته باشد. او اظهار میکند که در متاورس میتوان ارز دیجیتال مبادله کرد یا با خرید و فروش کالاهای سایبری، اشتغالزایی کرد. ویکتور در ادامه میافزاید درباره فراجهان بسیار افسانهسرایی شده اما پرسش اینجاست که صحیحترین شیوه برای برپاداشتن این جهان سایبری چیست؟
∗ پژوهشگر حوزه سواد رسانهای و سواد خبری
*این نوشتار ترجمهای آزاد از مقالهای است با عنوان Misinformation has already made its way to the metaverse که در ۱۵ دسامبر ۲۰۲۱ منتشرشد.
[۱] https://sensoriumxr.com/galaxy
[۲] Metaverse از دو واژه متا به معنی فراتر و یونیورس به معنی جهان تشکیلشده است. نیل استیونسن نخستین بار در کتاب خود به نام سقوط برف در سال ۱۹۹۲ از این واژه استفاده و آن را جهان سایبری سهبعدی متشکل از آواتارِ (نماد یا شکلی که نشاندهنده شخصیتی خاص در بازیهای ویدیویی است) مردمان واقعی توصیف کرد.
[۳] Jean-Michel Jarre
[۴] Misinformation
[۵] Frances Haugen
[۶] www.washingtonpost.com/technology/2021/10/25/what-are-the-facebook-papers
[۷] Conspiracy Theory
[۸] Alex Cadier
[۹] www.newsguardtech.com
[۱۰] Platforms
[۱۱] Nicholas William Peter Clegg
[۱۲] www.facebookconnect.com/en-us
[۱۳] https://about.fb.com/news/2021/09/building-the-metaverse-responsibly
[۱۴] Karen Kornbluh
[۱۵] www.gmfus.org
[۱۶] https://recroom.com
[۱۷] www.oculus.com/experiences/quest
[۱۸] www.bbc.com/news/stories-53749800
[۱۹] https://hello.vrchat.com
[۲۰] www.reddit.com
[۲۱] https://medium.com/@vrchat/an-open-letter-to-our-community-1b7aa5d9026f
[۲۲] https://secondlife.com
[۲۳] www.epicgames.com/fortnite/en-US/home
[۲۴] www.roblox.com
[۲۵] Andrea-Emilio Rizzoli
[۲۶] www.idsia.ch
[۲۷] Brent Mittelstadt
[۲۸] www.oii.ox.ac.uk
[۲۹] www.turing.ac.uk/research/data-ethics
[۳۰] www.erickjramirez.com
[۳۱] www.scu.edu
[۳۲] Deep fakes
[۳۳] www.snap.com/en-US
[۳۴] Neil Chilson
[۳۵] https://charleskochinstitute.org
[۳۶] Bill Stillwell
[۳۷] Jonathan Victor
[۳۸] https://protocol.ai