از رسوایی و پنهان‌کاری تا تلاش برای ساخت متاورس و زندگی آواتاری

مجازیست–پنجم اکتبر (۱۳ مهر) یکی از اعضای سابق تیم راست‌کرداری مدنی فیس بوک به نام فرانسس هاگن علیه این شرکت درمقابل کنگره شهادت داد و چند روز بعد، با در‌اختیار‌گذاشتن هزاران سند داخلی فیس بوک به رسانه‌های خبری مطرح، این بار جدی‌تر از همیشه پنجره‌ای به دنیای آشفته و پر‌هرج‌و‌مرج غول شبکه‌های اجتماعی باز کرد.

تیم راست‌کرداری مدنی‌ فیس بوک (Civic Integrity) که نقشش در جریان آشفتگی انتخابات ۲۰۱۶ آمریکا پررنگ‌تر شد، وظیفه مبارزه با پخش اطلاعات نادرست و نفرت‌پراکنی را به‌عهده داشت و هر عضو تیم بدون آگاهی و مطمئنا بدون رضایت مارک زاکربرگ، قسم خورده بود که همیشه منافع مردم را اولویت قرار دهد، نه منافع فیس بوک را.

بااین‌حال درست یک ماه بعد از انتخابات ۲۰۲۰، فیس بوک این تیم را منحل کرد و پیام این اقدام برای بسیاری از اعضا ازجمله هاگن بسیار روشن بود:‌ فیس بوک دیگر نمی‌خواست قدرت در تیمی متمرکز باشد که اولویتش همواره مردم بود؛ حتی در شرایطی که حمایت از حقوق کاربران به‌ضرر شرکت تمام می‌شد.

هاگن به کنگره گفت که در دو سال حضورش در فیس بوک، به‌طور مداوم شاهد بود که این شرکت رشدش را بر هر چیز دیگری مقدم می‌شمرده است، تا جایی که این فلسفه به‌ضرر کاربران و کل جامعه تمام شده است. فیس بوک مدت‌ها هشدارهای پژوهشگرانش درباره مضرات احتمالی این پلتفرم را نادیده گرفته بود و حالا هاگن با دردست‌داشتن هزاران صفحه از اسناد داخلی این شرکت که این روزها با نام «اسناد فیس بوک» (The Facebook Papers) شناخته می‌شود، قصد دارد این موضوع را اثبات کند.

هاگن فیس بوک را ماه می (اردیبهشت) ترک کرد؛ اما قبل‌از‌آن، فروم درون‌سازمانی این شرکت را در جست‌وجوی تمام اسناد منتشر‌شده تیم راست‌کرداری مدنی زیرورو کرد. آنچه هاگن در این فروم پیدا کرد، از برخی جهات بسیار تکان‌دهنده بود.

نتایج مطالعه‌ درون‌سازمانی فاش‌شده در این اسناد نشان می‌داد اینستاگرام باعث شده ۳۲ درصد از دختران نوجوان به بدنشان احساس بدی داشته باشند. در اسناد دیگر، آمده بود که چگونه تغییر الگوریتم فیس بوک در سال ۲۰۱۸ که از آن به‌عنوان راهی برای افزایش «تعاملات اجتماعی معنادار» در این پلتفرم یاد می‌شد، در‌واقع باعث افروخته‌تر‌کردن آتش پست‌های تفرقه‌انگیز و حاوی اطلاعات نادرست شده بود.

همچنین، این اسناد فاش کردند که فیس بوک تقریبا تمام بودجه‌اش را برای حفظ امنیت این پلتفرم فقط برای محتوای انگلیسی‌زبان هزینه می‌کند و از نظارت بر محتوای زبان‌های دیگر عملا عاجز است. ماه پیش، وال‌استریت ژورنال مجموعه‌ای از این اسناد را منتشر کرد و هاگن هم نسخه‌ای از آن را به کنگره و کمیسیون بورس و اوراق بهادار (SEC) داد.

هاگن هنگام شهادت علیه فیس بوک دربرابر کنگره گفت که این اسناد ثابت می‌کند شرکت مذکور به‌طور مکرر درباره نتایج پژوهش‌هایش درخصوص امنیت کودکان و ناکارآمدی سیستم‌های مبتنی‌بر هوش مصنوعی و نقش آن در گسترش پیام‌های تفرقه‌انگیز و افراطی به مردم دروغ گفته است. به‌گفته هاگن، تمام این کاستی‌ها و مشکلات افشاشده در این اسناد حقیقت تلخ ریشه‌داری را درباره طرزکار فیس بوک برملا می‌کنند:

  • این قضیه ربطی به گروه خاصی از کاربران عصبانی و پریشان‌حال یا دعوای دو طرف باهم ندارد؛ بلکه اصل ماجرا این است که فیس بوک آگاهانه انتخاب کرده است که در هر شرایطی فقط به رشد خودش فکر کند و با هزینه‌کردن امنیت ما برای افزایش سودآوری خود، به شرکتی یک‌تریلیون‌دلاری تبدیل شود.

طبق گفته هاگن، تمرکز فیس بوک بر افزایش تعامل کاربری که درنهایت به درآمدزایی ازطریق تبلیغات و انحصار بیشتر بر فضای شبکه‌های مجازی منجر می‌شود، ممکن است کاربران را هر روز به‌سمت این پلتفرم بکشاند؛ اما درمقابل به‌طور سیستماتیک در حال ترویج محتوای تفرقه‌افکن و نادرست و پر از خشم است که کاربران را درون گودال افراطی‌گرایی سیاسی یا اختلالات خودزشت‌انگاری می‌اندازد:

  • مدیریت شرکت می‌داند چگونه فضای فیس بوک و اینستاگرام را امن‌تر کند؛ اما از اِعمال تغییرات لازم سر باز می‌زند؛ چون سود نجومی خود را به مردم ترجیح داده است.

سال گذشته، درآمد خالص فیس بوک ۲۹ میلیارد دلار گزارش شده بود که درمقایسه‌با سال قبل، ۵۸ درصد افزایش یافته است. امسال، ارزش کل بازار این شرکت برای مدت کوتاهی از مرز یک‌تریلیون دلار گذشت؛ اما افشاگری هاگن این رقم را به حدود ۹۴۰ دلار کاهش داد.

در همان هفته که هاگن در حال شهادت‌دادن علیه فیس بوک بود، سرویس‌های فیس بوک تا چند ساعت از دسترس خارج شد و نشان داد چقدر دنیا به محصولات این شرکت، ازجمله واتساپ و اینستاگرام وابسته است. این اتفاق باعث شد عده‌ای از زاویه دیگری به فیس بوک نگاه کنند و از خود بپرسند که چگونه یک شرکت توانسته است به‌ جایی برسد که چنین تأثیر عمیقی هم بر دموکراسی و هم سلامت روانی هزاران میلیون نفر در سراسر جهان بگذارد.

اسناد فیس بوک شاید داستان رسوایی جدیدی را برملا نکرده باشد؛ اما پنجره‌ای که به درون دنیای پر هرج‌ومرج و آشفته غول شبکه‌های اجتماعی باز کرده روایتگر حقایق تکان‌دهنده‌ای است؛ اینکه چگونه زاکربرگ از تمام مشکلات و آسیب‌ها آگاه بود و با‌این‌حال ترجیح داد راه‌حل‌ها و توصیه‌های پژوهشگرانش را نادیده بگیرد؛ چگونه همین کارمندان و پژوهشگران فیس بوک را با بی‌اعتقادی کامل به تأثیرگذاری مثبت این پلتفرم ترک کردند؛ و چگونه تمرکز فیس بوک بر اصل رشد در هر شرایطی بیشترین تأثیر منفی را در کشورهای در‌حال‌توسعه گذاشته است.

مرداب مشکلات فیس بوک

دسامبر ۲۰۱۹ درحالی‌که فیس بوک داشت خود را برای رویارویی با آشفتگی قریب‌الوقوع انتخابات ۲۰۲۰ آمریکا آماده می‌کرد، پستی در فروم درون‌سازمانی آن با این عنوان ظاهر شد: «ما مسئول محتوای وایرال هستیم.» نویسنده این پست نشان داد چطور الگوریتم فیس بوک به‌گونه‌ای طراحی شده تا محتوای بی‌کیفیت را وایرال کند و درپایان توصیه کرد:‌ «به‌جای بهینه‌سازی الگوریتم برای افزایش تعامل و بعد تلاش برای حذف تجربیات بد، بهتر است آن را از همان اول فقط برای ترویج تجربیات خوب بهینه‌سازی کنیم.»

اگرچه این توصیه بدیهی است، فیس بوک تمایلی به عمل‌کردن به آن نداشت و این موضوع در سراسر اسناد فیس بوک به‌چشم می‌خورد. در این اسناد، می‌بینیم که خود کارکنان فیس بوک نیز از الگوریتم‌های این پلتفرم دل خوشی ندارند و معتقدند این الگوریتم‌ها به ترویج محتوای زرد و تَله‌کلیک و پر از خشم و نفرت کمک می‌کنند. همچنین، سیستم‌های نظارت بر محتوای فیس بوک نیز برای حذف مطالب مضر کارایی لازم را ندارند.

نکته جالب اینکه این اسناد علاوه‌بر دست‌گذاشتن روی ضعف‌ها و کاستی‌های فیس بوک، برای بهبود این پلتفرم راه‌حل‌های عملی خوبی نیز پیشنهاد کرده بودند؛ راه‌حل‌هایی که اگر زاکربرگ روزی تصمیم بگیرد به آن‌ها عمل کند، شاید بتواند این شرکت را از مردابی که در آن گیر افتاده است، نجات دهد. باوجوداین، واقعیت این است که کمتر کسی به بهبودی فیس بوک تا زمانی که زاکربرگ چنین تمامیت‌خواهانه در رأس قدرت است، چشم امید دارد.

در این اسناد، مشخص شد بزرگ‌ترین مشکلی که پژوهشگران در سازوکار فیس بوک پیدا کرده بودند، اولویت‌دادن افزایش تعامل کاربری به هر قیمتی است؛ حتی اگر هیچ ارزش مثبتی در این افزایش تعامل دنبال نشود.

در پستی که سال ۲۰۱۹ در فروم درون‌سازمانی فیس بوک منتشر شده بود، یکی از کارکنان پیشنهاد داده بود که اگر ایجاد تغییری در محصول (مانند تبلیغ برای وایرال‌کردن آن) باعث افزایش آسیب‌های شدیدی شود که اندازه‌گیری‌کردنی است (مثل اطلاعات نادرست یا محتوای نفرت‌پراکنانه)، بهتر است درباره ایجاد این تغییر تجدیدنظر کرد؛ اما فیس بوک به‌جای عمل‌کردن به این توصیه، این موضوع را به کل رد کرد. کورین مک‌آلیستر، سخن‌گوی این شرکت، در ایمیلی گفت:

  • در مرکز این تمام داستان‌ها، فرضی وجود دارد که نادرست است. بله، ما کسب‌و‌کار هستیم و از آن سود به‌دست می‌آوریم؛ اما تصور اینکه این کار را به بهای امنیت یا رفاه مردم انجام می‌دهیم، دربردارنده درک درستی از منافع تجاری‌مان نیست. حقیقت این است که ما ۱۳ میلیارد دلار هزینه کرده‌ایم و بیش از ۴۰ هزار نفر را به انجام یک کار گماشته‌ایم و آن حفظ امنیت مردم در فیس بوک است.

مشکل دیگر به هوش مصنوعی فیس بوک مربوط است که در تعامل با الگوریتم‌های ارزش‌گذاری محتوای فیس بوک کارایی لازم را ندارد. این الگوریتم‌ها به محتوایی ارزش می‌دهند که بیشتر دیده‌ و به‌اشتراک‌ گذاشته شده و لایک و دیدگاه گرفته است؛ اما موضوع این است که موضوعی اغلب مدنظر کاربران قرار می‌گیرد که خشمشان را برانگیزد یا آن‌ها را گمراه کند. به‌همین‌دلیل، محتوای بی‌کیفیت و تفرقه‌افکن بیشترین بازخورد را در فیس بوک دارد و به‌سرعت وایرال می‌شود.

فیس بوک باید محتوا را براساس کیفیت ارزش‌گذاری کند، نه تعامل کاربری

زاکربرگ هم به‌جای بهینه‌سازی سازوکار افزایش تعامل، از ترکیب گروهی ناظر انسانی و یادگیری ماشین کمک گرفته است. اگرچه این ابزار هوش مصنوعی در نوع خود بهترین هستند، نتایج به‌دست‌آمده از کارایی آن‌ها به‌هیچ‌وجه رضایت‌بخش نبوده است.

براساس اسناد فاش‌شده، گزارشی در آوریل ۲۰۲۰ نشان داد که تنها ۱۹ درصد محتوای حاوی خشونت و ۱۷ درصد محتوای حاوی تصاویر مستهجن و تنها ۱ درصد محتوای نفرت‌پراکن به‌کمک هوش مصنوعی فیس بوک حذف شده است.

برای حل این مشکل، هاگن پیشنهاد داد سیستم ارزش‌گذاری به‌ترتیب زمانی باشد. پژوهشگر دیگری در سال ۲۰۱۹ پیشنهاد داده بود که محتوا براساس کیفیت ارزش‌گذاری شود؛ دقیقا شبیه کاری که گوگل برای ترتیب نمایش وب‌سایت‌ها در موتور جست‌وجوی خود انجام می‌دهد. باوجوداین، فیس بوک هیچ اهمیتی به نتایج این گزارش‌ها و پیشنهادها نداد.

گفتنی است فیس بوک برای حفظ امنیت کاربران غیرانگلیسی‌زبان هیچ هزینه‌ای نکرده است و برای مثال، تنها ۰٫۲ درصد محتوای نفرت‌پراکن برای کاربران افغان حذف شده است. برای نظارت بر محتوای عربی، سومین زبان پرکاربرد بین کاربران فیس بوک، نیز هیچ تیم ناظری استخدام نشده است که به یکی از گویش‌های اصلی این زبان مسلط باشد. در این اسناد، آمده است شرکتی که وعده داده کل دنیا را به‌هم متصل کند، نباید در بازاری جایی داشته باشد که نمی‌تواند حداقل‌های نظارت بر کیفیت محتوا را برای تمام کاربرانش ارائه دهد.

مشکل بزرگ دیگری که چند وقتی است گریبان‌گیر فیس بوک شده، کم‌توجهی کاربران جوان به این پلتفرم است. تیمی از دانشمندان داده در پرزنتیشنی که در ساختمان فیس بوک در مارس گذشته ارائه داده بودند، اظهار کردند:

  • بیشتر جوانان فیس بوک را جایی برای افراد ۴۰ تا ۵۰ ساله می‌دانند. از دیدگاه آن‌ها، محتوای فیس بوک خسته‌کننده و گمراه‌کننده و منفی است. آن‌ها اغلب باید از محتوای نامربوط رد شوند تا به محتوای مدنظرشان برسند. این کاربران جوان درباره فیس بوک نظرهای منفی زیادی دارند که شامل دغدغه‌های حریم شخصی و سلامت روانی و آگاهی پایین از سرویس‌های مرتبط می‌شود.

طبق این گزارش‌ها، ثبت‌نام کاربران کوچک‌تر از ۱۸ سال در فیس بوک در پنج کشوری که بیشتری کاربر فیس بوک را دارد، درمقایسه‌با سال گذشته ۲۶ درصد کاهش یافته است. افزون‌براین، آن دسته از کاربران نوجوانی که از قبل عضو فیس بوک بوده‌‌اند، درمقایسه‌با گروه‌های سنی مسن‌تر تعامل کمتری با محتوای این پلتفرم داشته‌اند. پیام‌های ارسال‌شده نوجوانان ۱۶ درصد از سال گذشته کمتر شده بود و تکان‌دهنده‌تر از این آمار مدت زمانی که کاربران جوان در آمریکا در فیس بوک گذرانده بودند، حتی از زمان قبل از همه‌گیری کرونا کمتر شده است؛ یعنی زمانی که باعث افزایش موقتی استفاده از سرویس‌های فیس بوک شده بود.

حالا که کاربران جوان به‌سمت تیک‌تاک و پلتفرم‌های گیمینگ اجتماعی و بازی‌هایی، چون فورتنایت و روبلاکس روی آورده‌اند، محبوبیت فیس بوک هر روز کم‌رنگ‌تر می‌شود. در این دنیاهای سه‌بعدی که افراد جوان می‌توانند با ظاهری مطابق میلشان ظاهر شوند و دیگر دغدغه‌‌ای از قضاوت دیگران نداشته باشند، فیس بوک قدرتی برای رقابت ندارد و شاید به‌همین‌دلیل این شرکت حالا تمام توجهش را بر متاورس متمرکز کرده تا شاید نسل کاربران جوان ازدست‌رفته را بازیابد.

ماجرای «بَج پست‌»های فیس بوک

  • سلام به همه. جمعه آخرین روز کاری من در فیس بوک است. از اینکه می‌روم، ناراحتم. فکر نمی‌کنم هیچ‌وقت شغلی به این خوبی گیرم بیاید… متأسفانه وجدانم اجازه نمی‌دهد اینجا بمانم: ۱. فکر می‌کنم فیس بوک احتمالا بر سیاست کشورهای غربی تأثیری منفی می‌گذارد؛ ۲. فکر نمی‌کنم مدیریت واقعا نیت کرده تا این مشکل را برطرف کند؛ ۳. فکر نمی‌کنم با ماندنم بتوانم اوضاع را به‌طور درخورتوجهی تغییر دهم.

این یادداشتی است که یکی از کارمندان فیس بوک پیش از رفتنش در دسامبر ۲۰۲۰ در سیستم درون‌سازمانی این شرکت پست کرده بود؛ یادداشتی که در شرکت فیس بوک به «بَج پست» (badge post) معروف است و به بج یا همان کارت پرسنلی اشاره می‌کند که هر کارمند فیس بوک موقع استخدام دریافت می‌کند و با‌ آن وارد ساختمان‌های این شرکت و دنیای زاکربرگ می‌شود. هر وقت کارمندان از فیس بوک می‌روند، رسم دارند که یک «بج پست»‌ به‌عنوان یادگاری بنویسند.

«ما به‌طور آگاهانه کاربران را در معرض آسیب‌های غیراخلاقی قرار می‌دهیم.»

این جمله هم از بج پستی بود که یکی از متشخص‌ترین پژوهشگران فیس بوک و متخصص در زمینه نظارت بر محتوای سیاسی و اطلاعات نادرست در سال ۲۰۲۰ نوشته بود و از بین صدها ورق «اسناد فیس بوک» به‌دست آمده است. این پژوهشگر با اشاره به اینکه بین سال‌های ۲۰۱۶ و ۲۰۱۸ فیس بوک تأثیری منفی بر گفتمان سیاسی گذاشته است، این‌طور نتیجه‌گیری کرد که فیس بوک می‌توانست عملکردش را با ارزش‌گذاری محتوا براساس کیفیت بهبود بخشد؛ اما از ترس فشار عمومی این کار را نکرد.

پژوهشگرانی که در تألیف اسناد فیس بوک ایفای نقش کردند، اهمیت زیادی برای کاربران این پلتفرم قائل و معتقد بودند کاری که در این شرکت انجام می‌دادند، اهمیت زیادی دارد. با‌این‌حال، از نتیجه تلاش‌هایشان ناامید شدند و احساس می‌کردند مدیریت از آن‌ها پشتیبانی نمی‌کند. در بج پست دیگری آمده بود:‌

  • فکر می‌کنم اصول اخلاقی و راست‌کرداری در فیس بوک بسیار پراهمیت است و برای افراد فعال در این زمینه احترام زیادی قائلم؛ اما حقیقت این است که مطمئن نیستم فیس بوک باید وجود داشته باشد.

به‌گفته کارمند دیگری که فیس بوک را ترک کرده است، ایجاد تغییری که امنیت کاربر را به سودآوری شرکت ترجیح دهد، نیازمند تأیید چندین دپارتمان است؛ اما تنها یک جواب رد کافی است تا جلوِ این تغییر گرفته شود.

کارمندانی که پیش از ترک فیس بوک نارضایتی‌شان را در بج پست‌ها آشکار کرده بودند، می‌پرسیدند چرا بعد از مشخص‌شدن نتایج این پژوهش‌ها، اولویت اول شرکت تلاش برای برطرف‌کردن مشکلات نبوده است و چرا شرکتی که میلیاردها دلار برای امنیت هزینه می‌کند، هیچ‌گاه به امنیت کاربران در کشورهای غیرانگلیسی‌زبان اهمیتی نداده است.

فیس بوک و متاورس

با پایان‌یافتن ماه ژوئن، مارک زاکربرگ کارمندانش را جمع کرد تا با آنان درباره ایده‌ بلندپروازانه‌ای صحبت کند. او گفت آینده فیس بوک قرار است از پروژه فعلی ساخت مجموعه‌ای از اپلیکیشن‌های اجتماعی به‌هم متصل و سخت‌افزاری برای پشتیبانی از آن‌ها بسیار فراتر برود و حالا قرار است منابعش را برای ساخت دنیای علمی‌تخیلی «متاورس» متمرکز کند.

حال، متاورس دقیقا چیست؟ متاورس (metaverse) که از ترکیب دو کلمه meta و universe به‌معنی «فراتر از جهان»‌ تشکیل شده، ایده جدیدی نیست و تاریخچه اولین استفاده از آن به دهه ۱۹۹۰ برمی‌گردد؛ اما تا پیش از گفت‌وگوی زاکربرگ با Verge درباره برنامه‌های جدید این شرکت برای تبدیل‌شدن به «کمپانی متاورسی»، کمتر رسانه‌ای درباره آن حرف می‌زد.

اصطلاح متاورس برای اولین‌بار در کتاب علمی‌تخیلی «سقوط برفی» (Snow Crash) نوشته نیل استفنسون در سال ۱۹۹۲ به‌کار برده شد. این نویسنده آمریکایی از واژه متاورس برای توصیف جامعه‌ای دیستوپیایی استفاده کرده بود که در آن افراد برای فرار از دنیای واقعی و در حال ویرانی، به دنیایی مجازی پناه می‌برند و در قالب آواتار با دیگران معاشرت و خرید می‌کردند و حتی با دشمنان دنیای واقعی خود درگیر می‌شدند.

اگر این توصیفات شما را به یاد فیلم «بازیکن شماره ۱ آماده» یا بازی‌های ویدئویی نظیر روبلاکس و فورتنایت و انیمال کراسینگ انداخته است،‌ در مسیر درستی قرار گرفته‌اید؛ چرا‌که از نظر بسیاری، بازی‌های ویدئویی که در آن‌ها فرد می‌تواند به‌شکل آواتار با گیمرهای دیگر در تعامل باشد، پیش‌گامان متاورس هستند.

متاورس شبیه‌ترین چیزی است که می‌توان به دستگاه تله‌پورت ریک داشت

به‌طورکلی، متاورس قرار است نوعی واقعیت دیجیتال جایگزین باشد که افراد در آن کار، بازی، تحصیل، خرید و معاشرت می‌کنند و دیگر به اتصال به اینترنت نیازی ندارند؛ چراکه همیشه در این دنیا «آنلاین» هستند و می‌توانند دارایی‌های دیجیتالشان را از پلتفرمی به پلتفرم دیگر منتقل کنند. متاورس معمولا با آواتارها و هدست‌های واقعیت مجازی و افزوده شناخته می‌شود و به‌اعتقاد بسیاری، نسل بعدی اینترنت خواهد بود.

در نگاه زاکربرگ، متاورس شبیه‌ترین چیزی است که می‌توان به دستگاه تله‌پورت داشت؛ از آن نوعی که ریک برای جا‌به‌جایی سریع بین دنیاهای مختلف استفاده می‌کند. بخش فیس بوک ریلتی لبز (Facebook Reality Labs) این شرکت که مسئول طراحی و ساخت سخت‌افزار، نرم‌افزار، محتوای واقعیت مجازی و واقعیت افزوده ازجمله هدست Quest است، می‌تواند در مسیر تحقق این رؤیا پیش قدم باشد. درواقع فیس بوک، تنها در سال جاری حداقل ۱۰ میلیارد دلار در این بخش هزینه کرده و قرار است در آینده بزرگ‌ترین بازوی فیس بوک شود.

زاکربرگ در توضیح بیشتر درباره متاورس گفت:‌

  • متاورس فقط واقعیت مجازی نیست. اگرچه واقعیت مجازی بخش مهمی از آن است و تکنولوژی مربوط به آن نزدیک‌ترین تجربه حضور را ممکن می‌کند، قرار است در تمام پلتفرم‌های رایانشی ما، از واقعیت مجازی و افزوده گرفته تا کامپیوترها و گوشی‌ها و حتی کنسول‌های بازی را شامل شود.
  • بسیاری از مردم نیز فکر می‌کنند متاورس در درجه اول مربوط به بازی است و اگرچه سرگرمی قرار است بخش بزرگی از این دنیا باشد، تمام جنبه‌های آن را دربر نمی‌گیرد. از دید من، متاورس محیطی پایدار است که می‌توانیم به‌طور هم‌زمان در آن حضور داشته باشیم و احتمالا ترکیبی از شبکه‌های اجتماعی کنونی است، با این تفاوت که این بار خود ما در آن حضور داریم.

زاکربرگ جای دیگری گفته بود که شرکتش قرار است به‌جای تمرکز بر فیس بوک روی متاورس متمرکز شود و چند روز پیش در رویداد کانکت و در اقدامی جنجالی، نام جدید شرکت را رونمایی کرد: متا (Meta).

برنامه‌های زاکربرگ برای تغییر برند فیس بوک از شش ماه پیش کاملا محرمانه بوده است؛ اما با‌‌توجه‌‌‌به صحبت‌های مکررش درباره متاورس، بعید می‌دانم کسی از شنیدن نام «متا»‌ تعجب کرده باشد. زاکربرگ گفت از زمان خرید اینستاگرام و واتساپ در سال‌های ۲۰۱۲ و ۲۰۱۴، به تغییر نام شرکت فکر می‌کرده است؛ اما اوایل امسال بود که به این نتیجه رسید وقت تغییر برند فرارسیده است. او درباره انگیزه‌اش به تغییر نام فیس بوک گفت یکی بودن نام برند شرکت با نام یکی از اپلیکیشن‌های شبکه اجتماعی‌اش، سردرگمی زیادی ایجاد کرده بود.

برنامه‌های «متا» برای محقق‌کردن متاورس

زاکربرگ معتقد است تا ده سال آینده، اکثر مردم وقتشان را در نسخه‌ای سه‌بعدی از اینترنت سپری خواهند کرد که نه‌تنها شامل استفاده از سخت‌افزارهای ساخت شرکت «متا» مثل هدست واقعیت مجازی کوئست می‌شود؛ بلکه انواع دستگاه‌های ساخت شرکت‌های دیگر را نیز دربر‌ می‌گیرد.

زاکربرگ حالا تیم‌های مختلف «متا»‌ را موظف کرده تا به توسعه نوعی تکنولوژی مشغول شوند که به‌کمک آن روزی بتوانیم در قالب آواتاری تمام‌قد یا هولوگرام در اتاق نشیمن خانه دوستمان در دنیای واقعی که آن سر کره زمین زندگی می‌کند، ظاهر شویم و با او شطرنج بازی کنیم.

نرم‌افزاری که زیربنای تصور زاکربرگ از متاورس را تشکیل می‌دهد، «هورایزن» (Horizon) نام دارد که انگار ترکیبی از بازی ماینکرفت و روبلاکس است؛ اما برای همکاری تیمی کاربرد دارد. سال آینده، این شرکت قصد دارد Project Cambria را معرفی کند که هدستی بالارده است و تصاویر مجازی را به‌صورت تمام‌رنگی با دنیای واقعی ترکیب می‌کند. این هدست حرکات چشم و چهره را نیز دنبال می‌کند تا آواتاری واقعی‌تر ارائه دهد.

زمان تغییر برند فیس بوک بسیار مشکوک است

همچنین، شرکت زاکربرگ مشغول کار روی عینک واقعیت افزوده به نام Nazaré است. این مدل عینک‌ها اگرچه چندین سال است که در دست تولیدند، به‌باور زاکربرگ این قابلیت را دارند تا روزی به‌اندازه گوشی‌های هوشمند، محبوب و پرکاربرد شوند.

ایده‌ای که زاکربرگ برای ساخت این عینک دارد، آن است برخلاف هدست واقعیت مجازی که کاربر را از دنیای واقعی بیرون می‌آورد، Nazaré شبیه یک جفت عینک معمولی است که لنزهای آن قادرند دنیای کامپیوترها را روی دنیای اطراف ما بازتاب دهند؛ چیزی شبیه عینک‌ ARI کاراکتر نورمن جیدن در بازی Heavy Rain که به‌کمک آن می‌توانست ظاهر محیط کارش را تغییر دهد وبه‌جای زل‌زدن به دیوارهای بی‌رنگ‌ورو و کسالت‌بار، خود را وسط جنگل یا حتی سیاره مریخ تصور کند.

زاکربرگ مالک نام کاربری meta@ در توییتر و وب‌سایت meta.com است که نشان می‌دهد برنامه‌هایش برای پیش‌قدم‌شدن در مسیر تحقق دنیای آوارتاها و نسل بعدی اینترنت بسیار جدی است.

با‌این‌حال، زاکربرگ به‌خوبی می‌داند زمانی که برای تغییر برند انتخاب کرده، بسیار مشکوک است. در چند هفته گذشته به‌لطف افشای «اسناد فیس بوک»، این شرکت با موجی از انتقادات بی‌وقفه مواجه شده و به‌جرئت می‌توان گفت در‌حال‌حاضر، هیچ شرکتی به‌اندازه فیس بوک زیر ذره‌بین رسانه‌ها قرار ندارد و نام تجاری‌اش در نگاه کاربران جوان اعتبار خود را از دست داده است. با این شرایط، عجیب نیست که به‌باور بسیاری از منتقدان، فاصله‌گرفتن زاکربرگ و شرکتش از برند بدنام فیس بوک احتمالا تاکتیکی برای فرار از گذشته‌ تاریکش است.

برخی از کاربران هم احتمالا با شنیدن اینکه زاکربرگ به فکر ساخت متاورس افتاده، آرزو می‌کنند که ای‌کاش این‌طور نبود و مالک یکی از پلتفرم‌های بدنام شبکه اجتماعی دست از سر نسل بعدی اینترنت بر‌می‌داشت. از دیدگاه این کاربران، فیس بوک وقتی تنها در دو بُعد فعالیت می‌کرد، به‌خوبی اداره نمی‌شد؛ حالا چگونه می‌خواهد ازپسِ فعالیت در دنیای سه‌بعدی برآید؟

آینده فیس بوک هرچه باشد، واضح است که در این مقطع زمانی با مشکلات داخلی زیادی دست‌وپنجه نرم می‌کند. هاگن درحالی‌که علیه فیس بوک شهادت می‌داد، از کنگره خواست قوانینی تصویب کند که به‌موجب آن‌ها این شرکت و دیگر پلتفرم‌های رسانه‌های اجتماعی درقبال تصمیماتی که برای ارزش‌گذاری محتوای نمایش داده‌شده در فید کاربران می‌گیرند، دربرابر قانون جواب‌گو باشند.

علاوه‌بر‌این، شرکت‌ها را باید وادار کرد داده‌های به‌دست‌آمده از پژوهش‌های درون‌سازمانی‌شان را دردسترس پژوهشگران مستقل قرار دهند. همچنین، هاگن از کنگره تقاضا کرد راهی برای کاهش نفوذ مارک زاکربرگ بر فیس بوک پیدا کند؛ زیرا او بیش از نیمی از حق رأی هیئت‌مدیره را دراختیار دارد و می‌تواند هر پیشنهادی برای بهبود داخلی را وتو کند.

با ورود زاکربرگ به متاورس، دامنه این کنترل از این هم فراتر خواهد رفت و احتمالا دیگر لازم نیست قدرتش را با سازندگان گوشی‌های هوشمند سرکشی، همچون اپل و قوانین سخت‌گیرانه حفاظت از داده آن‌ها شریک شود. از دیدگاهی بدبینانه،‌ شرکت Meta کنترل همه‌چیز را در این دنیای مجازی به‌دست خواهد گرفت و سپردن چنین قدرتی نیازمند اعتماد است

/زومیت/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

جایزه همراه اول