فیسبوک؛الگوریتم پولساز و خطرناک
مجازیست–شناسایی اخبار جعلی و مطالب مبتنی بر ترویج نفرت یا خشونت در پلتفرمهایی که میلیونها کاربر دارند، اصلا کار سادهای نیست. این پلتفرمها معمولا ترکیبی از شیوههای خودکار و دستی را برای حذف این پستها به کار میگیرند. در شیوه خودکار، الگوریتمهای هوش مصنوعی به شناسایی اولیه این مطالب میپردازند و برخی از آنها را به صورت خودکار حذف میکنند. همچنین تیمی از کارشناسان نیز بر این کار نظارت کرده و حذف برخی دیگر از پستها را انجام میدهند.
از سوی دیگر، گزارشهای دریافتی از سوی کاربران نیز در این میان به کمک این پلتفرمها میآید و فرآیند شناسایی و حذف این پستها را سادهتر میکند.
با این وجود، به نظر میرسد پلتفرمهای شرکت فیس بوک (شامل فیس بوک و اینستاگرام) از کارایی مورد انتظار در این زمینه برخوردار نیستند. آنچه بیشتر موجب نگرانی میشود این است که بهتازگی اسنادی منتشر شده که نشان میدهد مدیران این شرکت، از این کارایی پایین الگوریتم استقبال هم میکنند، زیرا پستهای جنجالی و خلاف مقررات پلتفرم، بازدیدکننده بیشتری دارند و در نهایت به بالا رفتن سودآوری شرکت میانجامند.
ماجرای این پرونده فیس بوک با مصاحبه جنجالی فرانسیس هاگن با یک شبکه تلویزیونی آغاز شد
کارمندی که از فیس بوک افشاگری میکند
فرانسیس هاگن در سال ۲۰۱۹ به فیس بوک پیوست. او کارش را در بخش امور مربوط به اطلاعات نادرست و دموکراسی در این پلتفرم آغاز کرد و همزمان مدیریت بخش فعالیتهای مرتبط با شنود دسترسی غیرمجاز به دادههای کاربران را نیز در دست گرفت. او به عنوان مدیر محصول فیس بوک به ادامه کار پرداخت و در ماه می امسال نیز این شرکت را ترک کرد.
فرانسیس هاگن پس از ترک فیس بوک، هزاران برگ از اسناد داخلی فیس بوک را به بنیانگذار یک موسسه حمایت از افشاگران در ایالات متحده تحویل داد و درخواست کرد تحت پوشش حمایتی دولت قرار گیرد. گفتنی است بر اساس قوانین ایالات متحده، امنیت افرادی که دست به افشاگری سوءاستفادههای مختلف میزنند، توسط دولت تامین خواهد شد.
اما این اسناد چه بودند؟ فرانسیس هاگن اطلاعات مختلف از مطالعات صورتگرفته در این شرکت، نامههای درونسازمانی و حتی فایلهای ارائه پاورپوینت را که به طرحهای جدید یا بررسی مشکلات مختلف اختصاص داشت، در اختیار این سازمان حامی افشاگری قرار داد.
البته اقدامات او به همین جا ختم نشد. او شکایتی را نیز تحویل کمیسیون اوراق بهادار و بورس (SEC) ایالات متحده داد. بر اساس قانون، همه شرکتهای حاضر در بورس، باید برخی اطلاعات مشخص درباره عملکرد خود را به صورت عمومی اعلام کنند و البته حق ندارند اقدامی خلاف این سیاستهای اعلامی انجام دهند. فرانسیس هاگن میگوید بسیاری از اقدامات فیس بوک در تضاد با این سیاستهای عمومی اعلام شده است.
برای نمونه، فیس بوک در چندین بیانیه رسمی اعلام کرده بود که فیس بوک با نشر اطلاعات نادرست در زمان انتخابات اخیر ریاست جمهوری ایالات متحده و نیز حمله به ساختمان کنگره مقابله کرده است. اما پشت پرده، ظاهرا خبرهای دیگری بود!
خانم هاگن میگوید مدیران فیس بوک بهخوبی از این نکته آگاه بودند که الگوریتمها و پلتفرمهایشان به شکلی است که اتفاقا موجب بالا آمدن چنین مطالبی در جستجوها و نیز فید کاربران میشود. با این وجود، این شرکت هیچ اقدامی برای رفع این مشکل یا حتی کاهش آن انجام نداد.
اما چرا فیس بوک در چنین موقعیتی، دست روی دست گذاشت و هیچ کاری انجام نداد؟ پاسخ را احتمالا باید در منافع مادی این شرکت جست. خانم هاگن میگوید محتواها با محوریت اخبار جعلی و نیز ترویجکننده خشونت یا نفرت معمولا موجب جذب بیشتر مخاطب شده که البته این جذابیت به استفاده بیشتر از پلتفرمهای فیس بوک و در نهایت، درآمدزایی بیشتر برای این شرکت منجر میشود.
این افشاگر در اولین مصاحبه خود در یک برنامه تلویزیونی گفت: «بررسیهای دقیق خودِ فیس بوک نشان میدهد محتواها با محوریت نفرت، تفرقه و چنددستگی میتوانند مخاطب را هیجانزده و خشمگین کند. فیس بوک به این نتیجه رسیده که اگر الگوریتمش را به شکلی تنظیم کند که چنین محتواهایی نمایش داده نشود، مردم نیز وقت کمتری را در این پلتفرم صرف خواهند کرد، کمتر روی تبلیغات کلیک میکنند و شرکت نیز پول کمتری به دست میآورد.»
واکنش فیس بوک به افشاگری فرانسیس هاگن
پس از پخش این مصاحبه، چند نفر از مدیران فیس بوک به آن واکنش نشان دادند. معاون سیاستگذاری و امور بینالملل فیس بوک، موارد مطرحشده از سوی فرانسیس هاگن را «گمراهکننده» خواند و گفت که فیس بوک مجموعهای از صفات خوب و بد انسانی را در خود دارد و البته میکوشد ویژگیهای بد خود را کم کرده و ویژگیهای خوب را تقویت کند. او همچنین اعلام کرد که سرزنشکردن فیس بوک به خاطر ماجرای حمله به ساختمان کنگره ایالات متحده، از اساس نادرست است.
سخنگوی فیس بوک نیز گفت که این شرکت، سرمایهگذاری زیادی برای حفظ ایمنی و مبارزه با محتواها با محوریت تنفر یا خشونت انجام داده است و اینکه فیس بوک نسبت به این موضوع بیاعتناست، درست نیست.
فرانسیس هاگن در بخش پایانی این مصاحبه نیز حرفهای جالبی زد. او گفت که هدفش از این افشاگری، به زیر کشیدن و نابودی فیس بوک نیست، بلکه میخواهد به رفع این ایرادات کمک کند. از نظر این کارمند سابق فیس بوک، شفافیت و نیز مدیریت درست امور، مسیری است که فیس بوک باید در پیش گیرد.
امتیاز ویژه برای افراد خاص
چند هفته پیش، نشریه وال استریت ژورنال گزارشی از وجود سازوکاری در فیس بوک خبر داد که بین کاربران عادی و کاربران خاص (مثل سیاستمداران و چهرههای سرشناس) تبعیض قائل شده و رویکرد متفاوتی را در برابر این دو گروه در پیش میگیرد.
سالهاست که فیس بوک، سیاستی خاص را در برابر صفحات افراد مشهور دنبال میکند. با این حال، تا همین اواخر، کمتر کسی از جزئیات این سیاست اطلاع داشت. برخی کارشناسان فکر میکردند که این سیاست فقط به پایش بیشتر حسابهای افراد مشهور یا رسیدگی سریعتر به تخلفات آنها خلاصه میشود.
اما گزارش اخیر نشان میدهد که سیاست اجرایی فیس بوک در برابر اشخاص سرشناس، نهتنها از رویکردش در برابر کاربران عادی متفاوت است، بلکه بهشدت جنبه تبعیضآمیز دارد.
بر اساس این گزارش، فیس بوک سازوکاری با عنوان «کراسچک» (XCheck) دارد. این سیاست به طور خاص برای رسیدگی به تخلفات افراد سرشناس طراحی شده و ظاهرا هدفش نیز جلب نظر مثبت این افراد (و نه پیروی از قوانین کلی پلتفرم) است.
بر اساس قوانین پلتفرم فیس بوک، گزارش تخلف یک کاربر، برای مجموعهای از کاربران ناظر ارسال میشود. این کاربران که هیچکدام از آنها کارمند فیس بوک نیستند، اقدام به بررسی گزارش تخلف کرده و در صورت قطعیبودن تخلف، اقدام لازم را بر اساس مقررات این پلتفرم انجام میدهند.
اما بر اساس سازوکار «کراسچک» تخلفات افراد سرشناس، به این کاربران ناظر ارسال نمیشود و در مقابل، تیمی از کارکنان فیس بوک به بررسی آن میپردازند.
تا اینجای کار را شاید بتوان با این منطق توجیه کرد که خطای کاربران ناظر ممکن است برای فیس بوک گران تمام شود و در نتیجه، نیاز به سازوکاری متفاوت برای بررسی گزارش تخلف افراد سرشناس وجود دارد.
البته بررسیهای بیشتر نشان میدهد بیشتر گزارشهایی که تاکنون از صفحات افراد مشهور به دست فیس بوک رسیده، با بیاعتنایی رد میشود؛ هر چند که برخی از آنها نقض آشکار مقررات اعلامی از سوی این پلتفرم هستند.
برای نمونه، نیمار (فوتبالیست مشهور برزیلی) تصاویری نامتعارف از فردی که او را به رفتارهای خلاف اخلاق متهم کرده بود، در صفحه شخصی خود منتشر کرد. این تصاویر جزو موارد تخلف اعلامشده از سوی فیس بوک بود. با این وجود، کارکنان فیس بوک با تاخیر پس از اینکه ۶۰ میلیون نفر این تصاویر را دیدند، اقدام به حذف این تصاویر کرد. حال آنکه اگر این تخلف از سوی یک کاربر عادی سر میزد، علاوه بر حذف آن پست، حساب کاربری فرد منتشرکننده نیز از سوی فیس بوک بسته میشد.
آنچه در این میان نگرانکننده است، روشن نبودن جزئیات برنامه «کراسچک» است. هنوز مشخص نیست کراسچک از چه مقرراتی برای پایش گزارشهای تخلف مربوط به حساب کاربری افراد سرشناس بهره میبرد و فیس بوک نیز ظاهرا علاقهای به افشای جزئیات این برنامه ندارد.
پس از انتشار این گزارش در وال استریت ژورنال، فیس بوک بلافاصله به آن واکنش داد و اعلام کرد که این گزارش بر اساس آنچه خودش «اطلاعات قدیمی و بهروز نشده» میخواند تهیه شده است. این شرکت گفت که همواره به دنبال بهبود عملکرد برنامه «کراسچک» بوده، ولی گاهی اوقات، کارکنانش هنگام بررسی گزارشها نمیتوانند سرعت و دقت لازم را به صورت همزمان داشته باشند.
اما روشن نشدن جزئیات این برنامه از سوی یک شرکت حاضر در بورس ایالات متحده میتواند نوعی «پنهانکاری» تلقی شود که البته از نظر قانونی نوعی تخلف به شمار میرود.
داستان یک الگوریتم
فرانسیس هاگن از تخصص فنی بالایی درباره الگوریتمهای هوش مصنوعی برخوردار است و به عنوان مدیر پروژه برای شرکتهای مختلفی مثل گوگل، پینترست و پیپل به فعالیت پرداخته است.
او در جلسه استماع این پرونده در کنگره ایالات متحده گفت: «برای ۴ شبکه اجتماعی مختلف کار کردهام و با پیچیدگیهای این نوع مسائل آشنا هستم. اما انتخابهایی که درون فیس بوک صورت میگیرد، به معنای واقعی برای بچهها، ایمنی عمومی، حریم خصوصی و دموکراسی زیانبار است. به همین دلیل است که باید از فیس بوک بخواهیم تغییراتی را صورت دهد.»
فرانسیس هاگن میگوید الگوریتم کنونی فیس بوک به شکلی است که موجب شکلگیری تعاملات معنادار اجتماعی (MSI) میشود که همین ویژگی میتواند خطرناک باشد. این ویژگی از سال ۲۰۱۸ در الگوریتم خبرخوان (نیوز فید) فیس بوک قرار گرفت و بر اساس آن، مطالبی که بیشترین تعامل (نظیر لایک یا کامنت) را از سوی دیگر دوستان یا افراد خانواده یک کاربر دریافت میکند، بیشتر برای او نشان داده میشود.
اما بر اساس اسنادی که فرانسیس هاگن به دست آورده، کارشناسان تحلیل داده نگران این مسئله هستند که این الگو موجب شکلگیری سوگیری و اثراتی منفی بر برخی محتواهای منتشر شده، به ویژه اخبار و نیز مطالب سیاسی شود.
فیس بوک همچنین از یک الگوریتم رتبهبندی مطالب بر اساس میزان علاقه کاربر استفاده میکند. این الگوریتم محتواهایی که بیشتر برای هر کاربر جذابیت دارد را به او نشان میدهد. مشکل اینجاست که اخبار نادرست، مطالب جعلی و نیز حاوی خشونت یا نفرت معمولا موجب برانگیختهشدن هیجانات بسیاری از کاربران میشود و در نتیجه، امکان بالا رفتن آنها در این ردهبندی و نمایش بیشتر آنها برای سایر کاربران فراهم میشود.
فرانسیس هاگن میگوید بیش از ۱۰سال در زمینه الگوریتمهای مرتبط با ردهبندی محتوا بر اساس علاقه کاربر فعالیت کرده و نگرانیهایی که در این زمینه بیان میکند، حاصل این یک دهه تجربه است.
این کارمند سابق فیس بوک عضو یک کارگروه ویژه در این شرکت بود که پیش از برگزاری انتخابات ریاستجمهوری ۲۰۲۰ ایالات متحده به منظور جلوگیری از نشر اخبار جعلی در فیس بوک شکل گرفت. اما این کارگروه بلافاصله پس از برگزاری انتخابات منحل شد. البته اتفاقات روز ششم ژانویه (حمله به ساختمان کنگره) سبب شد دوباره این کارگروه احیا شود.
هاگن میگوید فیس بوک به این دلیل این کارگروه را منحل کرد که میخواست دوباره وضعیت خطرناک گذشته را از سر بگیرد. در واقع، هیجانات بیشتر کاربران به دلیل نشر اخبار و مطالب نادرست و مبتنی بر خشونت یا نفرت در نهایت موجب جذب بیشتر کاربران و البته درآمدزایی بیشتر برای فیس بوک میشود.
او تاکید میکند که این شرکت دوراهی نادرست را در برابر خودش میبیند که یکی تداوم استفاده از الگوریتمهای مشکلدار که تضمینکننده رشد و سودآوری شرکت هستند و دیگری هم در پیش گرفتن شیوههایی برای مهار مطالب نادرست است که افول شرکت را به همراه دارد. او میگوید که فیس بوک برداشت اشتباهی از موضوع دارد، زیرا دقت بیشتر به تدابیر لازم برای حفظ سلامت مطالب منتشرشده و نیز نظارت پژوهشگران و حتی سازمانهای دولتی بر عملکرد این پلتفرم در نهایت به سود این شرکت خواهد بود.
فرانسیس هاگن در مصاحبه تلویزیونی خود گفت: «از آنجا که کمتر کسی از پشت پرده پلتفرم فیس بوک خبر دارد، این شرکت هیچ مسئولیتی را در قبال مشکلات ایجاد شده نمیپذیرد. فیس بوک همچنان به عملکردش که با منافع عمومی در تضاد است، ادامه میدهد.»
فرانسیس هاگن میگوید فیس بوک باید از دیدگاه کوتاهمدت دست بردارد و به دنبال توسعه پایدار در بلندمدت باشد. در این صورت، فیس بوک میتواند طی ۵ تا ۱۰سال آینده سودآوری بیشتری داشته باشد، وگرنه وضعیت به شکلی خواهد شد که بسیاری از کاربران، تصمیم به ترک آن میگیرند.
مشکلاتی فراتر از ایالات متحده
اما مشکلاتی که سازوکار کنونی فیس بوک ایجاد میکند، فقط به مرزهای ایالات متحده محدود نمیشود. فرانسیس هاگن اسنادی در اختیار دارد که نشان میدهد از فیس بوک برای جرایم مختلف حتی در کشورهای دیگر نیز استفاده میشود و در عین حال، این شرکت هیچ واکنش مناسبی به چنین مواردی نشان نمیدهد.
برای نمونه، گروههای شبهنظامی اتیوپی از این پلتفرم برای هماهنگی به منظور انجام عملیات نظامی علیه اقلیتهای قومی استفاده میکنند. فیس بوک برای شناسایی مطالبی که ناقض مقرراتش هستند، تا حد زیادی به هوش مصنوعی وابسته است. به همین دلیل، هوش مصنوعی باید بتواند عملکرد مناسبی نهتنها در زبان انگلیسی، بلکه در همه زبانها و حتی گویشهای مختلف داشته باشد. با توجه به اینکه فیس بوک حدود ۳میلیون کاربر فعال در سراسر دنیا دارد، الگوریتمهای هوش مصنوعی این شرکت فاصله بسیار زیادی برای رسیدن به این نقطه دارند.
بر اساس گزارش وال استریت ژورنال، الگوریتم هوش مصنوعی فیس بوک بسیاری از زبانهایی را که کاربران مورد استفاده قرار میدهند، پوشش نمیدهد. فرانسیس هاگن میگوید فقط ۹درصد از کاربران فیس بوک به زبان انگلیسی صحبت میکنند، ولی ۸۷درصد از بودجهای که صرف مبارزه با اطلاعات نادرست در این پلتفرم میشود، به زبان انگلیسی اختصاص دارد!
این کارمند سابق فیس بوک میگوید این پلتفرم بودجهاش را برای آندسته از کاربرانی صرف میکند که بیشترین سودآوری را برایش به همراه دارند. از سوی دیگر، کمبود نیروی انسانی برای بخشهای مربوط به مبارزه با تروریسم یا مبارزه با شنود اطلاعاتی از دیگر مشکلاتی است که فیس بوک توجه چندانی به آن ندارد.
پیشنهاد نظارت عمومی
در کشورهای توسعهیافته، دولتها معمولا دخالتی در سازوکارهای داخلی پلتفرمهای ارتباطی ندارند. اما فرانسیس هاگن بر این باور است که دولت باید فرآیندها و الگوریتمهای فیس بوک را به صورت پیوسته مورد پایش قرار دهد.
وقتی از فرانسیس هاگن پرسیده شد که اگر مدیرعامل فیس بوک بود، چه کاری برای رفع این مشکلات بنیادین انجام میداد، او گفت که سیاستهایی را پیاده میکرد تا اطلاعات بیشتری درباره الگوریتمهای مورد استفاده در اختیار نهادهای نظارتی مثل کنگره ایالات متحده قرار گیرد. او همچنین گفت که اطلاعات مورد نیاز را در اختیار پژوهشگران و دانشگاهیان قرار میداد تا بتوانند به مطالعه هرچه دقیقتر این پلتفرم ارتباطی بپردازند.
موضوع اطلاعات نادرست درباره واکسن کووید-۱۹ نیز یکی دیگر از مواردی بود که در این مصاحبه به آن اشاره شد. فرانسیس هاگن میگوید فیس بوک با ساختار کنونی خود نمیتواند جلوی انتشار اخبار و مطالب نادرست درباره واکسن را بگیرد. جالب است بدانید خود فیس بوک اعتراف میکند که شناسایی مطالب نادرست توسط چند الگوریتم هوش مصنوعی صورت میگیرد که این الگوریتمها نیز نمیتوانند بیش از ۱۰ تا ۲۰ درصد از این دسته از مطالب را شناسایی کنند.
پیشنهاد اصلاح قوانین
بر اساس ماده ۲۳۰ قانون ارتباطات در ایالات متحده، پلتفرمها هیچ مسئولیتی درباره محتوای منتشرشده توسط کاربران ندارند. فرانسیس هاگن میگوید این قانون باید اصلاح شود تا اگر انتشار اخبار و مطالب نادرست به دلیل نقص در الگوریتم باشد، پلتفرم نیز در این ماجرا مقصر شناخته شود.
او در این باره گفت: «شرکتها نمیتوانند کنترل کاملی بر محتوای تولیدی توسط کاربران داشته باشند. با این وجود، مدیریت الگوریتم ۱۰۰درصد در اختیار شرکت است. فیس بوک نباید بدون نگرانی از پیامدهای قانونی، بین سودآوری و آسیب به مردم، اولی را انتخاب کند.»
آینده فیس بوک
فیس بوک علاوه بر این پرونده، با یک پرونده دیگر مرتبط با انحصارگرایی روبهروست که به ماجرای تصاحب اینستاگرام توسط این شرکت مربوط میشود. اما با توجه به پروندههایی که اکنون علیه مارک زاکربرگ تهیه شده، چه آیندهای در انتظار فیس بوک خواهد بود؟
فرانسیس هاگن میگوید که با جداشدن اینستاگرام از فیس بوک مخالف است، زیرا اگر این اتفاق بیفتد، بیشتر آگهیدهندگان تمایل دارند پولشان را در اینستاگرام خرج کنند و در این صورت، فیس بوک دیگر آن پلتفرم قدرتمند سابق نخواهد بود و نمیتواند به درآمدهای قبلی خود دست یابد.
از سوی دیگر، کنگره ایالات متحده به دنبال تصویب طرحی برای نظارت بیشتر بر پلتفرمهایی است که توسط کودکان و نوجوانان زیر ۱۶سال مورد استفاده قرار میگیرد. در صورت تصویب این طرح، نهادهای ناظر میتوانند به پایش عملکرد این پلتفرمها بپردازند که البته بررسی الگوریتمهای مورد استفاده در این سامانهها از جمله مواردی است که اهمیت بالایی خواهد داشت.
اینستاگرام و رژیم غذایی
یکی از اسناد مهمی که فرانسیس هاگن در اختیار دارد، جزئیات یکی از پژوهشهای فیس بوک درباره اثرات اینستاگرام بر سلامت کاربران را بیان میکند. فیس بوک در یک نظرسنجی به این نتیجه رسید که دختران نوجوان احساس میکنند اینستاگرام موجب ایجاد یا تشدید حس منفی نسبت به بدنشان میشود.
اما موضوع دیگری که در این پژوهش به آن اشاره شده این است که این دسته از کاربران گرفتار یک چرخه باطل در اینستاگرام میشوند که به وخیمترشدن وضعیت آنها میانجامد. در این مطالعه آمده که خانمهای جوان پس از مطالعه پستهای مختلف درباره رژیمهای غذایی و پیروی از آنها، نمیتوانند به نتیجه مورد نظر برسند و به همین دلیل احساس ناخوشایند بیشتری مییابند و برای کاهش این احساس ناخوشایند بیشتر از این اپلیکیشن استفاده میکنند. این چرخه باطل موجب میشود هرچه بیشتر از وضعیت ظاهری خود ناراضی شوند.
فرانسیس هاگن میگوید فیس بوک تمایلی به اقدام در این زمینه ندارد، زیرا این کاربران بیشتر و بیشتر از اینستاگرام استفاده میکنند که این رفتار مساوی با افزایش سود برای شرکت است.
فرانسیس هاگن (Francis Hagen) کیست؟
فرانسیس هاگن ۳۷ساله حدود ۲سال به عنوان مدیر محصول در فیس بوک فعالیت کرد. او سابقه کار در گوگل، پینترست و چند شبکه اجتماعی دیگر را دارد. تخصص خانم هاگن در حوزه الگوریتم بررسی محتواست.
فرانسیس هاگن در وبسایت شخصیاش خود را «حامی نظارت عمومی بر شبکههای اجتماعی» معرفی میکند.
او که مدرک کارشناسی مهندسی برق و کامپیوتر از کالج الین را در اختیار دارد، مدرک دوره ام.بی.ای خود را از دانشگاه هاروارد دریافت کرده است.
اما انگیزه احساسی او برای پیگیری این پرونده، به ماجرای از دست دادن یک دوست صمیمی مربوط میشود. فرانسیس هاگن میگوید چند سال پیش، یکی از دوستانش بهشدت درگیر خواندن مطالب مختلف درباره پشت پرده دنیای سیاست میشود. دوست او این مطالب را معمولا در انجمنهای اینترنتی (forums) پیدا میکرد و مورد مطالعه قرار میداد. او پس از مدتی بهشدت به دنیای اطراف خود بدبین شد و حتی دوستی چندسالهاش با فرانسیس هاگن را نیز پایان داد.
این کارمند سابق فیس بوک میگوید در اواخر سال ۲۰۱۸ بود که فیس بوک او را برای همکاری دعوت کرد. او در مصاحبه شغلی خود گفت که موضوع انتشار اطلاعات نادرست برایش اهمیت زیادی دارد و ماجرای دوستش را نیز برای اعضای پنل مصاحبه تعریف کرد. او در این مصاحبه تاکید کرد که به دنبال کمک به فیس بوک برای جلوگیری از وقوع اتفاقی مشابه برای کاربران این پلتفرم است.
منابع گزارش:
The Facebook whistleblower hearing unearthed the danger of engagement algorithms
Facebook whistleblower Frances Haugen testifies before the Senate
/شنبه/