فرانسیس هاوگن می گوید الگوریتم های فیس بوک خطرناک هستند. در اینجا دلیل آن است.

هاوگن همچنین در شهادت خود بارها تأکید کرد که این پدیده ها در مناطقی که انگلیسی صحبت نمی کنند به دلیل پوشش نابرابر زبان های مختلف فیس بوک بسیار بدتر است.

“در کشورهایی که سیستم های یکپارچگی به زبان محلی ندارند – و در مورد اتیوپی 100 میلیون نفر و شش زبان وجود دارد. فیس بوک فقط از دو زبان مذکور برای سیستم های صداقت پشتیبانی می کند. ” “این استراتژی تمرکز بر سیستم های خاص زبان و محتوا برای هوش مصنوعی برای نجات ما محکوم به شکست است.”

وی ادامه داد: بنابراین سرمایه گذاری در راههای غیر محتوا برای کند کردن بستر نه تنها از آزادی بیان ما محافظت می کند ، بلکه از زندگی مردم نیز محافظت می کند.

من این موضوع را در مقاله ای متفاوت از اوایل امسال در مورد محدودیت های مدلهای زبان بزرگ یا LLM بیشتر بررسی می کنم:

علیرغم اینکه LLM ها دارای این نقایص زبانی هستند ، فیس بوک به شدت به آنها وابسته است تا تعدیل محتوای خود را در سطح جهانی خودکار کند. هنگامی که جنگ در Tigray[, Ethiopia] اولین بار در ماه نوامبر رخ داد ، [AI ethics researcher Timnit] گبرو مشاهده کرد که سکوها دست به دست می شوند تا از موج اطلاعات غلط جلوگیری کنند. این نماد یک الگوی مداوم است که محققان در تعدیل محتوا مشاهده کرده اند. جوامعی که به زبان هایی که دره سیلیکون اولویت ندارند صحبت می کنند ، از خصمانه ترین محیط های دیجیتالی رنج می برند.

گبرو خاطرنشان کرد که آسیب نیز به اینجا ختم نمی شود. وقتی اخبار جعلی ، سخنان نفرت انگیز و حتی تهدید به مرگ تعدیل نشوند ، سپس به عنوان داده های آموزشی برای ساخت نسل بعدی LLM ها حذف می شوند. و این مدلها ، با طوطی وار روی آنچه که آموزش دیده اند ، در نهایت این الگوهای زبانی سمی را در اینترنت باز می گردانند.

رتبه بندی محتوای فیس بوک با سلامت روان نوجوانان چگونه است؟

یکی از شگفت انگیزترین افشاگری های فیس بوک مجله ، تحقیقات داخلی اینستاگرام بود که نشان داد بستر آن سلامت روانی دختران نوجوان را بدتر می کند. محققان در اسلایدی از مارس 2020 نوشتند: “32 درصد از دختران نوجوان گفتند که وقتی از بدن خود احساس بدی داشتند ، اینستاگرام حال آنها را بدتر می کرد.”

هاوگن این پدیده را به سیستم های رتبه بندی مبتنی بر مشارکت نیز متصل می کند ، که امروز به سنا گفت: “باعث می شود نوجوانان بیشتر در معرض محتوای بی اشتهایی قرار بگیرند.”

اگر اینستاگرام چنین نیروی مثبتی است ، آیا در 10 سال گذشته شاهد عصر طلایی سلامت روان نوجوانان بوده ایم؟ نه ، ما شاهد افزایش نرخ خودکشی و افسردگی در بین نوجوانان بوده ایم. ” “تحقیقات گسترده ای وجود دارد که از این ایده حمایت می کند که استفاده از رسانه های اجتماعی خطر این آسیب های روانی را افزایش می دهد.”

در گزارش شخصی خود ، من از یک محقق سابق هوش مصنوعی شنیدم که این تأثیر را در فیس بوک نیز مشاهده کرد.

گروه محققان … دریافتند کاربرانی که تمایل به ارسال یا درگیر شدن با محتوای مالیخولیا دارند – که ممکن است نشانه ای از افسردگی باشد – به راحتی می توانند مواد منفی را به طور فزاینده ای مصرف کنند که سلامت روانی آنها را بدتر می کند.

اما مانند هاوگن ، محقق دریافت که رهبری علاقه ای به ایجاد تغییرات اساسی الگوریتمی ندارد.

این تیم اصلاح مدلهای رتبه بندی محتوا را برای این کاربران پیشنهاد کرد تا حداکثر تعامل را به تنهایی متوقف کنند ، بنابراین کمتر موارد دلگیر کننده به آنها نشان داده می شود. “این س forال برای رهبری این بود: آیا اگر متوجه شدید که کسی در وضعیت روحی آسیب پذیری قرار دارد ، آیا باید برای مشارکت بهینه سازی کنیم؟” او به یاد می آورد

اما هر چیزی که باعث کاهش مشارکت شد ، حتی به دلایلی مانند تشدید نکردن افسردگی شخص ، منجر به سردرگمی و سر و صدای زیادی در میان رهبری شد. با بررسی عملکرد و حقوق خود به اتمام موفقیت آمیز پروژه ها ، کارکنان به سرعت آموختند که کسانی را که بازخورد دریافت کرده اند کنار بگذارند و به کارهایی که از بالا به پایین دیکته شده است ادامه دهند …

در همین حال ، آن کارمند سابق دیگر به دخترش اجازه نمی دهد از فیس بوک استفاده کند.

چگونه این را حل کنیم؟

هاوگن مخالف تجزیه فیس بوک یا لغو بخش 230 قانون نجابت ارتباطات ایالات متحده است که از پلتفرم های فناوری در برابر مسئولیت محتوایی که توزیع می کند محافظت می کند.

در عوض ، وی پیشنهاد می کند در بخش 230 معافیت هدفمندتری برای رتبه بندی الگوریتمی ایجاد کنید ، که به گفته وی “از رتبه بندی مبتنی بر مشارکت خلاص می شود”. او همچنین از بازگشت به خوراک خبری فیس بوک حمایت می کند.