پنهانی در متاورژن | بررسی فناوری MIT

جنبه دوم آمادگی مربوط به سلامت روان است. همه بازیکنان آنطور که شما می خواهید رفتار نمی کنند. بعضی وقتا آدما فقط برای بداخلاقی اومدن ما با مرور انواع مختلف سناریوهایی که می توانید با آنها روبرو شوید و نحوه به بهترین شکل مدیریت آنها آماده می شویم.

ما همچنین همه چیز را پیگیری می کنیم. ما دنبال می‌کنیم که چه بازی‌ای انجام می‌دهیم، چه بازیکنانی به بازی پیوستند، چه ساعتی بازی را شروع کردیم، چه ساعتی بازی را به پایان می‌رسانیم. صحبت ها در طول بازی در مورد چه بود؟ آیا بازیکن از زبان بد استفاده می کند؟ آیا بازیکن بدرفتاری می کند؟

گاهی اوقات رفتاری را می‌یابیم که مرزی است، مانند کسی که از یک کلمه بد از سر ناامیدی استفاده می‌کند. ما هنوز آن را ردیابی می کنیم، زیرا ممکن است کودکانی روی پلت فرم باشند. و گاهی اوقات رفتار از حد خاصی فراتر می رود، مثلاً اگر بیش از حد شخصی شود، و ما گزینه های بیشتری برای آن داریم.

مثلاً اگر کسی چیزی واقعاً نژادپرستانه بگوید، برای انجام چه کاری آموزش دیده اید؟

خوب، ما یک گزارش هفتگی بر اساس پیگیری خود ایجاد می کنیم و آن را به مشتری ارسال می کنیم. بسته به تکرار رفتار بد یک بازیکن، مشتری ممکن است تصمیم بگیرد که اقدامی انجام دهد.

و اگر رفتار در زمان واقعی بسیار بد باشد و دستورالعمل‌های خط‌مشی را نقض کند، کنترل‌های مختلفی برای استفاده داریم. ما می توانیم بازیکن را بی صدا کنیم تا کسی نتواند حرف های او را بشنود. حتی می توانیم بازیکن را از بازی بیرون کنیم و بازیکن را گزارش کنیم [to the client] با ضبط اتفاقات

به نظر شما چیزی که مردم در مورد این فضا نمی دانند چیست؟

خیلی جالبه. هنوز آن حس اولین باری که هدست VR را گذاشتم را به یاد دارم. همه مشاغل به شما اجازه بازی نمی دهند.

و من می خواهم همه بدانند که مهم است. یک بار داشتم متن را مرور می کردم [not in the metaverse] و این بررسی را از کودکی گرفتم که گفت: فلانی مرا ربود و در زیرزمین پنهان کرد. گوشی من در شرف مرگ است. یک نفر لطفا با 911 تماس بگیرد. و او می آید، لطفا به من کمک کنید.

من در مورد آن شک داشتم. با آن چه کنم؟ این بستری برای درخواست کمک نیست. به هر حال آن را برای تیم حقوقی مان فرستادم و پلیس به محل رفت. چند ماه بعد بازخورد دریافت کردیم که وقتی پلیس به آن مکان رفت، پسر را پیدا کرد که در زیرزمین بسته شده بود و تمام بدنش کبود شده بود.

آن لحظه برای من شخصاً یک لحظه تغییر دهنده زندگی بود، زیرا همیشه فکر می‌کردم که این شغل فقط یک حایل است، کاری که قبل از اینکه بفهمی واقعاً می‌خواهی انجام دهی، انجام می‌دهی. و رفتار اکثر مردم با این شغل همین است. اما آن حادثه زندگی من را تغییر داد و به من فهماند که کاری که اینجا انجام می دهم در واقع بر دنیای واقعی تأثیر می گذارد. یعنی به معنای واقعی کلمه یک بچه را نجات دادم. تیم ما به معنای واقعی کلمه یک بچه را نجات داد و همه ما افتخار می کنیم. آن روز تصمیم گرفتم که باید در میدان بمانم و مطمئن شوم که همه متوجه می شوند که این واقعاً مهم است.

آنچه در این هفته می خوانم

  • شرکت تجزیه و تحلیل Palantir یک پلتفرم هوش مصنوعی ساخته است که به ارتش کمک می کند تا تصمیمات استراتژیک را از طریق یک ربات چت شبیه به ChatGPT که می تواند تصاویر ماهواره ای را تجزیه و تحلیل کند و برنامه های حمله ایجاد کند، ایجاد کند. این شرکت قول داده است که این کار به صورت اخلاقی انجام خواهد شد، هرچند…
  • فروپاشی چک آبی توییتر در حال شروع به پیامدهای دنیای واقعی است و تشخیص اینکه چه چیزی و چه کسی را در این پلتفرم باید باور کرد دشوار است. به گزارش نیویورک تایمز، اطلاعات نادرست در حال رشد است – در عرض 24 ساعت پس از حذف چک های آبی تأیید شده قبلی توسط توییتر، حداقل 11 حساب جدید جعل هویت اداره پلیس لس آنجلس را آغاز کردند.
  • ماشا بوراک در این ویژگی عالی برای MIT Technology Review که چند هفته پیش منتشر شد نوشت، جنگ روسیه علیه اوکراین باعث سقوط صنعت فناوری آن شد. فشار کرملین برای تنظیم و کنترل اطلاعات در Yandex موتور جستجو را خفه کرد.

چیزی که این هفته یاد گرفتم

هنگامی که کاربران اطلاعات نادرست را به صورت آنلاین گزارش می کنند، ممکن است مفیدتر از آنچه قبلاً تصور می شد مفید باشد. مطالعه جدیدی که در مجله اعتماد و ایمنی آنلاین استنفورد منتشر شده است نشان می دهد که گزارش های کاربران از اخبار نادرست در فیس بوک و اینستاگرام می تواند در مبارزه با اطلاعات نادرست زمانی که بر اساس ویژگی های خاصی مانند نوع بازخورد یا محتوا مرتب شود، نسبتاً دقیق است. این مطالعه که اولین مورد از نوع خود است که صحت گزارش‌های کاربران در مورد اطلاعات نادرست را به صورت کمی ارزیابی می‌کند، نشان دهنده خوش‌بینی است که تعدیل محتوای جمع‌سپاری می‌تواند مؤثر باشد.