چگونه یک ناظر محتوای مخفی بر متاورس نظارت می کند

متا نمی‌گوید چه تعداد ناظر محتوا را استخدام کرده یا در Horizon Worlds قرارداد دارد یا اینکه آیا شرکت قصد دارد این تعداد را با سیاست عصر جدید افزایش دهد یا خیر. اما این تغییر بر افرادی که در این فضاهای آنلاین جدید وظیفه اجرای قانون دارند – افرادی مانند یککانتی – و نحوه انجام کارشان را مورد توجه قرار می دهد.

یککانتی از سال 2020 به عنوان مجری و مدیر آموزش واقعیت مجازی مشغول به کار بوده و پس از انجام کارهای تعدیل سنتی روی متن و تصاویر وارد این کار شده است. او توسط WebPurify استخدام شده است، شرکتی که خدمات تعدیل محتوا را به شرکت های اینترنتی مانند مایکروسافت و پلی لب ارائه می دهد و با تیمی مستقر در هند کار می کند. کار او بیشتر در پلتفرم‌های رایج، از جمله پلتفرم‌های متعلق به متا انجام می‌شود، اگرچه WebPurify از تأیید اینکه کدام یک به طور خاص به توافق‌نامه‌های محرمانگی مشتری اشاره می‌کند، خودداری کرد.

یککانتی که از علاقه مندان قدیمی اینترنت است، می گوید که عاشق گذاشتن هدست واقعیت مجازی، ملاقات با مردم از سرتاسر جهان و مشاوره دادن به سازندگان متاورس در مورد چگونگی بهبود بازی ها و «جهان ها» است.

او بخشی از طبقه جدیدی از کارگران است که به عنوان عوامل امنیتی خصوصی از ایمنی در متاوره محافظت می کنند و با آواتارهای افراد بسیار واقعی در تعامل هستند تا رفتار نادرست واقعیت مجازی را شناسایی کنند. او وضعیت ناظم خود را به طور عمومی فاش نمی کند. در عوض، او کم و بیش مخفی کار می کند و به عنوان یک کاربر معمولی معرفی می شود تا بهتر شاهد تخلفات باشد.

از آنجایی که ابزارهای تعدیل سنتی، مانند فیلترهای دارای هوش مصنوعی روی کلمات خاص، به خوبی به محیط‌های غوطه‌ور در زمان واقعی ترجمه نمی‌شوند، مدهایی مانند یککانتی راه اصلی برای تضمین ایمنی در دنیای دیجیتال هستند و کار هر روز اهمیت بیشتری پیدا می‌کند. روز

مشکل ایمنی متاورس

مشکل ایمنی متاورس پیچیده و مبهم است. روزنامه نگاران مواردی از اظهارنظرهای توهین آمیز، کلاهبرداری، تجاوز جنسی و حتی آدم ربایی را گزارش کرده اند که از طریق Oculus متا سازماندهی شده است. بزرگ‌ترین پلت‌فرم‌های غوطه‌ور، مانند Roblox و Meta’s Horizon Worlds، آمار خود را در مورد رفتار بد بسیار خاموش نگه می‌دارند، اما یککانتی می‌گوید که او هر روز با تخلفات قابل گزارشی مواجه می‌شود.

متا از اظهار نظر در مورد این رکورد خودداری کرد، اما فهرستی از ابزارها و سیاست هایی را که در اختیار دارد ارسال کرد. یکی از سخنگویان Roblox می گوید که این شرکت دارای “تیمی متشکل از هزاران ناظر است که به صورت 24 ساعته بر محتوای نامناسب نظارت می کنند و گزارش های ارسال شده توسط جامعه ما را بررسی می کنند” و همچنین از یادگیری ماشینی برای بررسی متن، تصاویر و صدا استفاده می کند.

برای مقابله با مسائل ایمنی، شرکت‌های فناوری به داوطلبان و کارمندانی مانند راهنماهای جامعه متا، ناظران مخفی مانند یککانتی، و – به طور فزاینده‌ای – ویژگی‌های پلتفرمی که به کاربران اجازه می‌دهد ایمنی خود را مدیریت کنند، روی آورده‌اند، مانند یک خط مرزی شخصی که دیگر کاربران را از دسترسی به آن باز می‌دارد. خیلی نزدیک.