گرفتن محتوای بد در عصر هوش مصنوعی

مدل‌های زبان بزرگ هنوز با زمینه مشکل دارند، به این معنی که احتمالاً قادر به تفسیر تفاوت‌های ظریف پست‌ها و تصاویر و همچنین ناظران انسانی نخواهند بود. مقیاس پذیری و ویژگی در فرهنگ های مختلف نیز سوالاتی را ایجاد می کند. “آیا یک مدل را برای هر نوع خاصی از طاقچه استفاده می کنید؟ آیا این کار را بر اساس کشور انجام می دهید؟ آیا این کار را بر اساس جامعه انجام می‌دهید؟… این یک مشکل همه جانبه نیست.» DiResta می‌گوید.

ابزارهای جدید برای فناوری جدید

اینکه آیا هوش مصنوعی مولد در نهایت برای حوزه اطلاعات آنلاین مضرتر یا مفیدتر می شود، ممکن است تا حد زیادی به این بستگی داشته باشد که آیا شرکت های فناوری می توانند ابزارهای خوب و گسترده ای را ارائه دهند تا به ما بگویند که آیا محتوا توسط هوش مصنوعی تولید شده است یا خیر.

این یک چالش کاملاً فنی است، و DiResta به من می‌گوید که تشخیص رسانه مصنوعی احتمالاً اولویت بالایی دارد. این شامل روش‌هایی مانند واترمارکینگ دیجیتال می‌شود، که کمی کد را تعبیه می‌کند که به عنوان نوعی علامت دائمی عمل می‌کند تا نشان دهد که محتوای پیوست شده توسط هوش مصنوعی ساخته شده است. ابزارهای خودکار برای تشخیص پست های ایجاد شده یا دستکاری شده توسط هوش مصنوعی جذاب هستند، زیرا بر خلاف واترمارکینگ، نیازی به ایجاد کننده محتوای تولید شده توسط هوش مصنوعی ندارند که به طور فعالانه آن را به عنوان برچسب برچسب گذاری کنند. گفته می‌شود، ابزارهای فعلی که سعی در انجام این کار دارند، در شناسایی محتوای ماشینی خوب نبوده‌اند.

برخی از شرکت‌ها حتی امضاهای رمزنگاری را پیشنهاد کرده‌اند که از ریاضیات برای ثبت اطلاعات ایمن مانند چگونگی پیدایش یک قطعه محتوا استفاده می‌کنند، اما این به تکنیک‌های افشای داوطلبانه مانند واترمارک متکی است.

جدیدترین نسخه قانون هوش مصنوعی اتحادیه اروپا، که همین هفته پیشنهاد شد، شرکت‌هایی را که از هوش مصنوعی مولد استفاده می‌کنند می‌خواهد تا به کاربران اطلاع دهند که محتوا واقعاً توسط ماشین تولید می‌شود. با افزایش تقاضا برای شفافیت در مورد محتوای تولید شده توسط هوش مصنوعی، احتمالاً در ماه های آینده چیزهای بیشتری در مورد این نوع ابزارهای در حال ظهور خواهیم شنید.

دیگه چی دارم میخونم

  • اتحادیه اروپا می تواند در آستانه ممنوعیت تشخیص چهره در مکان های عمومی و همچنین الگوریتم های پلیسی پیش بینی کننده باشد. اگر این ممنوعیت اجرا شود، این ممنوعیت یک دستاورد بزرگ برای جنبش علیه تشخیص چهره خواهد بود که در ماه های اخیر در ایالات متحده سرعت خود را از دست داده است.
  • روز سه شنبه، سام آلتمن، مدیر عامل OpenAI، به عنوان بخشی از یک جلسه استماع در مورد نظارت بر هوش مصنوعی پس از یک شام دو حزبی در شب قبل، در کنگره ایالات متحده شهادت خواهد داد. من مشتاقانه منتظرم تا ببینم قانونگذاران ایالات متحده چقدر در هوش مصنوعی مسلط هستند و آیا چیز ملموسی از این جلسه به دست می آید یا خیر، اما انتظارات من زیاد نیست.
  • آخر هفته گذشته، پلیس چین مردی را به دلیل استفاده از ChatGPT برای انتشار اخبار جعلی دستگیر کرد. چین در ماه فوریه ChatGPT را به عنوان بخشی از قوانین سختگیرانه تر در مورد استفاده از هوش مصنوعی مولد ممنوع کرد. به نظر می رسد این اولین دستگیری است.

چیزی که این هفته یاد گرفتم

اطلاعات نادرست یک مشکل بزرگ برای جامعه است، اما به نظر می رسد که مخاطبان آن کمتر از آنچه تصور می کنید وجود دارد. محققان مؤسسه اینترنت آکسفورد بیش از 200000 پست تلگرام را بررسی کردند و دریافتند که اگرچه اطلاعات نادرست بسیار زیاد می شود، به نظر می رسد اکثر کاربران آن را به اشتراک نمی گذارند.

آنها در مقاله خود به این نتیجه می رسند که «برخلاف خرد دریافت شده، مخاطبان اطلاعات نادرست یک مخاطب عمومی نیستند، بلکه یک جامعه کوچک و فعال از کاربران هستند.» تلگرام نسبتاً تعدیل نشده است، اما تحقیقات نشان می دهد که شاید تا حدی یک اثر ارگانیک و مبتنی بر تقاضا وجود داشته باشد که اطلاعات بد را کنترل می کند.