رونق AI منبع باز بر اساس جزوات Big Tech ساخته شده است. چقدر طول می کشد؟

مانند جامعه متن باز گسترده تر، پینو و همکارانش معتقدند که شفافیت باید یک هنجار باشد. او می‌گوید: «یک کاری که من پژوهشگرانم را به انجام آن سوق می‌دهم این است که پروژه‌ای را با فکر اینکه می‌خواهید منبع باز کنید، شروع کنید. “زیرا وقتی این کار را انجام می دهید، نوار بسیار بالاتری را از نظر اینکه از چه داده هایی استفاده می کنید و چگونه مدل را می سازید تعیین می کند.”

اما خطرات جدی نیز وجود دارد. مدل‌های بزرگ زبان، اطلاعات نادرست، تعصب و سخنان نفرت پراکنده می‌کنند. می توان از آنها برای تولید انبوه تبلیغات یا نیرو دادن به کارخانه های بدافزار استفاده کرد. پینو می‌گوید: «شما باید بین شفافیت و ایمنی تعادل ایجاد کنید.

برای هوش مصنوعی متا، این مبادله ممکن است به این معنی باشد که برخی از مدل ها اصلاً عرضه نمی شوند. به عنوان مثال، اگر تیم Pineau مدلی را بر روی داده های کاربران فیس بوک آموزش داده باشد، آنگاه در خانه خواهد ماند، زیرا خطر درز اطلاعات خصوصی بسیار زیاد است. در غیر این صورت، تیم ممکن است مدل را با مجوز کلیک منتشر کند که مشخص می کند باید فقط برای اهداف تحقیقاتی استفاده شود.

این رویکردی است که برای LLaMA اتخاذ کرد. اما چند روز پس از انتشار آن، شخصی مدل کامل و دستورالعمل های اجرای آن را در انجمن اینترنتی 4chan ارسال کرد. Pineau می‌گوید: «هنوز فکر می‌کنم که این معامله مناسب برای این مدل خاص بود. “اما من از اینکه مردم این کار را انجام می دهند ناامید هستم، زیرا انجام این نسخه ها را سخت تر می کند.”

ما همیشه از پشتیبانی قوی رهبری شرکت تا مارک برخوردار بوده‌ایم [Zuckerberg] برای این رویکرد، اما به راحتی نمی شود.» او می گوید.

ریسک متا هوش مصنوعی بالاست. او می‌گوید: «مسئولیت بالقوه انجام یک کار دیوانه‌کننده زمانی که یک استارت‌آپ بسیار کوچک هستید بسیار کمتر از زمانی است که یک شرکت بسیار بزرگ هستید». «در حال حاضر ما این مدل‌ها را برای هزاران نفر منتشر می‌کنیم، اما اگر مشکل‌سازتر شود یا احساس کنیم خطرات ایمنی بیشتر است، دایره را می‌بندیم و فقط برای شرکای دانشگاهی شناخته شده‌ای که دارای اعتبار بسیار قوی هستند منتشر می‌کنیم. تحت قراردادهای محرمانه یا NDA که آنها را از ساخت هر چیزی با مدل، حتی برای اهداف تحقیقاتی، باز می دارد.

اگر این اتفاق بیفتد، بسیاری از عزیزان اکوسیستم منبع باز می توانند متوجه شوند که مجوز ساخت آنها بر روی هر آنچه متا AI ارائه می کند لغو شده است. بدون LLaMA، مدل‌های منبع باز مانند Alpaca، Open Assistant یا Hugging Chat تقریباً به خوبی نیستند. و نسل بعدی مبتکران منبع باز آنقدر که دسته کنونی داشته اند، نمی توانند پیشرفت کنند.