مانند جامعه متن باز گسترده تر، پینو و همکارانش معتقدند که شفافیت باید یک هنجار باشد. او میگوید: «یک کاری که من پژوهشگرانم را به انجام آن سوق میدهم این است که پروژهای را با فکر اینکه میخواهید منبع باز کنید، شروع کنید. “زیرا وقتی این کار را انجام می دهید، نوار بسیار بالاتری را از نظر اینکه از چه داده هایی استفاده می کنید و چگونه مدل را می سازید تعیین می کند.”
اما خطرات جدی نیز وجود دارد. مدلهای بزرگ زبان، اطلاعات نادرست، تعصب و سخنان نفرت پراکنده میکنند. می توان از آنها برای تولید انبوه تبلیغات یا نیرو دادن به کارخانه های بدافزار استفاده کرد. پینو میگوید: «شما باید بین شفافیت و ایمنی تعادل ایجاد کنید.
برای هوش مصنوعی متا، این مبادله ممکن است به این معنی باشد که برخی از مدل ها اصلاً عرضه نمی شوند. به عنوان مثال، اگر تیم Pineau مدلی را بر روی داده های کاربران فیس بوک آموزش داده باشد، آنگاه در خانه خواهد ماند، زیرا خطر درز اطلاعات خصوصی بسیار زیاد است. در غیر این صورت، تیم ممکن است مدل را با مجوز کلیک منتشر کند که مشخص می کند باید فقط برای اهداف تحقیقاتی استفاده شود.
این رویکردی است که برای LLaMA اتخاذ کرد. اما چند روز پس از انتشار آن، شخصی مدل کامل و دستورالعمل های اجرای آن را در انجمن اینترنتی 4chan ارسال کرد. Pineau میگوید: «هنوز فکر میکنم که این معامله مناسب برای این مدل خاص بود. “اما من از اینکه مردم این کار را انجام می دهند ناامید هستم، زیرا انجام این نسخه ها را سخت تر می کند.”
ما همیشه از پشتیبانی قوی رهبری شرکت تا مارک برخوردار بودهایم [Zuckerberg] برای این رویکرد، اما به راحتی نمی شود.» او می گوید.
ریسک متا هوش مصنوعی بالاست. او میگوید: «مسئولیت بالقوه انجام یک کار دیوانهکننده زمانی که یک استارتآپ بسیار کوچک هستید بسیار کمتر از زمانی است که یک شرکت بسیار بزرگ هستید». «در حال حاضر ما این مدلها را برای هزاران نفر منتشر میکنیم، اما اگر مشکلسازتر شود یا احساس کنیم خطرات ایمنی بیشتر است، دایره را میبندیم و فقط برای شرکای دانشگاهی شناخته شدهای که دارای اعتبار بسیار قوی هستند منتشر میکنیم. تحت قراردادهای محرمانه یا NDA که آنها را از ساخت هر چیزی با مدل، حتی برای اهداف تحقیقاتی، باز می دارد.
اگر این اتفاق بیفتد، بسیاری از عزیزان اکوسیستم منبع باز می توانند متوجه شوند که مجوز ساخت آنها بر روی هر آنچه متا AI ارائه می کند لغو شده است. بدون LLaMA، مدلهای منبع باز مانند Alpaca، Open Assistant یا Hugging Chat تقریباً به خوبی نیستند. و نسل بعدی مبتکران منبع باز آنقدر که دسته کنونی داشته اند، نمی توانند پیشرفت کنند.