جفری هینتون به ما می گوید که چرا اکنون از فناوری ای که در ساختش کمک کرده است می ترسد

تا دهه 2010 طول کشید تا قدرت شبکه‌های عصبی آموزش‌دیده از طریق پس‌انتشار واقعاً تأثیر بگذارد. هینتون با کار با چند دانشجوی فارغ التحصیل نشان داد که تکنیک او در ساختن رایانه برای شناسایی اشیاء در تصاویر بهتر از هر روش دیگری است. آنها همچنین یک شبکه عصبی را برای پیش‌بینی حروف بعدی در یک جمله آموزش دادند، پیش‌گویی برای مدل‌های بزرگ زبان امروزی.

یکی از این دانشجویان فارغ التحصیل Ilya Sutskever بود که در ادامه OpenAI را تأسیس کرد و توسعه ChatGPT را رهبری کرد. هینتون می‌گوید: «ما اولین تصورات را دریافتیم که این چیزها می‌تواند شگفت‌انگیز باشد. اما زمان زیادی طول کشیده تا غرق شود، زیرا برای خوب بودن باید در مقیاس بزرگی انجام شود.» در دهه 1980، شبکه های عصبی یک شوخی بودند. ایده غالب در آن زمان، که به عنوان هوش مصنوعی نمادین شناخته می شد، این بود که هوش شامل پردازش نمادها، مانند کلمات یا اعداد است.

اما هینتون قانع نشد. او روی شبکه‌های عصبی، انتزاع‌های نرم‌افزاری مغزها کار می‌کرد که در آن نورون‌ها و ارتباطات بین آنها با کد نشان داده می‌شوند. با تغییر نحوه اتصال آن نورون‌ها – تغییر اعدادی که برای نشان دادن آنها استفاده می‌شود – شبکه عصبی را می‌توان دوباره سیم‌کشی کرد. به عبارت دیگر، می توان آن را برای یادگیری ساخت.

هینتون می‌گوید: «پدرم یک زیست‌شناس بود، بنابراین من به مفاهیم بیولوژیکی فکر می‌کردم. و استدلال نمادین به وضوح در هسته هوش بیولوژیکی قرار ندارد.

کلاغ ها می توانند پازل ها را حل کنند و زبان ندارند. آنها این کار را با ذخیره رشته‌های نمادها و دستکاری آنها انجام نمی‌دهند. آنها این کار را با تغییر نقاط قوت اتصالات بین نورون ها در مغزشان انجام می دهند. بنابراین، یادگیری چیزهای پیچیده با تغییر نقاط قوت اتصالات در یک شبکه عصبی مصنوعی باید امکان پذیر باشد.”

یک هوش جدید

برای 40 سال، هینتون شبکه های عصبی مصنوعی را تلاشی ضعیف برای تقلید از شبکه های بیولوژیکی می دانست. اکنون او فکر می کند که این تغییر کرده است: در تلاش برای تقلید از آنچه مغزهای بیولوژیکی انجام می دهند، فکر می کند، ما به چیز بهتری رسیده ایم. او می‌گوید: «وقتی آن را می‌بینی ترسناک است. “این یک تلنگر ناگهانی است.”

ترس‌های هینتون باعث می‌شود که بسیاری از افراد در داستان‌های علمی تخیلی باشند. اما مورد او اینجاست.

همانطور که از نام آنها پیداست، مدل های زبان بزرگ از شبکه های عصبی عظیم با تعداد زیادی اتصال ساخته شده اند. اما آنها در مقایسه با مغز کوچک هستند. هینتون می گوید: مغز ما 100 تریلیون اتصال دارد. مدل‌های زبان بزرگ تا نیم تریلیون و حداکثر یک تریلیون دارند. با این حال GPT-4 صدها برابر بیشتر از هر شخص دیگری می داند. بنابراین شاید در واقع الگوریتم یادگیری بسیار بهتری از ما داشته باشد.»