هوش مصنوعی کامپیوترها را دوباره اختراع می کند

پاییز 2021: فصل کدو تنبل ، پای پیک و گوشی های جدید هلو. هر سال ، درست به عنوان نشانه ، اپل ، سامسونگ ، گوگل و دیگران آخرین نسخه های خود را رها می کنند. این لوازم در تقویم فناوری مصرف کننده دیگر شگفتی و شگفتی آن روزهای سرسخت را القا نمی کند. اما در پشت همه مشکلات تجاری ، چیز قابل توجهی در حال رخ دادن است.

آخرین پیشنهاد گوگل ، پیکسل 6 ، اولین گوشی است که دارای تراشه ای جداگانه اختصاص داده شده به هوش مصنوعی است که در کنار پردازنده استاندارد خود قرار دارد. و تراشه ای که آیفون را اداره می کند در چند سال گذشته دارای چیزی بود که اپل آن را “موتور عصبی” می نامد و همچنین به AI اختصاص داده شده است. هر دو تراشه برای انواع محاسبات مربوط به آموزش و اجرای مدلهای یادگیری ماشین در دستگاههای ما مناسب تر است ، مانند AI که دوربین شما را تغذیه می کند. تقریبا بدون توجه ما ، هوش مصنوعی بخشی از زندگی روزمره ما شده است. و این طرز فکر ما را در مورد محاسبات تغییر می دهد.

معنی آن چیست؟ خوب ، کامپیوترها در 40 یا 50 سال تغییر چندانی نکرده اند. آنها کوچکتر و سریعتر هستند ، اما هنوز جعبه هایی با پردازنده هایی هستند که دستورالعمل های انسان را اجرا می کنند. هوش مصنوعی حداقل در سه جنبه آن را تغییر می دهد: نحوه ساخت رایانه ها ، نحوه برنامه نویسی آنها و نحوه استفاده از آنها. در نهایت ، آنچه را که برای آن هستند تغییر می دهد.

پرادیپ دوبی ، مدیر آزمایشگاه محاسبات موازی در اینتل می گوید: “هسته محاسبات از تغییر تعداد به تصمیم گیری تغییر می کند.” یا همانطور که دانیلا روس ، مدیر MIT CSAIL می گوید ، هوش مصنوعی کامپیوترها را از جعبه های آنها آزاد می کند.

عجله بیشتر سرعت کمتر

اولین تغییر مربوط به نحوه ساخت کامپیوترها و تراشه هایی است که آنها را کنترل می کند. دستاوردهای محاسبات سنتی با افزایش سریع ماشین ها در انجام محاسبات یکی پس از دیگری به دست آمد. دهها سال است که جهان از افزایش تراشه هایی که با نظم و احوال مترقی همراه است استفاده می کند ، زیرا تراشه سازان از قانون مور پیروی می کنند.

اما مدلهای یادگیری عمیق که باعث می شود برنامه های کاربردی هوش مصنوعی فعلی کار کنند ، رویکرد متفاوتی را می طلبد: آنها نیاز به تعداد زیادی محاسبات کمتر دقیق دارند تا همه همزمان انجام شوند. این بدان معناست که نوع جدیدی از تراشه مورد نیاز است: یکی که بتواند داده ها را در اسرع وقت جابجا کند و مطمئن شود که در زمان و مکان مورد نیاز در دسترس است. هنگامی که یادگیری عمیق یک دهه پیش روی صحنه رفت ، قبلاً تراشه های رایانه ای ویژه ای وجود داشت که در این زمینه بسیار خوب عمل می کردند: واحدهای پردازش گرافیک یا GPU ها ، که برای نمایش کل صفحه نمایش پیکسل ها ده ها بار در ثانیه طراحی شده بودند.

هر چیزی می تواند تبدیل به یک کامپیوتر شود. در واقع ، اکثر اشیاء خانگی ، از مسواک گرفته تا کلیدهای روشنایی تا زنگ درها ، در حال حاضر در نسخه هوشمند عرضه می شوند.

در حال حاضر تراشه سازانی مانند Intel و Arm و Nvidia ، که بسیاری از اولین GPU ها را تأمین می کردند ، در حال ساختن سخت افزاری هستند که به طور خاص برای AI ساخته شده است. گوگل و فیس بوک نیز برای اولین بار وارد این صنعت شده اند ، در مسابقه ای برای یافتن برتری هوش مصنوعی از طریق سخت افزار.

به عنوان مثال ، تراشه داخل Pixel 6 نسخه جدید تلفن همراه واحد پردازش تانسور گوگل یا TPU است. بر خلاف تراشه های سنتی ، که برای محاسبات فوق سریع و دقیق طراحی شده اند ، TPU ها برای محاسبات با حجم بالا اما با دقت پایین مورد نیاز شبکه های عصبی طراحی شده اند. گوگل از تراشه های داخلی خود از سال 2015 استفاده می کند: آنها عکس های افراد و جستجوهای جستجوی زبان طبیعی را پردازش می کنند. خواهر شرکت گوگل DeepMind از آنها برای آموزش هوش مصنوعی خود استفاده می کند.

در دو سال گذشته ، گوگل TPU ها را در اختیار شرکت های دیگر قرار داده است و این تراشه ها – و همچنین تراشه های مشابهی که توسط سایرین در حال توسعه است – به عنوان پیش فرض در مراکز داده جهان تبدیل شده اند.

هوش مصنوعی حتی به طراحی زیرساخت محاسباتی خود کمک می کند. در سال 2020 ، گوگل از الگوریتم یادگیری تقویتی-نوعی از هوش مصنوعی که نحوه حل یک کار را از طریق آزمایش و خطا می آموزد-برای طراحی طرح TPU جدید استفاده کرد. هوش مصنوعی سرانجام با طرح های عجیب جدیدی روبرو شد که هیچ انسانی فکرش را نمی کرد – اما آنها کار کردند. این نوع هوش مصنوعی می تواند روزی تراشه های بهتر و کارآمدتری توسعه دهد.

نشان بده ، نگو

تغییر دوم مربوط به نحوه دستورالعمل رایانه ها است که باید چه کار کنند. در 40 سال گذشته ما در حال برنامه نویسی کامپیوترها هستیم. کریس بیشاپ ، سرپرست تحقیقات مایکروسافت در بریتانیا می گوید تا 40 سال آینده ما آنها را آموزش خواهیم داد.

به طور سنتی ، برای برنامه نویسی برای انجام کاری مانند تشخیص گفتار یا شناسایی اشیاء در یک تصویر ، ابتدا برنامه نویسان باید قوانینی را برای کامپیوتر ارائه می کردند.

با یادگیری ماشین ، برنامه نویسان دیگر قوانین نمی نویسند. در عوض ، آنها یک شبکه عصبی ایجاد می کنند که این قوانین را برای خود می آموزد. این یک تفکر اساساً متفاوت است.