زیرساخت‌های یادگیری ماشینی با کارایی بالا و کم هزینه، نوآوری در فضای ابری را تسریع می‌کند

هوش مصنوعی و یادگیری ماشین (AI و ML) فناوری‌های کلیدی هستند که به سازمان‌ها کمک می‌کنند تا راه‌های جدیدی برای افزایش فروش، کاهش هزینه‌ها، ساده‌سازی فرآیندهای تجاری و درک بهتر مشتریان خود ایجاد کنند. AWS به مشتریان کمک می‌کند تا با ارائه محاسبات قدرتمند، شبکه‌های پرسرعت، و گزینه‌های ذخیره‌سازی با کارایی بالا مقیاس‌پذیر در صورت تقاضا برای هر پروژه یادگیری ماشینی، پذیرش AI/ML خود را تسریع بخشند. این امر مانع ورود سازمان‌هایی را که به دنبال استفاده از ابر برای مقیاس‌بندی برنامه‌های ML خود هستند، کاهش می‌دهد.

توسعه دهندگان و دانشمندان داده مرزهای فناوری را پیش می برند و به طور فزاینده ای یادگیری عمیق را اتخاذ می کنند، که نوعی یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی است. این مدل‌های یادگیری عمیق بزرگ‌تر و پیچیده‌تر هستند که منجر به افزایش هزینه‌ها برای اجرای زیرساخت‌های اساسی برای آموزش و استقرار این مدل‌ها می‌شود.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع کنند، AWS در حال ساخت تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای استنتاج یادگیری ماشینی با کمترین هزینه در فضای ابری ساخته شده است. در واقع، نمونه‌های آمازون EC2 Inf1 که توسط Inferentia ارائه می‌شوند، 2.3 برابر عملکرد بالاتر و تا 70 درصد هزینه کمتر برای استنتاج یادگیری ماشین نسبت به نمونه‌های EC2 مبتنی بر GPU نسل فعلی ارائه می‌دهند. AWS Trainium دومین تراشه یادگیری ماشینی AWS است که برای آموزش مدل‌های یادگیری عمیق ساخته شده است و در اواخر سال 2021 در دسترس خواهد بود.

مشتریان در سراسر صنایع، برنامه های کاربردی ML خود را در تولید بر روی Inferentia به کار گرفته اند و شاهد بهبود عملکرد قابل توجه و صرفه جویی در هزینه بوده اند. به عنوان مثال، پلتفرم پشتیبانی مشتری AirBnB تجربه خدمات هوشمند، مقیاس پذیر و استثنایی را برای جامعه میلیون ها میزبان و مهمان خود در سراسر جهان فراهم می کند. از نمونه‌های EC2 Inf1 مبتنی بر Inferentia برای استقرار مدل‌های پردازش زبان طبیعی (NLP) استفاده کرد که از چت‌بات‌های آن پشتیبانی می‌کردند. این منجر به بهبود 2 برابری عملکرد خارج از جعبه نسبت به نمونه های مبتنی بر GPU شد.

با این نوآوری‌ها در سیلیکون، AWS مشتریان را قادر می‌سازد تا مدل‌های یادگیری عمیق خود را به راحتی با عملکرد و توان عملیاتی بالا با هزینه‌های بسیار پایین‌تر آموزش داده و اجرا کنند.

یادگیری ماشینی تغییر سرعت به زیرساخت مبتنی بر ابر را به چالش می کشد

یادگیری ماشینی یک فرآیند تکراری است که به تیم‌ها نیاز دارد تا برنامه‌ها را به سرعت بسازند، آموزش دهند، و برنامه‌ها را به‌سرعت اجرا کنند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیش‌بینی مدل‌ها را افزایش دهند. هنگام استقرار مدل‌های آموزش‌دیده در برنامه‌های تجاری خود، سازمان‌ها باید برنامه‌های خود را نیز مقیاس‌بندی کنند تا به کاربران جدید در سراسر جهان خدمت کنند. آن‌ها باید بتوانند چندین درخواست را که به صورت هم‌زمان وارد می‌شوند با تأخیر تقریباً هم‌زمان ارائه کنند تا از تجربه کاربری برتر اطمینان حاصل کنند.

موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه‌بندی تصویر، هوش مصنوعی محاوره‌ای و داده‌های سری زمانی به فناوری یادگیری عمیق متکی هستند. مدل‌های یادگیری عمیق به طور تصاعدی از نظر اندازه و پیچیدگی در حال افزایش هستند و در عرض چند سال از میلیون‌ها پارامتر به میلیاردها می‌رسند.

آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. وقتی سازمان‌ها برنامه‌های کاربردی خود را برای ارائه تجربیات تقریباً لحظه‌ای به کاربران و مشتریان خود مقیاس‌بندی می‌کنند، هزینه‌ها می‌تواند به سرعت به طور غیرقابل قبولی بزرگ شود.

اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می‌توانند کمک کنند. این ابر دسترسی بر اساس تقاضا به محاسبات، شبکه‌های با کارایی بالا و ذخیره‌سازی داده‌های بزرگ را فراهم می‌کند، که به‌طور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر ترکیب می‌شود تا سازمان‌ها را قادر می‌سازد فوراً شروع به کار کرده و ابتکارات AI/ML خود را مقیاس‌بندی کنند.

چگونه AWS به مشتریان کمک می کند تا تحول AI/ML خود را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تاخیر کم بهینه شده است که آن را برای استقرار استنتاج ML در مقیاس ایده آل می کند.

هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را پیاده‌سازی می‌کند که به طور گسترده عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتورها را سرعت می‌بخشد. NeuronCoreها همچنین به یک کش روی تراشه بزرگ مجهز هستند که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.

AWS Neuron، کیت توسعه نرم‌افزار Inferentia، به طور بومی از چارچوب‌های پیشرو ML مانند TensorFlow و PyTorch پشتیبانی می‌کند. توسعه‌دهندگان می‌توانند از همان چارچوب‌ها و ابزارهای توسعه چرخه حیاتی که می‌شناسند و دوست دارند استفاده کنند. برای بسیاری از مدل های آموزش دیده خود، آنها می توانند آنها را با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر کنند.

نتیجه یک استقرار استنتاج با کارایی بالا است که می تواند به راحتی مقیاس شود و در عین حال هزینه ها را تحت کنترل نگه دارد.

Sprinklr، یک شرکت نرم‌افزار به‌عنوان سرویس، دارای یک پلتفرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکت‌ها را قادر می‌سازد تا بازخوردهای بی‌درنگ مشتری را از طریق کانال‌های متعدد به بینش‌های عملی تبدیل کنند. این منجر به حل مشکلات پیشگیرانه، افزایش توسعه محصول، بهبود بازاریابی محتوا و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدل‌های بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.

چندین سرویس آمازون نیز مدل های یادگیری ماشین خود را در Inferentia مستقر می کنند.

Amazon Prime Video از مدل‌های ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده می‌کند تا از تجربه بیننده بهینه برای اعضای Prime Video اطمینان حاصل کند. مدل‌های طبقه‌بندی تصویر ML خود را بر روی نمونه‌های EC2 Inf1 به کار برد و شاهد بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونه‌های مبتنی بر GPU بود.

مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. وعده الکسا به مشتریان این است که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر می شود. تحقق این وعده مستلزم بهبود مستمر در زمان پاسخگویی و هزینه‌های زیرساخت یادگیری ماشین است. با استقرار مدل‌های متن به گفتار ML الکسا در نمونه‌های Inf1، توانست تأخیر استنتاج را تا 25 درصد و هزینه به ازای استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات ده‌ها میلیون مشتری را که هر ماه از الکسا استفاده می‌کنند، افزایش دهد.

رها کردن قابلیت‌های یادگیری ماشینی جدید در فضای ابری

از آنجایی که شرکت‌ها با فعال کردن بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسب‌وکار خود رقابت می‌کنند، هیچ سازمانی نمی‌تواند از استقرار مدل‌های یادگیری ماشینی پیچیده برای کمک به نوآوری در تجربیات مشتریان خود عقب بماند. در چند سال گذشته، افزایش قابل توجهی در کاربرد یادگیری ماشین برای موارد مختلف، از شخصی‌سازی و پیش‌بینی خرابی گرفته تا کشف تقلب و پیش‌بینی زنجیره تامین، وجود داشته است.

خوشبختانه، زیرساخت‌های یادگیری ماشین در فضای ابری قابلیت‌های جدیدی را به وجود می‌آورد که قبلاً امکان‌پذیر نبود، و آن را برای متخصصان غیرمتخصص بسیار قابل دسترس‌تر می‌کند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونه‌های آمازون EC2 Inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعاتی را در پشت موتورهای توصیه و ربات‌های چت خود ارائه دهند و بینش‌های عملی را از بازخورد مشتریان دریافت کنند.

با گزینه‌های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی می‌تواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را در مقیاس بپذیرد. با فراگیرتر شدن یادگیری ماشینی، سازمان‌ها اکنون می‌توانند تجربه مشتری – و روش انجام کسب و کارشان – را با زیرساخت‌های یادگیری ماشینی مبتنی بر ابری با کارایی بالا و مقرون‌به‌صرفه تغییر دهند.

در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS تولید شده است. این توسط هیات تحریریه MIT Technology Review نوشته نشده است.