هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی برای افزایش فروش، کاهش هزینهها، سادهسازی فرآیندهای تجاری و درک بهتر مشتریان خود ایجاد کنند. AWS به مشتریان کمک میکند تا با ارائه محاسبات قدرتمند، شبکههای پرسرعت، و گزینههای ذخیرهسازی با کارایی بالا مقیاسپذیر در صورت تقاضا برای هر پروژه یادگیری ماشینی، پذیرش AI/ML خود را تسریع بخشند. این امر مانع ورود سازمانهایی را که به دنبال استفاده از ابر برای مقیاسبندی برنامههای ML خود هستند، کاهش میدهد.
توسعه دهندگان و دانشمندان داده مرزهای فناوری را پیش می برند و به طور فزاینده ای یادگیری عمیق را اتخاذ می کنند، که نوعی یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی است. این مدلهای یادگیری عمیق بزرگتر و پیچیدهتر هستند که منجر به افزایش هزینهها برای اجرای زیرساختهای اساسی برای آموزش و استقرار این مدلها میشود.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع کنند، AWS در حال ساخت تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای استنتاج یادگیری ماشینی با کمترین هزینه در فضای ابری ساخته شده است. در واقع، نمونههای آمازون EC2 Inf1 که توسط Inferentia ارائه میشوند، 2.3 برابر عملکرد بالاتر و تا 70 درصد هزینه کمتر برای استنتاج یادگیری ماشین نسبت به نمونههای EC2 مبتنی بر GPU نسل فعلی ارائه میدهند. AWS Trainium دومین تراشه یادگیری ماشینی AWS است که برای آموزش مدلهای یادگیری عمیق ساخته شده است و در اواخر سال 2021 در دسترس خواهد بود.
مشتریان در سراسر صنایع، برنامه های کاربردی ML خود را در تولید بر روی Inferentia به کار گرفته اند و شاهد بهبود عملکرد قابل توجه و صرفه جویی در هزینه بوده اند. به عنوان مثال، پلتفرم پشتیبانی مشتری AirBnB تجربه خدمات هوشمند، مقیاس پذیر و استثنایی را برای جامعه میلیون ها میزبان و مهمان خود در سراسر جهان فراهم می کند. از نمونههای EC2 Inf1 مبتنی بر Inferentia برای استقرار مدلهای پردازش زبان طبیعی (NLP) استفاده کرد که از چتباتهای آن پشتیبانی میکردند. این منجر به بهبود 2 برابری عملکرد خارج از جعبه نسبت به نمونه های مبتنی بر GPU شد.
با این نوآوریها در سیلیکون، AWS مشتریان را قادر میسازد تا مدلهای یادگیری عمیق خود را به راحتی با عملکرد و توان عملیاتی بالا با هزینههای بسیار پایینتر آموزش داده و اجرا کنند.
یادگیری ماشینی تغییر سرعت به زیرساخت مبتنی بر ابر را به چالش می کشد
یادگیری ماشینی یک فرآیند تکراری است که به تیمها نیاز دارد تا برنامهها را به سرعت بسازند، آموزش دهند، و برنامهها را بهسرعت اجرا کنند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیشبینی مدلها را افزایش دهند. هنگام استقرار مدلهای آموزشدیده در برنامههای تجاری خود، سازمانها باید برنامههای خود را نیز مقیاسبندی کنند تا به کاربران جدید در سراسر جهان خدمت کنند. آنها باید بتوانند چندین درخواست را که به صورت همزمان وارد میشوند با تأخیر تقریباً همزمان ارائه کنند تا از تجربه کاربری برتر اطمینان حاصل کنند.
موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقهبندی تصویر، هوش مصنوعی محاورهای و دادههای سری زمانی به فناوری یادگیری عمیق متکی هستند. مدلهای یادگیری عمیق به طور تصاعدی از نظر اندازه و پیچیدگی در حال افزایش هستند و در عرض چند سال از میلیونها پارامتر به میلیاردها میرسند.
آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. وقتی سازمانها برنامههای کاربردی خود را برای ارائه تجربیات تقریباً لحظهای به کاربران و مشتریان خود مقیاسبندی میکنند، هزینهها میتواند به سرعت به طور غیرقابل قبولی بزرگ شود.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. این ابر دسترسی بر اساس تقاضا به محاسبات، شبکههای با کارایی بالا و ذخیرهسازی دادههای بزرگ را فراهم میکند، که بهطور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر ترکیب میشود تا سازمانها را قادر میسازد فوراً شروع به کار کرده و ابتکارات AI/ML خود را مقیاسبندی کنند.
چگونه AWS به مشتریان کمک می کند تا تحول AI/ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تاخیر کم بهینه شده است که آن را برای استقرار استنتاج ML در مقیاس ایده آل می کند.
هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را پیادهسازی میکند که به طور گسترده عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتورها را سرعت میبخشد. NeuronCoreها همچنین به یک کش روی تراشه بزرگ مجهز هستند که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.
AWS Neuron، کیت توسعه نرمافزار Inferentia، به طور بومی از چارچوبهای پیشرو ML مانند TensorFlow و PyTorch پشتیبانی میکند. توسعهدهندگان میتوانند از همان چارچوبها و ابزارهای توسعه چرخه حیاتی که میشناسند و دوست دارند استفاده کنند. برای بسیاری از مدل های آموزش دیده خود، آنها می توانند آنها را با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر کنند.
نتیجه یک استقرار استنتاج با کارایی بالا است که می تواند به راحتی مقیاس شود و در عین حال هزینه ها را تحت کنترل نگه دارد.
Sprinklr، یک شرکت نرمافزار بهعنوان سرویس، دارای یک پلتفرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکتها را قادر میسازد تا بازخوردهای بیدرنگ مشتری را از طریق کانالهای متعدد به بینشهای عملی تبدیل کنند. این منجر به حل مشکلات پیشگیرانه، افزایش توسعه محصول، بهبود بازاریابی محتوا و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدلهای بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.
چندین سرویس آمازون نیز مدل های یادگیری ماشین خود را در Inferentia مستقر می کنند.
Amazon Prime Video از مدلهای ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده میکند تا از تجربه بیننده بهینه برای اعضای Prime Video اطمینان حاصل کند. مدلهای طبقهبندی تصویر ML خود را بر روی نمونههای EC2 Inf1 به کار برد و شاهد بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونههای مبتنی بر GPU بود.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. وعده الکسا به مشتریان این است که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر می شود. تحقق این وعده مستلزم بهبود مستمر در زمان پاسخگویی و هزینههای زیرساخت یادگیری ماشین است. با استقرار مدلهای متن به گفتار ML الکسا در نمونههای Inf1، توانست تأخیر استنتاج را تا 25 درصد و هزینه به ازای استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات دهها میلیون مشتری را که هر ماه از الکسا استفاده میکنند، افزایش دهد.
رها کردن قابلیتهای یادگیری ماشینی جدید در فضای ابری
از آنجایی که شرکتها با فعال کردن بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسبوکار خود رقابت میکنند، هیچ سازمانی نمیتواند از استقرار مدلهای یادگیری ماشینی پیچیده برای کمک به نوآوری در تجربیات مشتریان خود عقب بماند. در چند سال گذشته، افزایش قابل توجهی در کاربرد یادگیری ماشین برای موارد مختلف، از شخصیسازی و پیشبینی خرابی گرفته تا کشف تقلب و پیشبینی زنجیره تامین، وجود داشته است.
خوشبختانه، زیرساختهای یادگیری ماشین در فضای ابری قابلیتهای جدیدی را به وجود میآورد که قبلاً امکانپذیر نبود، و آن را برای متخصصان غیرمتخصص بسیار قابل دسترستر میکند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونههای آمازون EC2 Inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعاتی را در پشت موتورهای توصیه و رباتهای چت خود ارائه دهند و بینشهای عملی را از بازخورد مشتریان دریافت کنند.
با گزینههای زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی میتواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را در مقیاس بپذیرد. با فراگیرتر شدن یادگیری ماشینی، سازمانها اکنون میتوانند تجربه مشتری – و روش انجام کسب و کارشان – را با زیرساختهای یادگیری ماشینی مبتنی بر ابری با کارایی بالا و مقرونبهصرفه تغییر دهند.
در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS تولید شده است. این توسط هیات تحریریه MIT Technology Review نوشته نشده است.