ژنراتورهای چهره جعلی هوش مصنوعی را می توان برای بازگرداندن چهره های واقعی که روی آنها آموزش دیده اند ، بازگردانید

این کار نگرانی های جدی در مورد حریم خصوصی ایجاد می کند. جان کاوتز ، معاون تحقیقات یادگیری و ادراک در انویدیا می گوید: “جامعه هوش مصنوعی هنگام به اشتراک گذاشتن مدل های شبکه عصبی عمیق احساس امنیت گمراه کننده دارد.”

از نظر تئوری این نوع حمله می تواند در مورد دیگر داده های مرتبط با یک فرد مانند داده های بیومتریک یا پزشکی اعمال شود. از سوی دیگر ، وبستر اشاره می کند که افراد می توانند از این تکنیک برای بررسی اینکه آیا داده های آنها برای آموزش هوش مصنوعی بدون رضایت آنها استفاده شده است یا خیر استفاده کنند.

او می گوید که یک هنرمند می تواند بررسی کند که آیا از کار آنها برای آموزش GAN در ابزار تجاری استفاده شده است یا خیر ، می گوید: “شما می توانید از روشی مانند روش ما برای اثبات نقض حق چاپ استفاده کنید.”

این فرایند همچنین می تواند مورد استفاده قرار گیرد تا مطمئن شوید GAN ها در وهله اول داده های خصوصی را افشا نمی کنند. GAN می تواند قبل از انتشار آنها ، با استفاده از همان تکنیک توسعه یافته توسط محققان ، بررسی کند که آیا خلاقیت آن در داده های آموزشی خود به نمونه های واقعی شبیه است یا خیر.

با این حال ، این فرض را بر این می گذارد که می توانید از داده های آموزشی استفاده کنید ، کائوتز می گوید. او و همکارانش در انویدیا روش دیگری را برای افشای اطلاعات خصوصی ارائه کرده اند ، از جمله تصاویر چهره ها و اشیا دیگر ، داده های پزشکی و موارد دیگر ، که به هیچ وجه نیازی به دسترسی به داده های آموزشی ندارد.

در عوض ، آنها یک الگوریتم ایجاد کردند که می تواند داده هایی را که یک مدل آموزش دیده در معرض آن قرار دارد ، با معکوس کردن مراحلی که مدل هنگام پردازش آن داده است ، بازسازی کند. از یک شبکه آموزش دیده برای تشخیص تصویر استفاده کنید: برای شناسایی آنچه در یک تصویر وجود دارد ، شبکه آن را از طریق یک سری لایه های عصبی مصنوعی عبور می دهد و هر لایه سطوح مختلف اطلاعات را از لبه های انتزاعی گرفته تا اشکال و ویژگی های قابل تشخیص بیشتر استخراج می کند.

تیم کائوتز دریافتند که می توانند یک مدل را در وسط این مراحل قطع کرده و جهت آن را معکوس کرده و تصویر ورودی را از داده های داخلی مدل بازسازی کنند. آنها این تکنیک را بر روی انواع مدل های رایج تشخیص تصویر و GAN ها آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را به طور دقیق از ImageNet ، یکی از شناخته شده ترین مجموعه داده های تشخیص تصویر ، بازسازی کنند.

تصاویری از ImageNet (بالا) در کنار تفریحات آن تصاویر که با چرخاندن یک مدل آموزش داده شده در ImageNet (پایین) تهیه شده است (پایین)

مانند آثار وبستر ، تصاویر بازآفرینی شده بسیار شبیه تصاویر واقعی است. کائوتز می گوید: “ما از کیفیت نهایی شگفت زده شدیم.”

محققان معتقدند که این نوع حمله صرفاً فرضی نیست. تلفن های هوشمند و دیگر دستگاه های کوچک شروع به استفاده بیشتر از هوش مصنوعی کرده اند. به دلیل محدودیت در باتری و حافظه ، مدل های هوش مصنوعی گاهی اوقات تنها در دستگاه خود نیمه پردازش می شوند و مدل نیمه اجرا شده برای آخرین محاسبه محاسبه به ابر ارسال می شود ، روشی که به محاسبه تقسیم معروف است. کائوتز می گوید ، اکثر محققان تصور می کنند که محاسبه تقسیم اطلاعات خصوصی از تلفن شخص را نشان نمی دهد زیرا فقط مدل هوش مصنوعی به اشتراک گذاشته شده است. اما حمله او نشان می دهد که اینطور نیست.

کائوتز و همکارانش در حال تلاش برای یافتن راه هایی برای جلوگیری از نشت اطلاعات خصوصی مدل ها هستند. او می گوید ما می خواستیم خطرات را درک کنیم تا بتوانیم آسیب پذیری ها را به حداقل برسانیم.

با وجود اینکه آنها از تکنیک های بسیار متفاوتی استفاده می کنند ، او فکر می کند که کار او و وبستر مکمل یکدیگر هستند. تیم وبستر نشان داد که داده های خصوصی را می توان در خروجی یک مدل یافت. تیم کائوتز نشان داد که داده های خصوصی را می توان با حرکت معکوس و بازسازی ورودی فاش کرد. کائوتز می گوید: “بررسی هر دو جهت برای درک بهتر نحوه جلوگیری از حملات مهم است.”