فرناندا ویگاس، استاد علوم کامپیوتر در دانشگاه هاروارد، که در این مطالعه شرکت نکرد، میگوید که از دیدن دیدگاه جدیدی در توضیح سیستمهای هوش مصنوعی هیجانزده است که نه تنها بینشی از فرآیند تصمیمگیری سیستم را به کاربران ارائه میدهد، بلکه این کار را توسط زیر سوال بردن منطقی که سیستم برای رسیدن به تصمیم خود استفاده کرده است.
ویگاس میگوید: «با توجه به اینکه یکی از چالشهای اصلی در پذیرش سیستمهای هوش مصنوعی، عدم شفافیت آنهاست، توضیح تصمیمات هوش مصنوعی مهم است. بهطور سنتی، توضیح اینکه چگونه یک سیستم هوش مصنوعی به یک پیشبینی یا تصمیم میرسد، به زبانی کاربرپسند، به اندازه کافی سخت است.»
چنهائو تان، استادیار علوم کامپیوتر در دانشگاه شیکاگو، میگوید که مایل است ببیند روش آنها در دنیای واقعی چگونه کار میکند – برای مثال، آیا هوش مصنوعی میتواند با پرسیدن سؤالات به پزشکان در تشخیص بهتر کمک کند.
لیور زالمنسون، استادیار دانشکده مدیریت کولر، دانشگاه تل آویو، میگوید: این تحقیق نشان میدهد که چقدر مهم است که برخی از اصطکاکها را به تجربیات چتباتها اضافه کنیم تا افراد قبل از تصمیمگیری با کمک هوش مصنوعی مکث کنند.
او میگوید: «وقتی همه چیز خیلی جادویی به نظر میرسد، آسان است که به حواس خودمان اعتماد نکنیم و همه چیز را به الگوریتم واگذار کنیم.
در مقاله دیگری که در CHI ارائه شد، زالمنسون و تیمی از محققان در کورنل، دانشگاه بایروث و تحقیقات مایکروسافت، دریافتند که حتی زمانی که مردم با آنچه رباتهای چت هوش مصنوعی میگویند مخالف هستند، همچنان تمایل دارند از آن خروجی استفاده کنند، زیرا فکر میکنند بهتر از هر چیزی که خودشان می توانستند بنویسند
ویگاس میگوید چالش، یافتن نقطهی شیرین، بهبود قدرت تشخیص کاربران و در عین حال راحت نگه داشتن سیستمهای هوش مصنوعی است.
او میگوید: «متاسفانه، در جامعهای با سرعت بالا، مشخص نیست که مردم چقدر تمایل دارند به جای انتظار پاسخ آماده، درگیر تفکر انتقادی باشند.