در سال 1932، اولین آمریکایی آفریقاییتبار میتوانست با پذیرش موقعیتی در فیلادلفیا، لیگ برتر بیسبال را ادغام کند. اما برای اینکه رومار بیردن به ستاره آنها تبدیل شود، باید به عنوان سفید پاس بدهد.
می توان این فرض را مطرح کرد که بیردن از خود پرسید: “این به چه کسی کمک می کند؟” بیردن به جای بازی کردن، بیسبال را کنار گذاشت و به یکی از مشهورترین و تاثیرگذارترین هنرمندان آمریکا تبدیل شد. جکی رابینسون به شکستن سد رنگ در سرگرمی آمریکا ادامه داد.
در بحث با همسالان، “این به چه کسی خدمت می کند؟” یک سوال همیشگی است؛ پاسخ اغلب این است: “معلوم است که ما نیستیم.” این احساس «ما در برابر آنها» در مورد بسیاری از جنبههای زندگی آمریکایی، از آموزش و پزشکی گرفته تا برنامهها و قوانین دولتی، برای جامعه سیاهپوستان تازگی ندارد.
به دنبال این روند، بسیاری از هوش مصنوعی مولد توسط “آنها” ایجاد و داده ها تغذیه شده است. نمونهها عبارتند از فناوری تشخیص چهره که نمیتواند چهرههای سیاهپوست را نمایش دهد، چتباتهایی که نمایههای نژادی را بازسازی میکنند، و هوش مصنوعی رسانههای اجتماعی که انگلیسی بومی آفریقایی آمریکایی را به عنوان سخنان مشوق نفرت نشان میدهند.
متأسفانه، افرادی که این ابزارها را ایجاد میکنند، سؤالاتی درباره گنجاندن نمیپرسند، و از بین بردن شکاف فناوری دشوار میشود. فقدان نمایندگی در تحقیق و توسعه فناوری، و فقدان نمایش در داده های مورد استفاده برای آموزش این هوش مصنوعی، تعصب را تداوم می بخشد و سؤالات مهمی را مطرح نمی کند.
برای پر کردن این شکاف، حرکات واضحی وجود دارد که جامعه فناوری باید انجام دهد تا مطمئن شود که از الگوهای تبعیض آمیز پیشینیان مبتکر خود پیروی نمی کنیم.
توسعه دهندگانی را استخدام کنید که در شیوه های کدگذاری عادلانه آموزش دیده اند
ما باید الگوریتم های هوش مصنوعی فعلی را با استفاده از چشمان تازه آموزش دیده در شیوه های کدگذاری عادلانه اصلاح کنیم. سرمایهگذاری در دادههای صورتحساب برگشتی و گنجاندن فعال مجموعههای داده متنوع برای مبارزه با سوگیری، یادگیری ماشین را بیشتر بهبود میبخشد.
با این حال، تیم های توسعه متشکل از افرادی که سیستم مغرضانه را ایجاد کرده اند، همان حفره را دوباره حفر می کنند. به کارگیری متفکرانی که ابتدا تنوع را کد می کنند تا مدل های موجود را بهبود بخشند، راه حل سریع تری برای اصلاح الگوریتم های هوش مصنوعی نابرابر است.