چگونه در مورد هوش مصنوعی صحبت کنیم (حتی اگر اطلاعات زیادی در مورد هوش مصنوعی نداشته باشید)

یادگیری عمیق تر

گرفتن محتوای بد در عصر هوش مصنوعی

در 10 سال گذشته، Big Tech در برخی موارد بسیار خوب شده است: زبان، پیش‌بینی، شخصی‌سازی، آرشیو کردن، تجزیه متن و خرد کردن داده‌ها. اما همچنان در جلب، برچسب زدن و حذف محتوای مضر به طرز شگفت آوری بد است. برای درک آسیب های واقعی که این امر باعث می شود، به سادگی باید گسترش تئوری های توطئه در مورد انتخابات و واکسن ها در ایالات متحده در دو سال گذشته را یادآوری کرد. سهولت استفاده از هوش مصنوعی مولد می تواند باعث ایجاد محتوای آنلاین مضرتر شود. مردم در حال حاضر از مدل های زبان هوش مصنوعی برای ایجاد وب سایت های خبری جعلی استفاده می کنند.

اما آیا هوش مصنوعی می تواند به تعدیل محتوا کمک کند؟ جدیدترین مدل های زبان بزرگ در تفسیر متن بسیار بهتر از سیستم های هوش مصنوعی قبلی هستند. در تئوری، می توان از آنها برای تقویت تعدیل محتوای خودکار استفاده کرد. بیشتر از تیت رایان ماسلی در خبرنامه هفتگی او، تکنوکرات، بخوانید.

بیت ها و بایت ها

دانشمندان از هوش مصنوعی برای یافتن دارویی استفاده کردند که بتواند با عفونت های مقاوم به دارو مبارزه کند
محققان MIT و دانشگاه مک مستر یک الگوریتم هوش مصنوعی را توسعه دادند که به آنها اجازه می داد آنتی بیوتیک جدیدی برای کشتن نوعی از باکتری های مسئول بسیاری از عفونت های مقاوم به دارو که در بیمارستان ها رایج هستند، بیابند. این یک پیشرفت هیجان انگیز است که نشان می دهد چگونه هوش مصنوعی می تواند اکتشافات علمی را تسریع و پشتیبانی کند. (اخبار MIT)

سم آلتمن هشدار می دهد که OpenAI می تواند اروپا را به دلیل قوانین هوش مصنوعی ترک کند
در رویدادی در لندن در هفته گذشته، مدیر عامل شرکت گفت که OpenAI می‌تواند در اتحادیه اروپا «فعالیت خود را متوقف کند» اگر نتواند با قانون آینده هوش مصنوعی مطابقت کند. آلتمن گفت که شرکت او در نحوه بیان قانون هوش مصنوعی انتقادات زیادی پیدا کرده است و اینکه “محدودیت های فنی برای آنچه ممکن است” وجود دارد. این احتمالاً یک تهدید توخالی است. قبلاً بارها شنیده ام که Big Tech این را در مورد یک قانون یا قانون دیگر گفته است. بیشتر اوقات، خطر از دست دادن درآمد در دومین بلوک بزرگ تجاری جهان بسیار زیاد است و آنها چیزی را کشف می کنند. اخطار آشکار در اینجا این است که بسیاری از شرکت‌ها ترجیح داده‌اند در چین فعالیت نکنند یا حضوری محدود داشته باشند. اما این نیز یک وضعیت بسیار متفاوت است. (زمان)

شکارچیان در حال حاضر از ابزارهای هوش مصنوعی برای تولید مواد سوء استفاده جنسی از کودکان استفاده می کنند
مرکز ملی کودکان گم شده و مورد بهره برداری هشدار داده است که شکارچیان از سیستم های هوش مصنوعی مولد برای ایجاد و به اشتراک گذاری مطالب جعلی سوء استفاده جنسی از کودکان استفاده می کنند. با توجه به اینکه مدل‌های مولد قدرتمند با محافظ‌هایی که ناکافی هستند و به راحتی هک می‌شوند، عرضه می‌شوند، زمان زیادی بود که شاهد مواردی از این دست باشیم. (بلومبرگ)

اخراج های فنی تیم های اخلاق هوش مصنوعی را ویران کرده است
این یک نمای کلی از کاهش شدید متا، آمازون، آلفابت و توییتر است که همگی بر روی اعتماد به اینترنت و ایمنی و همچنین اخلاق هوش مصنوعی متمرکز شده‌اند. به عنوان مثال، متا به یک پروژه حقیقت‌سنجی که ساخت آن نیم سال طول کشیده بود، پایان داد. در حالی که شرکت‌ها در حال رقابت برای ارائه مدل‌های قدرتمند هوش مصنوعی در محصولات خود هستند، مدیران اجرایی دوست دارند به خود ببالند که توسعه فناوری آنها ایمن و اخلاقی است. اما واضح است که Big Tech تیم هایی را که به این مسائل اختصاص داده اند را گران قیمت و هزینه بر می داند. (CNBC)