ظهور خطرناکترین هوش مصنوعی/ آیا امنیت ملی و حریم خصوصی افراد در خطر است؟
به گزارش اقتصادنیوز به نقل از سیتنا، توسعهدهندگان آنتروپیک اعلام کردند مدل جدید هوش مصنوعی آنها به سطحی از توانایی رسیده است که عرضه عمومی آن میتواند امنیت زیرساختهای جهانی و حریم خصوصی کاربران را به شکلی جبرانناپذیر به خطر بیندازد.
کارشناسان و توسعهدهندگان آنتروپیک هشدار میدهند که این مدل جدید (که هنوز نام رسمی آن فاش نشده) قادر است تنها با دریافت دستورات متنی ساده (Prompts)، به اکسپلویت کردن سیستمهای بزرگ و نفوذ به مرورگرهای وب بپردازد. بر خلاف مدلهای قبلی که محدودیتهای اخلاقی و امنیتی تا حدی جلوی سوءاستفاده را میگرفت، این هوش مصنوعی جدید پتانسیل بالایی در شناسایی حفرههای امنیتی Zero-day و اجرای حملات سایبری پیچیده دارد.
چرا این خبر مهم است؟
- خطر برای امنیت ملی: این مدل میتواند به سلاحی برای هکرهای کلاه سیاه تبدیل شود تا زیرساختهای حساس را فلج کنند.
- اعتراف سازنده: این نخستین بار است که یک غول هوش مصنوعی، محصول آماده عرضه خود را به دلیل «قدرت تخریبی زیاد» بایگانی میکند.
- فشار بر رقبایی مثل OpenAI: این اقدام آنتروپیک، بحثهای اخلاقی پیرامون ایمنی هوش مصنوعی را در مقابل سودآوری شرکتها دوباره داغ کرده است.
بنبست اخلاقی در سال ۱۴۰۵
تصمیم آنتروپیک نشاندهنده چرخشی بزرگ در دره سیلیکون است؛ جایی که تا پیش از این، شعار «سریع حرکت کن و همه چیز را بشکن» حکمفرما بود، حالا ترس از خلق یک «ابر هوش مصنوعی غیرقابل کنترل» باعث شده تا توسعهدهندگان، امنیت را به رقابت ترجیح دهند. با این حال، سوال اساسی اینجاست، اگر آنتروپیک این غول را در چراغ جادو نگه دارد، آیا رقبای دیگر هم همین فداکاری را خواهند کرد؟