مقابله دولت ها با چالش های امنیتی هوش مصنوعی/ (AGI) را یک سناریوی عادی نبینید

به گزارش اقتصادنیوز، چگونه برای یک بحران ژئوپلیتیکی مبتنی بر فناوری و هوش مصنوعی عمومی برنامهریزی کنیم.
به گزارش اقتصادنیوز، فارن افرز در گزارش جدید خود درباره هوش مصنوعی عمومی و اقدامات دولت ها در پذیرش این فناوری نوشت و هشدارهای لازم را به کشورهای پیشرو داد.
رهبران امنیت ملی به ندرت میتوانند انتخاب کنند که به چه چیزی اهمیت بدهند و چقدر به آن اهمیت بدهند. آنها اغلب تابع شرایطی هستند که خارج از کنترل آنهاست.
اقتصادنیوز: رقابت برای پذیرش گسترده هوش مصنوعی در جامعه به اندازه خود هوش مصنوعی اهمیت دارد.
حملات ۱۱ سپتامبر، برنامه دولت جورج دبلیو بوش برای کاهش تعهدات و مسئولیتهای جهانی آمریکا را معکوس کرد. انقلابها در سراسر جهان عرب، باراک اوباما، رئیس جمهور، را درست زمانی که سعی در بیرون کشیدن امریکا داشت، به خاورمیانه بازگرداند. و حمله روسیه به اوکراین، هدف دولت بایدن برای ایجاد روابط «پایدار و قابل پیشبینی» با مسکو را به گونهای که بتواند بر رقابت استراتژیک با چین تمرکز کند، نقش بر آب کرد.
سیاستگذاران میتوانستند بسیاری از نیروها و روندهای اساسی که این رویدادهای تعیینکننده دستور کار را هدایت میکردند، پیشبینی کنند. با این حال، در بیشتر موارد، آنها نتوانستند برای چالشبرانگیزترین نمودهای این نیروها که به کجا منجر میشوند، برنامهریزی کنند. آنها مجبور بودند برای بازاندیشی و تنظیم مجدد استراتژیهای خود برای پاسخ به رویدادهای در حال وقوع، تلاش کنند.
پیشرفت سریع هوش مصنوعی - و ظهور احتمالی هوش مصنوعی عمومی - هشدار اختلال حتی بزرگتری برای سیاستگذاران است. نشانههای یک تغییر قدرتمند در راه، همه جا دیده میشود.
رهبری چین و آمریکا در هوش مصنوعی
پکن و واشنگتن رهبری جهانی هوش مصنوعی را به یک ضرورت استراتژیک تبدیل کردهاند و شرکتهای پیشرو آمریکایی و چینی برای دستیابی به هوش مصنوعی عمومی (AGI) در حال رقابت هستند.
پوشش خبری حدودی روزانه شامل اعلامیههای پیشرفتهای فنی، بحث در مورد از دست دادن شغل ناشی از هوش مصنوعی و ترس از خطرات فاجعهبار جهانی مانند مهندسی یک بیماری همهگیر مرگبار با استفاده از هوش مصنوعی است.
هیچ راهی برای دانستن قطعی مسیر دقیق توسعه هوش مصنوعی یا چگونگی تغییر امنیت ملی توسط آن وجود ندارد. بنابراین، سیاستگذاران باید با فروتنی و احتیاط، شایستگیهای استراتژیهای رقابتی هوش مصنوعی را ارزیابی و مورد بحث قرار دهند.
با این حال، چه در مورد چشمانداز هوش مصنوعی خوشبین باشیم و چه بدبین، رهبران امنیت ملی باید آماده باشند تا برنامههای استراتژیک خود را برای پاسخ به رویدادهایی که میتوانند در این دهه، اگر نه در طول این دوره ریاست جمهوری، خود را بر تصمیمگیرندگان تحمیل کنند، تطبیق دهند. واشنگتن باید برای بدهبستانهای سیاسی بالقوه و تغییرات ژئوپلیتیکی آماده شود و گامهای عملی را که امروز میتواند برای کاهش خطرات و تقویت رقابتپذیری آمریکا بردارد، شناسایی کند. برخی از ایدهها و ابتکاراتی که امروز ممکن است غیرممکن یا غیرضروری به نظر برسند، با نگاهی به گذشته، فوری و بدیهی به نظر میرسند.
تفکر خارج از چارچوب
هیچ تعریف استاندارد و مشترکی از هوش مصنوعی عمومی (AGI) یا اجماعی در مورد اینکه آیا، چه زمانی یا چگونه ممکن است ظهور کند، وجود ندارد. مدلهای هوش مصنوعی پیشرو امروزی، در حال حاضر به طور فزایندهای قادر به انجام تعداد و پیچیدگی بیشتری از وظایف شناختی نسبت به ماهرترین و بهترین انسانها هستند.
از زمان راهاندازی ChatGPT در سال 2022، قدرت هوش مصنوعی به طرز چشمگیری افزایش یافته است. منطقی است که فرض کنیم این مدلها در سالهای آینده قدرتمندتر، مستقلتر و گستردهتر خواهند شد.
اقتصادنیوز: تنها تعداد کمی از شرکتهای بیمه، ارزش فوقالعادهای از هوش مصنوعی برای کسب مزیت رقابتی متوجه شده اند. پیوستن به آنها نیازمند یک رویکرد استراتژیک و جامع است که سازمان را متحول کند.
با این وجود، بعید است که دوران هوش مصنوعی عمومی (AGI) مانند دوران هستهای با اولین آزمایش سلاحهای هستهای، خود را با لحظه ای تکاندهنده معرفی کند. همچنین شرایط اقتصادی و فناوری به اندازه گذشته برای برنامهریزان آمریکایی مطلوب نیست. به عنوان مثال، در دوران هستهای، دولت آمریکا فناوری جدید را کنترل میکرد و برنامهریزان دو دهه فرصت داشتند تا قبل از ظهور یک رقیب هستهای، چارچوبهای سیاستی را توسعه دهند. در مقابل، برنامهریزان امروزی، اختیار و زمان کمتری برای سازگاری دارند. چین در حال حاضر در فناوری با آمریکا هم رده است، همچنین هوش مصنوعی یک فناوری همهمنظوره است که در هر بخش از اقتصاد و جامعه در حال گسترش است.
در این محیط به سرعت در حال تغییر، رهبران امنیت ملی باید منابع برنامهریزی کمیاب را به رویدادهای محتمل اما به شدت چالشبرانگیز اختصاص دهند. این نوع رویدادها اختلال در وضع موجود نیستند، بلکه نشانههایی از جایگزین در آینده هستند.
به عنوان مثال، فرض کنید یک شرکت آمریکایی ادعا میکند که جهش تکنولوژیکی متحولکنندهای به هوش مصنوعی عمومی (AGI) داشته است. رهبران باید تصمیم بگیرند که اگر شرکت درخواست کند که به عنوان یک «دارایی امنیت ملی» تلقی شود، دولت آمریکا چگونه باید پاسخ دهد. این نامگذاری به شرکت حمایت عمومی میدهد که میتواند به آن اجازه دهد تأسیسات خود را ایمن کند، به دادههای حساس یا اختصاصی دسترسی پیدا کند، تراشههای پیشرفتهتری به دست آورد و از مقررات خاصی اجتناب کند. از طرف دیگر، یک شرکت چینی ممکن است اعلام کند که قبل از هر یک از رقبای آمریکایی خود به هوش مصنوعی عمومی دست یافته است.
سیاستگذارانی که با این سناریوها دست و پنجه نرم میکنند، باید ارزیابیهای رقابتی و گاهی متناقض را متعادل کنند، که منجر به قضاوتهای متفاوتی در مورد میزان ریسک قابل پذیرش و اولویتبندی نگرانیها خواهد شد. بدون قابلیتهای تحلیلی قوی و مستقل، دولت آمریکا ممکن است برای قضاوت ادعاهای شرکتها دچار مشکل شود. رهبران امنیت ملی همچنین باید در نظر بگیرند که آیا پیشرفت فناوری جدید میتواند برای چین مزیت استراتژیک ایجاد کند یا خیر.
اگر آنها نگران باشند که هوش مصنوعی عمومی به پکن این امکان را بدهد که آسیبپذیریها را در زیرساختهای حیاتی آمریکا سریعتر از آنچه دفاع سایبری میتواند آنها را وصله کند، شناسایی و بهرهبرداری کند، ممکن است اقداماتی - مانند تلاش برای کند کردن یا خرابکاری در توسعه هوش مصنوعی چین - را تجویز کنند که میتواند خطر درگیری ژئوپلیتیکی را افزایش دهد. از سوی دیگر، اگر رهبران امنیت ملی بیشتر نگران این باشند که بازیگران غیردولتی یا تروریستها میتوانند از این فناوری جدید برای ایجاد سلاحهای زیستی فاجعهبار استفاده کنند، ممکن است ترجیح دهند برای جلوگیری از گسترش یک تهدید جهانی بزرگتر، با پکن همکاری کنند.
افزایش آمادگی برای سناریوهای هوش مصنوعی عمومی نیازمند درک بهتر اکوسیستم هوش مصنوعی در داخل و خارج از کشور است. سازمانهای دولتی باید از نحوه توسعه هوش مصنوعی مطلع باشند تا مشخص کنند که پیشرفتهای جدید در کجا به احتمال زیاد ظهور میکنند. این امر خطر غافلگیری استراتژیک را کاهش میدهد و به انتخابهای سیاستی در مورد اولویتبندی تنگناها و بهرهبرداری از آسیبپذیریها برای کند کردن بالقوه پیشرفت چین کمک میکند.
سیاستگذاران همچنین باید راههایی را برای همکاری با بخش خصوصی و سایر کشورها بررسی کنند. یک مشارکت مقیاسپذیر، پویا و دوطرفه خصوصی-دولتی برای پاسخ استراتژیک به چالشهای فعلی هوش مصنوعی بسیار مهم است و این امر در دنیای هوش مصنوعی عمومی (AGI) حتی بیشتر نیز صادق خواهد بود. سوءظن متقابل بین دولت و بخش خصوصی میتواند هرگونه پاسخ به بحران را فلج کند. در همین حال، رهبران باید سیاستهایی را برای به اشتراک گذاشتن اطلاعات حساس و اختصاصی در مورد تحولات هوش مصنوعی پیشرو با شرکا و متحدان تدوین کنند. بدون چنین سیاستهایی، ایجاد ائتلاف بینالمللی مورد نیاز برای پاسخ به بحران ناشی از هوش مصنوعی، کاهش ریسک جهانی و پاسخگو نگه داشتن کشورها و شرکتها در قبال رفتارهای غیرمسئولانه، چالش برانگیز خواهد بود.
هوش رقابتی
هوش مصنوعی عمومی نه تنها پویاییهای ژئوپلیتیکی موجود را پیچیده میکند، بلکه چالشهای جدید امنیت ملی را نیز به همراه خواهد داشت. یک حمله سایبری بیسابقه مبتنی بر هوش مصنوعی را تصور کنید که به مؤسسات مالی، شرکتهای خصوصی و سازمانهای دولتی آسیب میرساند و سیستمهای فیزیکی را از زیرساختهای حیاتی گرفته تا رباتیک صنعتی از کار میاندازد. در دنیای امروز، تعیین اینکه چه کسی مسئول جنگ سایبری است، خود به خود یک کار چالش برانگیز و زمانبر است. هر تعداد از بازیگران دولتی و غیردولتی، هم ابزار و هم انگیزههای لازم برای انجام حملات بیثباتکننده را دارند. با این حال، در جهانی با هوش مصنوعی پیشرفتهتر، وضعیت حتی پیچیدهتر خواهد بود. سیاستگذاران نه تنها باید این احتمال را در نظر بگیرند که عملیاتی در این مقیاس ممکن است مقدمهای برای یک کارزار نظامی باشد، بلکه باید این احتمال را نیز در نظر بگیرند که این کار ممکن است کار یک عامل هوش مصنوعی مستقل و خودتکثیرشونده باشد.
برنامهریزی برای این سناریو مستلزم ارزیابی این است که چگونه قابلیتهای امروز میتوانند چالشهای فردا را مدیریت کنند. دولتها نمیتوانند برای ارزیابی سریع و مطمئن یک تهدید، به ابزارها و تکنیکهای امروزی تکیه کنند، چه رسد به اعمال اقدامات متقابل مربوطه. با توجه به ظرفیت اثباتشده سیستمهای هوش مصنوعی در فریب و پنهانکاری، سیستمهای فعلی ممکن است نتوانند تشخیص دهند که آیا یک عامل هوش مصنوعی به تنهایی عمل میکند یا به دستور یک دشمن. برنامهریزان باید راههای جدیدی برای ارزیابی انگیزههای آن و چگونگی جلوگیری از تشدید اوضاع پیدا کنند.
آمادگی برای بدترین حالت مستلزم ارزیابی مجدد گامهای «رویکرد بی طرف» برای تقویت دفاع سایبری و جلوگیری از ناتوانی پهپادها یا وسایل نقلیه متصل به هوش مصنوعی است. برنامهریزان باید ارزیابی کنند که آیا پروتکلهای نظامی و تداوم عملیات فعلی میتوانند تهدیدات هوش مصنوعی دشمن را مدیریت کنند یا خیر.
بیاعتمادی عمومی به دولت و شرکتهای فناوری، اطمینانبخشی به جمعیت نگران را در صورت اطلاعات نادرست ناشی از هوش مصنوعی، دشوارتر میکند. با توجه به اینکه یک عامل هوش مصنوعی مستقل شاید به مرزهای ملی احترام نمیگذارد، آمادگیهای کافی شامل ایجاد کانالهایی با شرکا و دشمنان به طور یکسان برای هماهنگی یک واکنش مؤثر بینالمللی خواهد بود.
حداقل، برنامهریزی باید شامل چهار نوع اقدام باشد؛
اول - باید اقداماتی را تعیین کند که انجام آنها در هر شرایطی پشیمانی بههمراه ندارد؛ اقداماتی که سیاستگذاران و فعالان بخش خصوصی میتوانند از همین امروز برای تقویت موقعیت خود در برابر رویدادها انجام دهند.
دوم -باید دستورالعملهایی برای شرایط اضطراری آینده تهیه کند که بتوان آنها را بهطور مستمر با توجه به تهدیدها، فرصتها و مفاهیم جدید بهروزرسانی کرد.
سوم - باید در توسعه توانمندیهایی سرمایهگذاری کند که در سناریوهای مختلف حیاتی به نظر میرسند.
چهار - باید شاخصها و هشدارهای اولیه شکست راهبردی را در اولویت قرار دهد و شرایطی را فراهم کند که امکان اصلاح مسیر وجود داشته باشد.
هیچ کشوری با عادتهای قدیمی وجود ندارد
برنامهریزی برای تأثیرات هوش مصنوعی عمومی بر امنیت ملی باید از همین حالا شروع شود. در جهانی که به طور فزایندهای رقابتی و قابل اشتعال است، و با یک محیط داخلی از نظر اقتصادی شکننده و از نظر سیاسی قطبی شده، آمریکا نمیتواند غافلگیر شود.
اگرچه ممکن است که هوش مصنوعی در نهایت به یک «فناوری عادی» تبدیل شود - فناوریای مانند اینترنت یا برق که جهان را متحول میکند اما سرعت پذیرش آن محدودیتهای طبیعی دارد که دولتها و جوامع میتوانند آن را کنترل کنند - احمقانه است که فرض کنیم آماده شدن برای اختلال بزرگ اشتباه است.
برنامهریزی برای چالشهای دشوارتر میتواند به رهبران کمک کند تا مسائل استراتژیک اصلی را شناسایی کنند و ابزارهای واکنشی بسازند که در شرایط کمخطرتر به همان اندازه مفید باشند. همچنین عاقلانه نیست که فرض کنیم چنین برنامهریزی باعث ایجاد غرایز منفی و مسیرهای سیاسی میشود که خطرات را تشدید میکند یا پیشرفت هوش مصنوعی را کند میکند. به عنوان مثال، در دوران هستهای، برنامهریزی برای تروریسم هستهای بالقوه الهامبخش ابتکارات جهانی برای تأمین مواد شکافتپذیر مورد نیاز برای ساخت سلاحهای هستهای بود که در نهایت جهان را امنتر کرد.
همچنین خطرناک خواهد بود که احتمال هوش مصنوعی عمومی (AGI) را مانند هر «سناریوی عادی» در دنیای امنیت ملی در نظر بگیریم. تخصص و تسلط فنی در سراسر دولت محدود و ناهموار است و بازیگران نهادی که در پاسخ به هر سناریویی دخیل خواهند بود، بسیار فراتر از آژانسهای سنتی امنیت ملی هستند.
اکثر سناریوها شاید همزمان در خارج از کشور و در داخل کشور رخ خواهند داد. هرگونه پاسخی به شدت به انتخابها و تصمیمات بازیگران خارج از دولت، از جمله شرکتها و سازمانهای جامعه مدنی، که جایگاهی در اتاق وضعیت کاخ سفید ندارند و ممکن است امنیت ملی را در اولویت قرار ندهند، متکی خواهد بود. به همین ترتیب، برنامهریزی را نمیتوان به آیندهپژوهان و کارشناسان فنی که به پناهگاهی دور فرستاده میشوند تا ماهها صرف تهیه برنامههای دقیق در انزوا کنند، واگذار کرد. آماده شدن برای آینده با هوش مصنوعی عمومی باید به طور مداوم بر مباحث استراتژیک امروز تأثیر بگذارد.
در اینجا بحث فعالی در مورد مزایای استراتژیهای مختلف برای پیروزی در رقابت هوش مصنوعی و در عین حال جلوگیری از فاجعه وجود دارد، اما بحث کمتری در مورد چگونگی تغییر شکل چشمانداز بینالمللی، توزیع قدرت جهانی و اتحادهای ژئوپلیتیکی توسط هوش مصنوعی هوشمند (AGI) صورت گرفته است. در جهانی که به طور فزایندهای چندقطبی میشود، بازیگران نوظهور، هوش مصنوعی پیشرفته - و چگونگی انتشار فناوری هوش مصنوعی و معماری دیجیتال زیربنایی آن توسط آمریکا و چین - را به عنوان کلید آرمانهای ملی خود میبینند.
رهبران امنیت ملی نمیتوانند بحرانهای خود را انتخاب کنند. با این حال، آنها میتوانند انتخاب کنند که برای چه چیزی برنامهریزی کنند و منابع را برای آماده شدن برای چالشهای آینده به کجا اختصاص دهند. برنامهریزی برای هوش مصنوعی هوشمند، افراط در داستانهای علمی تخیلی یا حواسپرتی از مشکلات و فرصتهای موجود نیست. این یک روش مسئولانه برای آماده شدن برای احتمال بسیار واقعی مجموعهای جدید از چالشهای امنیت ملی در جهانی با تحولات است.
ارسال نظر