آیا جامعه بینالمللی میتواند جلوی نابودی بشر توسط هوش مصنوعی را بگیرد؟
هوش مصنوعی پدیده جدیدی نیست. اما رشد دور ازانتظار این فناوری دریکی
دو سال اخیر موجب شده تا ناگهان درمرکز توجه جهان قراربگیرد؛ یک فناوری استثنایی
که میتواند یک انقلاب اقتصادی-سیاسی-اجتماعی کمسابقه را برای بشریت رقم بزند.
از نظر برخی کارشناسان، این انقلاب همین حالا آغاز شده است. درحال
حاضر بخشهای مختلف اقتصاد وجامعه دربرخی کشورها به شکل قابل ملاحظهای از کمک هوش
مصنوعی بهره میبرند؛ بخشهایی مانند خدمات درمانی، حمل و نقل، خدمات مالی، آموزش
و پرورش، حفاظت از محیط زیست و البته امور امنیتی و نظامی.
درعین حال سرعت توسعه این فناوری نیز بسیاری را شوکه کرده است. در سال
۲۰۱۸ که برای نخستین بار جیپیتی-۱ راهاندازی شد، این مدل هوش مصنوعی از ۱۱۰
میلیون «پارامتر» برخوردار بود؛ یکی از واحدهای اندازهگیری برای درک میزان پیشرفت
مدل هوش مصنوعی. در سال ۲۰۲۳ که جیپیتی-۴ در دسترس عموم قرار گرفت، تعداد
پارامترهای این مدل از یک تریلیون (هزار میلیارد) «پارامتر» فراتر رفته بود؛
تفاوتی که نشاندهنده رشد خارقالعاده و نجومی این فناوری است.
این انتظار وجود دارد که قدرت پردازش و سرعت هوش مصنوعی ظرف پنج سال
به ۱۰۰ تریلیون پارامتر برسد که از نظر عمق پیچدگی و توانایی یادگیری و هوش عمومی
با مغز انسان برابری خواهد کرد.
اما این فناوری نیز مانند هر تکنولوژی دیگری، همانقدر که میتواند
عصای دست بشریت باشد، تهدیدی مرگبار نیز هست. اگر هوش مصنوعی بتواند به عنوان
مثال، درمان بیماریهای لاعلاج را کشف کند، آیا نمیتواند ویروسی بسازد که در دورهای
بسیار کوتاه میلیونها نفر را از پای در آورد؟
یا مثلا همان هوش مصنوعی که قرار است رانندگی خودورهایمان را برعهده
بگیرد، نمیتواند تانک براند؟ اگر هوش مصنوعی میتواند میزان بهرهوری تولید کفش وموبایل
وکامپیوتر را به شکلی خارقالعاده افزایش دهد، نمیتواند در توسعه خیرهکننده و
تولید انبوه تسلیحات جنگی به کار برود؟
همین دلایل موجب شده تا هوش مصنوعی ظرف چند سال اخیر به یکی از مهمترین
دغدغههای ژئوپولتیک در جهان تبدیل شود و قدرتهای بزرگ مانند آمریکا و چین، منابع
گستردهای را صرف توسعه و به خدمت گرفتن این فناوری بکنند. در حال حاضر این باور
وجود دارد که هرکس بتواند از نظر توسعه هوش مصنوعی از دیگران پیشی بگیرد، در
دورانی که بعد از انقلاب هوش مصنوعی شکل خواهد گرفت، دست بالا را خواهد داشت.
از نگاه اساتید علوم سیاسی مانند هنری کسینجر یا ایان برمر، هوش
مصنوعی در حد و اندازههای بمب اتم میتواند ساختار بینالمللی موجود را تحت تاثیر
قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند. چرا که به رغم جلو بودن
آمریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل
دسترسی به این ابزار قدرتآفرین، به شدت آسانتر خواهد بود.
هوش مصنوعی، یک سختافزار جدید مانند کامپیوتر یا یک نرمافزار جدید
مانند ویندوز یا یک فناوری انقلابی مانند اینترنت نیست. آیفون، فیسبوک و تیکتاک،
زندگی بشر را متحول کردند و همهشان نیز کاربردهای دوگانه دارند. اما هیچ کدام تا
امروز به حدی رشد نکردهاند که بتوانند نظم بینالمللی موجود را به شکل بنیادین به
چالش بکشند یا تهدیدی برای موجودیت بشر توصیف شوند.
درحال حاضر تسلیحات نظامی کنترل از راه دور به سرعت درحال توسعه است،
اما همواره کنترل این تسلیحات دردست انسان بوده است
حتی اگر درحال حاضر مشخصا سطح دسترسی سختافزاری و نرمافزاری کشورهای
«جنوب جهانی» (که ایران هم یکی ازآنهاست)، به هوش مصنوعی شبیه به کشورهای غربی یا
چین نباشد، این فرض وجود دارد که با توجه به سرعت رشد فناوریهای کامپیوتری،
دسترسی همه به مدلهای بسیار پیشرفته هوش مصنوعی در دهههای آینده بسیار آسان
خواهد بود.
بماند که اصولا بخش مهمی از توسعه هوش مصنوعی در دنیای امروز، در
کنترل شرکتهای خصوصی است؛ شرکتهایی که بر اساس تعاریف ونظریههای روابط بینالملل،
سالهاست به بازیگرانی بسیار قدرتمند درسطح بینالمللی بدل شدهاند وکنترل
ابزارهایی را در دست دارند که تا پیش از این تنها در کنترل دولت-ملتها بود.
وقتی در روزهای پایانی جنگ جهانی دوم، آمریکا از بمب اتمی استفاده
کرد، نخبگان مهم جامعه بشریت مانند آلبرت انیشتین و برتراند راسل هشدار دادند که
توسعه، گسترش و استفاده از تسلیحات هستهای در جنگها میتواند حیات بر روی کره
زمین را به نابودی کامل بکشاند. در پی همین هشدارها و کارزاری طولانی و فراگیر درسطح
جهانی، «پیمان منع گسترش تسلیحات هستهای» (NPT) شکل گرفت تا جلوی
نابودی کامل بشریت گرفته شود.
این روزها که در محافل سیاست بینالملل، هوش مصنوعی به طور معمول با
بمب اتم مقایسه میشود، این پرسش نیز به شکلی جدی وجود دارد که چه باید کرد؟ آیا
راهی برای کنترل هوش مصنوعی وجود دارد؟ چه کسی باید مسئولیت مقابله با تهدیدهای
احتمالی ناشی از هوش مصنوعی را برعهده بگیرد؟ چه کار باید کرد که مثلا گروههایی
شبیه به القاعده یا داعش، در۱۰، ۲۰ یا ۳۰ سال آینده به فناوری مورد نیاز برای ساخت
ویروسهای بسیار مرگبار یا حملات سایبری بسیار پیچیده دست پیدا نکنند؟ چطور میتوان
مطمئن شد که روزی، کسی در این دنیا یک «ترمیناتور» یا ربات مسلح آدمکش، تولید
نکند؟
آیا «آژانس بینالمللی هوش
مصنوعی» تشکیل میشود؟
درحال حاضر در دنیا هیچ مقرراتی برای کنترل توسعه هوش مصنوعی وجود
ندارد. از این زاویه، سال ۲۰۲۳ یکی از پرکارترین سالها برای سیاستمداران - به
ویژه در غرب - بود تا نخستین گامهای جدی را در این مسیر بردارند.
از آن جمله در ماه مه سال ۲۰۲۳ میلادی، کشورهای عضو گروه هفت (آمریکا،
بریتانیا، فرانسه، آلمان، کانادا، ایتالیا و ژاپن) سند کوتاهی را به نام «روند
هیروشیما» منتشر کردند که در آن اصول مورد نظر این کشورها برای «توسعه امن و
اخلاقی» هوش مصنوعی ذکر شده بود. در این دستورالعمل پیشنهادی از دستاندرکاران
توسعه هوش مصنوعی درخواست شد تا خود به شکل داوطلبانه، خطرات احتمالی این فناوری
را شناسایی کنند و در جریان کارشان، این خطرات را خنثی کنند.
یک ماه بعد از انتشار این سند، پارلمان اتحادیه اروپا برای نخستین بار
متن پیشنویس قانون هوش مصنوعی را تصویب کرد که نخستین قانون جامع نظارت و کنترل
این فناوری در جهان توصیف شده است. اما این قانون از سال ۲۰۲۶ اجرا خواهد شد؛
زمانی که به گفته کارشناسان فناوری، مدلهای هوش مصنوعی دیگر هیچ شباهتی به هوش مصنوعی
امروز نخواهند داشت.
سرانجام در میانه تابستان ۲۰۲۳، موضوع هوش مصنوعی به شورای امنیت
سازمان ملل کشیده شد. آنتونیو گوترش، دبیرکل سازمان ملل به اشکال مختلف حمایتش را
از تشکیل یک سازمان بینالمللی جدید، شبیه به سازمان بینالمللی انرژی هستهای،
برای نظارت بر هوش مصنوعی بیان کرده است.
آقای گوترش در شورای امنیت نیز بار دیگر نگرانیهایش را بیان کرد و در
نهایت اعضای این شورا بر سر تشکیل یک شورای مشورتی توافق کردند. این شورا در ۲۶
اکتبر (۵ آبان) گزارش اولیهاش را منتشر کرد که در آن به کشورهای جهان توصیه شده
هر چه سریعتر، به تلاشهایی مشترک روی بیاورند. گزارش نهایی این شورا قرار است در
تابستان ۲۰۲۴ در «نشست آینده» منتشر شود؛ نشستی که انتظار میرفت به شکل قابل
ملاحظهای به مسائل محیطزیستی اختصاص داشته باشد و حالا این گمانه مطرح است که
زیر سایه موضوع خطرات کلیدی هوش مصنوعی قرار بگیرد.
متفکرانی مانند هنری کسینجر معتقدند که بشریت در مواجهه با هوش مصنوعی
باید از تاریخ کنترل تسلیحات هستهای درس بگیرد؛ سالهایی که ابرقدرتهای جهان به
رغم تفاوتهای بنیادین و حتی رویکردهای خصمانه نسبت به یکدیگر، در کنار هم
پذیرفتند که جلوی گسترش بمبهای اتمی را بگیرند.
در جلسه شورای امنیت تعدادی از کارشناسان هوش مصنوعی نیز نظراتشان را
بیان کردند
اقدام جامعه بینالمللی در کنترل تسلیحات هستهای به حدی موفق بود که
بعد از ۸۰ سال، در دنیای امروز تنها ۹ کشور به سلاح هستهای دسترسی دارند (آمریکا،
بریتانیا، فرانسه، چین و روسیه به عنوان اعضای «قانونی» باشگاه کشورهای هستهای،
در کنار هند، پاکستان، اسرائیل و کره شمالی، به عنوان اعضای «غیرقانونی» این
گروه).
با این حال مقایسه این دو پدیده و به ویژه ارجاع به موفقیتهای سازمان
بینالمللی انرژی هستهای در این زمینه میتواند بسیار خوشبینانه به نظر برسد.
همین حالا کم نیستند منتقدانی که میگویند پیمان منع گسترش تسلیحات هستهای به شکل
یکجانبه و به ضرر کشورهای غیرهستهای اجرا شده و یکی از وعدههای بزرگ این پیمان
مبنی بر خلع سلاح هستهای قدرتهای بزرگ، هرگز عملی نشده است.
به بیان دیگر، این پیمان در واقع ابزاری بوده در دست قدرتهای بزرگ تا
از دسترسی کشورهای دیگر به تسلیحات هستهای جلوگیری کنند و موقعیت استثنایی و
بسیار قدرتمند خود را در عالیترین سطوح سلسله مراتب بینالمللی تضمین کنند.
علاوه بر این، با در نظر گرفتن تنشهای ژئوپلتیک موجود در سطح قدرتهای
بزرگ و رقابت شدید و پر از اضطراب چین و آمریکا، چگونه میتوان از این دو کشور
خواست تا از توسعه هوش مصنوعی دست بکشند؟ آیا واشنگتن یا پکن، هیچ کدام حاضر میشوند
که حتی برای دورانی کوتاه و موقت، توسعه این فناوری را به حال تعلیق دربیاورند؟
نه تنها چنین انتظاری از کشورهایی چون آمریکا و چین، غیر واقعی به نظر
میرسد، حتی با فرض تدوین مقررات سختگیرانه بینالمللی، راهاندازی نهادی قدرتمند
شبیه به سازمان بینالمللی انرژی هستهای نیز لزوما کنترل جدی این فناوری را تضمین
نخواهد کرد. کشورهای تجدیدنظرطلب جامعه بینالمللی مانند جمهوری اسلامی ایران یا
کره شمالی، همین حالا نیز تاکید دارند که در ساختار فعلی به آنها ظلم شده و سلسله
مراتب قدرت در این ساختار، ناعادلانه است. آیا آنها حاضر خواهند شد که حالا علاوه
بر دوربینهای آژانس بینالمللی انرژی هستهای، دوربینهای یک آژانس بینالمللی
جدید را نیز در لابراتوارهای هوش مصنوعیشان نصب کنند؟
و حتی با فرض اینکه بازیگران کشوری در جامعه بینالمللی به مقرراتی
محدودکننده تن بدهند، چه تضمینی وجود دارد که گروههایی مانند القاعده و داعش این
مقررات را بپذیرند و توسعه هوش مصنوعی را روزی به سطحی که موجودیت بشر را تهدید
کند، نرسانند؟
هیچ نظری موجود نیست:
ارسال یک نظر