چه محاسباتی ثابت می‌کند کنترل یک ابر هوش مصنوعی غیرممکن خواهد بود؟

fei-fei-li-thumbnail-image

هوش مصنوعی و ایده سرنگونی بشر 

دهه‌هاست که ایده هوش مصنوعی که می تواند بشر را سرنگون کند نقل محافل است. در ژانویه 2021، نهایتاً دانشمندان حکم خود را در مورد اینکه آیا امکان کنترل یک ابر هوش کامپیوتری سطح بالا توسط بشر وجود دارد یا خیر را صادر کردند: پاسخ به طور قطع، منفی است!

 

هوش مصنوعی

 

نکته مهم این است که کنترل یک ابر هوش بسیار فراتر از درک انسان، نیازمند شبیه سازی آن ابر هوش به منظور تحلیل آن است. اما اگر ما قادر به درک آن نباشیم، ایجاد اینگونه شبیه سازی نیز غیرممکن است.

به گفته نویسندگان مقاله فوق، اگر ما نوع سناریوهایی را که یک هوش مصنوعی ممکن است به تحلیل آن بپردازد، درک نکنیم، نمی‌توانیم برایش قوانینی از جمله «وارد نکردن آسیب به انسان ها» وضع کنیم. هنگامی که یک سیستم کامپیوتری در سطحی بالاتر از محدوده عملکرد فکری برنامه‌نویسان ما کار کند، دیگر عملاً امکان تعیین محدودیت برای آن وجود ندارد.

محدود کردن هوش مصنوعی و مسئله “توقف” آلن تورینگ

محققان بر این باورند که هوشمندی بالا اساساً در حوزه‌ای متفاوت با آنچه که معمولاً در دسته‌ای تحت عنوان «اخلاقمندی در ربات‌ها» قرار می‌گیرد، باید مطالعه شود. دلیل چنین مسئله‌ای این است که یک ابرهوش دارای قابلیت های چندوجهی است و بنابراین به طور بالقوه قادر است منابع متنوعی را برای دستیابی به اهدافی که برای انسان غیرقابل درک است، به کار گیرد؛ چه برسد به اینکه توسط انسان قابل کنترل باشد.

 

هوش مصنوعی

 

بخشی از این استدلال، به مسئله “توقّف[1]” که نخستین بار در سال 1936 توسط آلن تورینگ ارائه شد باز می‌گردد . طرح مسئله بدین صورت است که آیا ما می‌توانیم بدانیم یک برنامه کامپیوتری به نتیجه و پاسخ می‌رسد ( متوقف می‌شود) و یا آنکه برای همیشه در تلاش برای یافتن پاسخ در یک حلقه باقی می‌ماند؟

همانطور که تورینگ از طریق محاسبات دقیق ریاضی ثابت کرد، دانستن اینکه برخی برنامه‌ها متوقف می‌شوند یا نه امکان‌پذیر است ولی در حالت کلی برای همه برنامه های کامپیوتری این امکان وجود ندارد. این ما را به هوش مصنوعی بازمی‌گرداند، که در حالت فوق هوشمند می تواند هر برنامه کامپیوتری ممکن را به یکباره در حافظه خود نگه دارد. بنابراین هر برنامه ای که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان‌ها و نابودی جهان نوشته شده باشد، ممکن است به نتیجه برسد (و متوقف شود) یا خیر و از نظر ریاضی در هر صورت غیرممکن است که بتوانیم از توقف برنامه ( به نتیجه رسیدن آن) کاملاً مطمئن باشیم؛ این به معنی  کنترل ناپذیری هوش مصنوعی در حالت کلی است. لیاد راهون[2]، دانشمند کامپیوتر، از موسسه توسعه انسانی ماکس پلانک آلمان در ژانویه 2012 گفت: «در واقع، این باعث می شود که الگوریتم مهار عملا غیرقابل استفاده باشد.»

اخلاق در ربات‌­ها و جلوگیری از نابودی دنیا

آنچه می‌تواند جایگزین آموزش برخی اصول اخلاقی به هوش مصنوعی شود و آن را از نابودی دنیا منع کند – چیزی که به گفته محققان با هیچ الگوریتمی نمی‌توان انجام آن را کاملاً تضمین کرد- محدود کردن قابلیت های ابرهوش مثل قطع ارتباط آن با بخش‌هایی از اینترنت یا شبکه‌های خاص است. مطالعه اخیر این ایده را نیز رد می‌کند. این کار عملاً موجب محدود کردن هوش مصنوعی و عملکرد آن می‌شود و این بحث را پیش می‌آورد که اگر قرار نیست از هوش مصنوعی برای حل مشکلات فراتر از محدوده انسان استفاده کرد، پس چه نیازی به ایجاد کردن آن است؟!

 

هوش مصنوعی

 

اگر بخواهیم با هوش مصنوعی به پیش بتازیم، حتی ممکن است ندانیم که چه زمانی یک ابر هوش فراتر از کنترل ما پا به عرصه وجود می‌گذارد! این غیرقابل پیش بینی بودن بدان معناست که ما باید به پرسیدن سؤالات جدی در مورد مسیرهایی که قرار است در آنها پیش برویم، بپردازیم.

مانوئل سبریان[3]، دانشمند کامپیوتر، از موسسه توسعه انسانی ماکس پلانک، می گوید: «ماشین فوق هوشمندی که جهان را کنترل کند، شبیه داستان های علمی تخیلی به نظر می‌رسد. اما در حال حاضر  هم ماشین هایی وجود دارند که وظایف مهم خاصی را به طور مستقل از انسان انجام می‌دهند، بدون اینکه برنامه نویسان کاملاً درک کنند که چگونه آن را یاد گرفته اند».

بنابراین این سوال مطرح می شود که آیا ممکن است هوش مصنوعی در مقطعی غیرقابل کنترل و برای بشریت خطرناک شود؟

نسخه ای از این مقاله برای اولین بار در ژانویه 2021 و در مجله تحقیقات هوش مصنوعی منتشر شده است.

[1] Halting problem

[2] Lyad Rahwan

[3] Manuel Cebrian

 


 

نویسنده: دیوید نیلد

ترجمه و تالیف: فروغ مروّج صالحی

 

میانگین آرا: 0 / 5. شمارش رای‌ها: 0

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *