فرارو-این ایده که هوش مصنوعی روزی تمدن بشری را نابود خواهد کرد سال ها و حتی دهه ها در ذهن بسیاری از اندیشمندان بوده و حتی تعداد زیادی فیلم با این مضمون ساخته شده است. اینکه چنین چیزی واقعاً اتفاق خواهد افتاد یا خیر، توجه بسیاری از دانشمندان را به خود جلب کرده است و یک مطالعه اخیر می گوید که ما در نهایت کنترل این هوش مصنوعی را از دست خواهیم داد.
बह रोगल फरारो बह निकल अग रहनामातो، این دانشمندان می گویند که کنترل ابری از هوش بسیار فراتر از درک انسان است و باید شبیه سازی شود تا بتوانیم آن را تجزیه و تحلیل (و کنترل) کنیم. اما اگر ما قادر به درک آن نباشیم، شبیه سازی چنین اختراعی غیرممکن است.
به عبارت دیگر، اگر نوع سناریوهایی را که قرار است یک هوش مصنوعی ایجاد کند را درک نکنیم، نمیتوانیم قوانینی مانند «به انسانها آسیب نده» وضع کنیم. بنابراین وقتی یک سیستم کامپیوتری در سطحی بالاتر از حد برنامه نویسان کار می کند، دیگر نمی توانیم برای آن محدودیت تعیین کنیم.
ابری با چنین ویژگی هایی می تواند اقداماتی انجام دهد که کار را برای ما انسان ها سخت کند. همچنین این دلیلی است که یک غول چهره های زیادی دارد و بنابراین به طور بالقوه قادر است منابع مختلفی را برای دستیابی به اهدافی که به طور بالقوه برای انسان غیرقابل درک هستند، بسیج کند، چه رسد به قابل کنترل.
بخشی از استدلال این دانشمندان برگرفته از فرضیه «توقف دشوار» آلن تورینگ در سال 1936 است. این توضیح نظری بر این نتیجه استوار است که وقتی یک برنامه رایانه ای با مشکلی مواجه می شود و نمی تواند پاسخی پیدا کند، یا متوقف می شود یا به جستجوی خود برای نتیجه ادامه می دهد.
همانطور که تورینگ از طریق برخی ریاضیات هوشمند ثابت کرد، هوش مصنوعی می تواند هر برنامه کامپیوتری ممکنی را در حافظه خود ذخیره کند تا به مسائل پاسخ دهد. بنابراین، کنترل هر برنامه ای، از جمله برنامه هایی که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان و نابودی جهان نوشته شده اند، از نظر ریاضی غیرممکن است و کنترل آن برای همیشه تحت کنترل باقی می ماند. ایاد رهوان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک در آلمان در سال 2021، گفت: “در واقع، این باعث می شود که الگوریتم تسلط غیرقابل استفاده باشد.”
اکنون این ایده مطرح شده است که اگر قرار نیست از هوش مصنوعی برای حل مشکلات فراتر از محدودیت های ذهن انسان استفاده کنیم، پس چرا اصلا باید آن را اختراع کنیم؟ این بدان معنی است که ما باید شروع به پرسیدن برخی از سوالات جدی در مورد مسیرهایی که در حال طی کردن آن هستیم، کنیم.
مانوئل سابریان، دانشمند کامپیوتر از موسسه توسعه انسانی ماکس پلانک، نیز در سال 2021 گفت: به نظر می رسد ماشین فوق هوشمندی که جهان را کنترل می کند، فقط مربوط به دنیای علمی تخیلی باشد.