By Gardiner Morse
ترجمه: اشکان فلاحتکار
ما به قواعد جدیدی نیاز داریم تا از ریسکهایی جدی اجتناب کنیم.
من همیشه عاشق روباتهای فیلمها بودم، حتی روباتهای بد. اما همانطور که ماشینهای اطراف ما بهطرز اضطرابآوری هوشمندتر میشوند، دشوار است نگران نباشیم که هوشمصنوعی با نیت بدخواهانه (شاید نسخهای از ترمیناتور) دستآخر در جهان واقعی از بند آزاد شود.
البته که من در این اندیشههای تیرهوتار تنها نیستم. استیون هاوکینگ اخطار داد که «توسعه هوشمصنوعی کامل میتواند پایانی بر نژاد بشر باشد.» زمانی هم که فیلسوف دانشگاه آکسفورد، توبی اورد، برای کتاب جدید خود «پرتگاه» انبوهی از تهدیدهای وجودی (شامل برخورد سیارکها، جنگ هستهای و تغییرات اقلیمی) را بررسی کرد، محتملترین تهدید را «هوشمصنوعی متخاصم» دستهبندی کرد. با بررسی آخرین کتابهای حوزه هوشمصنوعی، از طریق اجماع متخصصان تا حدی مطمئن شدم که سرکشی (نقطهای که در آن هوشمصنوعی از هوش بشری پیشی میگیرد) به این زودیها محقق نمیشود و بازه زمانی تحقق آن را چیزی در حدود چند دهه تا چند قرن پیشبینی میکنند. اما این دلیل آسودگی خاطر نمیشود. این نویسندگان اذعان میکنند که نگرانی از آیندهای که در آن روباتها حکمرانی خواهند کرد، ذهن ما را از خطر نزدیک هوشمصنوعی «تککاره» منحرف میکند: هوشمصنوعی که در همهچیز از بلندگوهای هوشمند گرفته تا خودروهای خودران یافت میشود.