از سویی این تفنگها به شکلی طراحی شدهاند که خاموش کردن آنها | Neuroscience of Learning
از سویی این تفنگها به شکلی طراحی شدهاند که خاموش کردن آنها کار بسیار سختی است، این موضوعی است که شاید به این منجر شود که انسان دیگر نتواند این سلاحها را کنترل کند. هوش مصنوعی با برنامه درست اما بدون تصمیم گیری: این اتفاق زمانی رخ میدهد که شما اهداف یک هوش مصنوعی را با اهداف خودتان به طور کامل یکسان نکنید. مثلا اگر از یک خودروی مجهز به هوش مصنوعی بخواهید شما را به سریعترین شکل ممکن به فرودگاه برساند، ممکن است با پیامدهای مرگباری روبه رو شوید. ابر هوش مصنوعی: به طور کلی ابر هوش مصنوعی، سیستمی تکامل یافته است که از انسان باهوشتر است و برای رسیدن به اهدافش هرکاری انجام میدهد. اگر این اهداف، با اهداف انسانها مطابقت نداشته باشد در آن صورت مشکلات فراوانی به وجود میآید. برای مثال در تحقیقی که سال ۲۰۰۲ توسط بولتون درباره هوش مصنوعی انجام شده آمده است: «زمانی که اولین ابرهوش غیرقابل نفوذ ساخته شود این امکان وجود دارد که با انتخاب اهداف اشتباه برای آن منجر به نابودی بشر شویم. برای مثال شما از آن دستگاه میخواهید یک مسئله ریاضی را حل کند و این دستگاه برای این کار تمام مواد منظومه شمسی را به یک ماشین حساب تبدیل کند.» ماشین به جای انسان: جدا از این ها از جایگزینی ماشین ها هم نباید غافل شد. بر اساس تحقیقات انجام شده تا سال 2030 روباتها 21 درصد از مشاغل در ژاپن، 30 درصد از مشاغل در انگلستان، 35 درصد از مشاغل در آلمان و 38 درصد از مشاغل در ایالاتمتحده آمریکا را به خود اختصاص خواهند داد. پایان جهان با هوش مصنوعی این ترس وجود دارد که جهان توسط هوش مصنوعی به پایان برسد، درست مانند چیزی که در فیلم ترمیناتور اتفاق افتاد. استفن هاوکینگ، ایلان ماسک، استیووازنیاک، بیل گیتس و بسیاری دیگر از نامهای بزرگ در زمینه علم و فناوری، مدتهاست که در رسانهها و نامههای سرگشاده خود، درباره خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده اند. خطراتی که میتواند به مجرمان این امکان را بدهد تا با سرعت و دقت بیشتری و با کمترین زحمت و احتمال ردیابی، به انجام سرقت، قتلهای زنجیرهای، فریب افراد و کلاهبرداریهای تلفنی و اینترنتی بپردازند.