چندین کارشناس روز چهارشنبه اعلام کردند که هوش مصنوعی می تواند توسط دیکتاتورها، مجرمان و تروریست ها مورد استفاده قرار گیرد و به استفاده از هواپیماهای بدون سرنشین، در حملات تروریستی منجر شود. در یک تجزیه و تحلیل ۱۰۰ صفحه ای، آن ها رشد سریع جرایم اینترنتی و استفاده از ربات ها را برای دخالت در جمع آوری اخبار و نفوذ به رسانه های اجتماعی در میان بسیاری از سناریوهای قابل قبول در ۵ تا ۱۰ سال آینده بیان کردند. مدیر اجرایی مرکز مطالعات ریسک کمبریج گفت: «گزارش ما بر روی شیوه هایی است که مردم می توانند آسیب عمدی را با استفاده از هوش مصنوعی متحمل شوند.»
او به خبرگزاری فرانسه گفت: «ممکن است هوش مصنوعی تهدیدات جدیدی ایجاد کند یا ماهیت تهدیدات موجود در سراسر امنیت اینترنتی، فیزیکی و سیاسی را تغییر دهد. به عنوان مثال، معمولا «فیشینگ» میتواند با بهرهبرداری از هوش مصنوعی بسیار خطرناک باشد. با استفاده از هوش مصنوعی، میتوان فرآیندهای ارسال هرزنامه را خودکارسازی کرد و مقیاس آن را افزایش داد.»
در حوزههای سیاسی، رهبران خودکامه میتوانند از تکنولوژی پیشرفته استفاده کنند تا از طریق کلان دادههای جمع آوریشده از شبکههای نظارتی، همه جا به اطلاعات شهروندان خود دسترسی داشته و از آنها جاسوسی کنند. دولتها میتوانند با این رویکرد، افراد مخالف را پیش از انجام عملیات شناسایی کرده و زندانی کنند. به همین ترتیب، تبلیغات هدفمند همراه با فیلمهای جعلی و بسیار قابلاعتماد، ابزار قدرتمندی برای دستکاری افکار عمومی محسوب میشود. یکی از نگرانیهای دیگر گسترش سلاحهای بدونسرنشین و روباتهایی است که میتوانند باعث فروپاشی وسایل نقلیه خودمختار شوند و یا زیرساختهای حیاتی را برای به دست آوردن باج تهدید کنند.
مولیرس بروندج، یکی از محققان موسسه آیندۀ بشری دانشگاه آکسفورد، گفت: «شخصا، من در مورد هواپیماهای بدونسرنشین خودمختار، مورد استفاده برای ترور و حملات سایبری خودکار توسط مهاجمان و گروههای دولتی نگران هستم. ما در یک جهان پر از خطرات احتمالی در اثر سوءاستفاده از هوش مصنوعی زندگی میکنیم.» محققان از سیاستگذاران و شرکتها خواستند تا نرمافزارهای رباتیک را غیرقابل نفوذ طراحی کنند، محدودیتهای امنیتی را برای برخی تحقیقات اعمال کنند و قوانین و مقررات توسعهی هوش مصنوعی را گسترش دهند.