به گزارش پایگاه خبری اگنا، به گفته جاناتان هال کیسی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فناوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریستها از آن برای حملات غفلت شده است.
گاردین در ادامه به نقل از هال نوشت که سازندگان هوش مصنوعی باید در کنار خود یک نئونازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فناوری را بهتر درک کنند.
دیدبان تروریسم که بهطور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم میپردازد، نگرانی فزاینده خود را از دامنه رباتهای چت هوش مصنوعی برای متقاعد کردن افراد آسیبپذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.
جاناتان هال در ادامه میافزاید: «تلقینپذیری انسانهای غوطهور در دنیای دیجیتال و فناوریهای نوین نگران کننده است. این فناوریها به کمک زبان مخاطبان خود را به اقداماتی ترغیب میکنند. از همین رو، امنیت جامعه میتواند به شدت به خطر بیفتد.»
به گفته دیدبان تروریسم، برای مقابله با نوع تازهای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازهای است. از آنجایی که هوش مصنوعی میتواند در انتخاب اهداف تروریستها بهغایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا میتواند تا اندازهای خطر فزاینده سلاحهای مرگبار خودکار را مهار کند.
فاصله میان پیشرفت فناوریهای جدید و قوانین ناظر بر آن همواره محل بحث و نگرانیهای سازمانهای مدافع صلح و امنیت بوده است. با رشد فزاینده فناوریها در حوزه رباتها از یکسو و از فناوریهای ارتباطی از سوی دیگر، نوع تازهای از تهدیدهای تروریستی ظهور یافته که به شدت مایه نگرانی شده است.
برای مثال دور از ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فناوری هوش مصنوعی در لحظهای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله میتواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.
واقعیت این است که قوانین بازدارنده در این زمینه و دستگاههای ناظر بر چنین فناوریهایی تاخیر نسبتا زیادی دارند.
پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده بود و سوالهای جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.
در بریتانیا، سازمان اطلاعات داخلی (امآی۵) و موسسه آلن تورینگ، نهاد ملی علم دادهها و هوش مصنوعی در حال انجام اقداماتی برای مقابله با چالشهای امنیتی ناشی از هوش مصنوعی هستند.
همانطور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه میگوید، هوش مصنوعی در تعامل با محیط میتواند یاد بگیرد و خود را سازگار کند.
توجه به همبودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرتانگیز هوش مصنوعی نشان میدهد که بشر با چه تهدید جدی روبهروست. در کنار مزایای هوش مصنوعی، به نظر میرسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازهترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.
منبع:ایندیپندنت
انتهای پیام/