نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک

نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک به گزارش ساخت اپل آی دی، سازمان پلیس اتحادیه اروپا در گزارشی تازه نسبت به ظهور موج نوظهور جرائم مبتنی بر روبات های مجهز به هوش مصنوعی و سیستم های خودمختار اخطار داد.


به گزارش ساخت اپل آی دی به نقل از مهر؛ تحول در سامانه های خودران و روبات های انسان نما طی سالهای اخیر، از حوزه های آزمایشگاهی و صنعتی عبور کرده و به میدان های حقیقی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ های معاصر، خصوصاً در جبهه های درگیری روسیه و اوکراین، نشان داده است که فناوری های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را هم مبهم می سازند. در چنین شرایطی، پرسش اصلی دیگر صرفا به جنگ محدود نمی ماند. گزارش تازه لابراتوار نوآوری نهاد پلیس اروپائی یوروپل، چشم اندازی را ترسیم می کند که در آن قابلیت های خودکار و نیمه خودکار، به دست شبکه های جنایی و تروریستی می افتد و کیفیت تهدیدات داخلی را متحول می کند. در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تاکید می کند که نشانه های انقلاب فناورانه از هم اینک وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت های اروپائی تا ایجاد بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم بعنوان خدمت» را به سوی «جرم از راه دور» سوق می دهد. مساله کلیدی این است که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاسته می شود و هم نسبت کشف و انتساب دشوارتر می شود. از همین روی، نیروی پلیس نه فقط باید با فناوری روبرو شود، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را هم بازطراحی نماید.

از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری

متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سامانه های خودکار در میدان های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تاکید دارد. این سرریز الزاماً به معنای انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می شود، در مرحله بعد، منطق بهره برداری از آن به حوزه های غیرنظامی راه می یابد. این انتقال، همان نقطه ای است که نظم عمومی با یک تهدید چندلایه مواجه می شود؛ تهدیدی که بصورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه ای دارد. در همین چارچوب، گزارش اخطار می دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط روبات ها» مواجه شود. منظور از این عبارت، صرفا ارتکاب جرم با روبات بعنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می روند تا خودرو های خودران که در اثر سوءاستفاده یا حمله سایبری می توانند باعث صدمه به عابران شوند. گزارش در این بخش به نکته ای واقع گرایانه اشاره می کند: رخدادهای صدمه زا پیرامون خودرو های خودران، در مقطع کنونی و حال حاضر هم مشاهده می شوند. ازاین رو بخش مهمی از اخطار یوروپل، بر «تسریع» و «گسترده شدن» مساله ای موجود تمرکز دارد و بر وقوع یک امر بطورکامل ناشناخته مبتنی نیست.

پیچیدگی روبات انسان نما و دشواری تشخیص اهداف

اگر پهپادها و خودرو های خودران را بتوان در قالب ابزارهای نسبتاً شفاف تحلیل کرد، روبات انسان نما یک لایه پیچیدگی جدید به این پروسه می افزاید. گزارش تصریح می کند که روبات های انسان نما می توانند طوری طراحی شوند که تعامل پیچیده تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می سازد. در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، «برداشت انسانی» از کنش هم نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. در چنین وضعیتی، مساله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» بحساب می آید. بعبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در قالب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می یابد. این نکته در سطح حقوقی هم نتایج بسیاری در بر دارد. چونکه نظام عدالت کیفری، بصورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می تواند میان کاربر، تولیدکننده، ارایه کننده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملا مدعی می شود که تخصص های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.

ربات های درمانی صدمه پذیری انسان در حساس ترین نقطه

یکی از هشدارهای برجسته گزارش، مساله ورود هوش مصنوعی و روبات ها به حوزه سلامت است. بر همین اساس، اگر روبات هایی مورد استفاده برای کمک در محیط های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می گذارند، بلکه بیمار را در وضعیت صدمه پذیری مستقیم قرار می دهند. معنای این گزاره، پیشرفت سطح تهدید از «اختلال در خدمت» به «تهدید ضد جان و سلامت» است. به بیان دقیق تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می گیرد، صدمه سایبری می تواند به نتایج فوری و ملموس فیزیکی منجر شود. این بخش از گزارش، یادآور این حقیقت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را بصورت کیفی تغییر می دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مساله صرفا فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می شود. در چنین شرایطی، هر رخداد بزرگ در این عرصه، می تواند هراس عمومی ایجاد نماید و پذیرش اجتماعی نوآوری را عقب براند.

اقتصاد خودکار و انگیزه های جدید برای جرم

گزارش یوروپل همینطور تصویری اجتماعی هم درباره ی مساله جرایم رباتیک ارائه می کند. بر همین اساس، افرادی که بنابراین خودکار سازی شغل خودرا از دست می دهند، ممکنست برای بقا به طرف جرم گرایش پیدا کنند و در قالب های مختلف همچون جرم سایبری، تخریب و سرقت سازمان یافته اقدام نمایند. در این تصویر، هدف حملات می تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما بعنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است. به زبان سیاست گذاری، اگر اتوماسیون بصورت نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت ها بموقع طراحی نشود، احتمال ایجاد ناامنی اجتماعی پیرامون فناوری بیشتر می شود. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از طرف نهاد پلیسی اروپا، نشان داده است که مبحث جرم مبتنی بر روبات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته های مکمل اقتصادی و اجتماعی نیاز دارد.

پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند

علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی هم در قلب اخطار یوروپل قرار دارد. در این راستا، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری روی داده یا صرفا نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست. نکته جالب آن که متن گزارش حتی از برخی ابزارهای آینده نگرانه مانند تفنگ های موسوم به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد هم برای رویارویی با جرایم مذکور یاد می کند. به عقیده خیلی از کارشناسان، فارغ از اینکه توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی به حساب می آید، مواجهه با تهدید رباتیک، نیازمند تلفیقی از تجهیزات فیزیکی و قابلیت های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.

شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی

نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده این است که خود یوروپل هم بر قطعیت پیشبینی تاکید نمی نماید. سخنگوی این نهاد تصریح کرده است که آینده قابل پیشبینی و قطعی نیست. برخی صاحبنظران هم اعتقاد دارند که پیشبینی درباره ی سال ۲۰۳۵ دشوار است، چونکه فناوری با سرعت تغییر می کند. در کنار این، دیدگاه های تردیدآمیز هم به سناریوهای مطرح شده وجود دارد؛ همچون این که موانع فنی و موانع مقرراتی ممکنست مانع تحقق سناریوهای بسیار افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان ها مستقر شود یا روبات ها بطور کامل کار و اشتغال را از بین ببرند. در عین حال، این اختلاف نظرها، بجای آن که از ارزش اخطار بکاهند، آنرا دقیق تر می کنند. مساله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مساله این است که دامنه فناوری های خودکار درحال افزایش است و جرم و رویارویی با جرم، دیر یا زود از این تحول اثر می پذیرد. حتی اگر قسمتی از سناریوهای شدید هیچگاه رخ ندهد، بخش های میانه آن که شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت های هوشمند و پیچیده شدن انتساب و اثبات است، می تواند بطورکامل واقع گرایانه باشد.

پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک

اخطار یوروپل را میتوان بعنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست گذار باید هم زمان چند مسیر را دنبال کند. نخست، استانداردسازی امنیت برای سامانه های خودکار و رباتیک خصوصاً در حوزه های حساس دوم، توانمندسازی پلیس و دستگاه عدالت در حوزه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای ممانعت از شکستن حریم خصوصی به بهانه رویارویی با جرم گزاره کلیدی که از زبان مدیر اجرائی یوروپل نقل شده است، نقطه جمع بندی را می سازد. همان گونه که اینترنت و تلفن هوشمند فرصت ها و چالش های مهمی ایجاد کردند، فناوری های خودکار هم همین مسیر را طی خواهند کرد. به بیان دیگر، میتوان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت پیشرفت رفاه و ایمنی و با این حال ظرفیت گسترش تهدید را دارد. در این بین، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می گیرد. سرانجام، چنین پیداست که جرم مبتنی بر تکنولوژی رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه های آن از هم اینک مشاهده می شود و در این راستا، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت ها، صنعت و جامعه مدنی، قبل از وقوع بحران های بزرگ، وابسته است.

1404/10/07
10:13:26
5.0 / 5
6
تگهای خبر: آموزش , آنلاین , ایمنی , اینترنت
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۶ بعلاوه ۱
خرید اپل آیدی - ساخت اپل آیدی

پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

idstore.ir - حقوق مادی و معنوی سایت ساخت اپل آی دی محفوظ است

ساخت اپل آی دی

سفارش ساخت اپل آی دی
«idstore، کلید ورود شما به دنیای اپل. دنیای اپل رو شخصی سازی کنید»