القائمة الرئيسية

الصفحات

الاتحاد الاوربي |سيارات ذت الذكاء الاصطناعي|المركبات ذاتية القيادة |سيارات الاتحاد الاوربي


 يحذر تقرير الاتحاد الأوروبي من أن الذكاء الاصطناعي يجعل المركبات ذاتية القيادة "معرضة بشدة" للهجوم







الاتحاد الاوربي |سيارات  ذت الذكاء الاصطناعي|المركبات ذاتية القيادة |سيارات الاتحاد الاوربي






حلم المركبات الذاتية هو أنها يمكن أن تجنب الأخطاء البشرية وإنقاذ الأرواح، ولكن وكالة جديدة للاتحاد الاوروبي للأمن السيبراني (ENISA) تقرير وجد أن المركبات الذاتية هي "ضعيفة للغاية لمجموعة واسعة من الهجمات" يمكن ان يكون خطيرا للركاب والمشاة والأشخاص في المركبات الأخرى. تشمل الهجمات التي تم تناولها في التقرير هجمات أجهزة الاستشعار باستخدام حزم من الضوء ، وأنظمة اكتشاف الأجسام الساحقة ، والنشاط الخبيث الخلفي ، وهجمات التعلم الآلي العدائية المقدمة في بيانات التدريب أو العالم المادي.


"يمكن استخدام الهجوم لجعل نظام الذكاء الاصطناعي" أعمى "للمشاة عن طريق التلاعب على سبيل المثال بمكون التعرف على الصور من أجل تصنيف المشاة بشكل خاطئ. هذا يمكن أن يؤدي إلى فوضى في الشوارع ، حيث قد تصطدم السيارات المستقلة بالمارة على الطريق أو معابر المشاة ، "كما جاء في التقرير. "يعد غياب المعرفة والخبرة الأمنية الكافية بين المطورين ومصممي الأنظمة في مجال الأمن السيبراني للذكاء الاصطناعي عائقًا رئيسيًا يعيق تكامل الأمن في قطاع السيارات."



ووفقًا للتقرير ، فإن نطاق أنظمة وأجهزة الاستشعار التي تعمل بالذكاء الاصطناعي اللازمة لتشغيل المركبات ذاتية القيادة يزيد من مساحة سطح الهجوم. لمعالجة نقاط الضعف ، يقول مؤلفوها إن صانعي السياسات والشركات سيحتاجون إلى تطوير ثقافة أمنية عبر سلسلة توريد السيارات ، بما في ذلك مزودي الطرف الثالث. يحث التقرير مصنعي السيارات على اتخاذ خطوات للتخفيف من المخاطر الأمنية من خلال التفكير في إنشاء أنظمة التعلم الآلي كجزء من سلسلة التوريد في صناعة السيارات.



يركز التقرير على هجمات الأمن السيبراني باستخدام التعلم الآلي العدائي الذي يحمل مخاطر الهجمات الخبيثة التي يتعذر على البشر اكتشافها. وجد التقرير أيضًا أن استخدام التعلم الآلي في السيارات سيتطلب مراجعة مستمرة للأنظمة للتأكد من أنها لم يتم تغييرها بطريقة ضارة.


تقول الورقة البحثية: "لا يمكن أن يكون الأمن السيبراني للذكاء الاصطناعي مجرد فكرة لاحقة حيث يتم تنفيذ ضوابط الأمان حيث أن الوظائف الإضافية واستراتيجيات الدفاع ذات طبيعة تفاعلية". "هذا ينطبق بشكل خاص على أنظمة الذكاء الاصطناعي التي يصممها عادة علماء الكمبيوتر ويتم تنفيذها بشكل أكبر ودمجها من قبل المهندسين. يجب تصميم أنظمة الذكاء الاصطناعي وتنفيذها ونشرها بواسطة فرق حيث يتعاون خبير مجال السيارات وخبير ML وخبير الأمن السيبراني ".


تتضمن السيناريوهات المقدمة في التقرير إمكانية الهجمات على تخطيط الحركة وخوارزميات اتخاذ القرار والتحايل ، مثل النوع الذي يمكن أن يخدع مركبة ذاتية القيادة في "التعرف" على السيارات أو الأشخاص أو الجدران غير الموجودة.



في  السنوات القليلة الماضية ، أظهر عدد من الدراسات أن الاضطرابات الجسدية يمكن أن تخدع أنظمة المركبات الذاتية بأقل جهد. في عام 2017 ، استخدم الباحثون رذاذ الطلاء أو الملصقات على لافتة توقف لخداع مركبة ذاتية القيادة في الخطأ في تعريف العلامة على أنها علامة حد للسرعة. في عام 2019 ، استخدم باحثو الأمن في Tencent ملصقات لجعل الطيار الآلي في Tesla ينحرف في المسار الخطأ . وأظهر الباحثون العام الماضي أنهم قادرون على قيادة نظام مركبة ذاتية القيادة لتسريع سرعة من 35 ميلاً في الساعة إلى 85 ميلاً في الساعة عن طريق وضع بضع قطع من الشريط اللاصق بشكل استراتيجي على الطريق.

تعليقات

التنقل السريع