هوش مصنوعی

پیشگامان طراحی سیستم ایمنی برای فناوری یادگیری ماشینی

فناوری یادگیری ماشینی یا همان هوش مصنوعی در تمام زمینه هادر تمام زمینه ها ، از سیستم های تشخیص چهره گرفته تا وسایل نقلیه بدون راننده ، رشد چشمگیری داشته است.

در کنار این پیشرفت ها ، ریسک ناشی از سو استفاده هکر ها و یافتن راه هایی برا دور زدن الگوریتم نیز افزایش یافته است .

جالب اینجاست که حتی ساده ترین روش ها نیز موفق شده اند در محیط های آزمایشگاهی الگوریتم های به کار گرفته شده در یادگیری ماشینی را فریب دهند .

همین موضوع باعث شده است محققین به دنبال راه هایی برای کاهش این خطرات احتمالی و حتی حملات واقعی باشند.

سازمان پروژه های تحقیقات پروژه های پیشرفته دفاعی ( DARPA ) از شرکت اینتل و دانشگاه تکنولوژی جورجیا خواسته است تحقیقاتی با هدف دفاع از الگوریتم های یادگیری ماشینی در برابر روش های فریبنده و حملات هکر ها آغاز کنند ؛ این سازمان معتقد است با وجود اینکه این حملات به ندرت خارج محیط های آزمایشگاهی صورت می گیرد، اما خسارت و مشکلات ناشی از آن در دنیای پیرامون می تواند جبران ناپذیر باشد.

به عنوان مثال ، فوریه گذشته McAfee گزارش داد گروهی از محقیقین توانسته اند با فریب سیستم کنترل سرعت خودرو هوشمند تسلا مدل S باعث شوند این خودرو با سرعت ۸۰ کیلومتر بر ساعت بیشتر از سرعت مجاز حرکت کند .

جالب اینجاست که این گروه تنها با استفاده از نوار چسب مشکی و پوشاندن تابلوی حداکثر سرعت موفق به فریب این ماشین هوشمند شده بودند. موارد دیگری نیز وجود دارند که هوش مصنوعی با استفاده از پیش پا افتاده ترین روش ها فریب داده شده است ، روش هایی که هر کسی به راحتی می تواند از آن ها بهره ببرد.

فناوری یادگیری ماشینی
فناوری یادگیری ماشینی

با وجود چنین گزارش هایی ، DARPA اقدامات فریبنده را خطری جدی برای تمام سیستم های مجهز به فناوری یادگیری ماشینی قلمداد می کند و به دنبال نقشی مهم در کاهش این تهدید ها است .

یک سال قبل این سازمان برنامه ای به نام GARD ، تقویت هوش مصنوعی در برابر اقدانات فریبنده ، راه اندازی کرد ؛ در این برنامه شرکت اینتل طی قراردادی ۴ ساله به عنوان پیمانکار‌ اصلی حضور دارد و با دانشگاه تکنولوژی جورجیا همکاری می کند .

جیسون مارتین که از سوی اینتل به عنوان مهندس ارشد و بازرس این پروژه انتخاب شده است می گوید:

Intel و Georgia tech طی همکاری مشترک در تلاش هستند درک جامع اکوسیستم از هوش مصنوعی و یادگیری ماشینی را بهبود ببخشند و توانایی آن در کاهش آسیب های ناشی از این گونه تکنولوژی ها را تقویت کنند .

این همکاری ها همچنین در راستای اجرای تحقیقات جدید در زمینه تکنیک های منسجم برای ارتقای سطح شناسایی اشیا و مقابله با حملات خرابکارانه خواهد بود.

در حال حاضر عامل اصلی ناتوانی سیستم ها در مقابله با اقدامات فریبنده عدم انعطاف پذیری و وابستگی بیش از حد به قوانین تعریف شده است .

به عبارت دیگر تا زمانی که بتوان بر این قوانین ساده تسلط داشت ، فریب سیستم به راحتی امکان پذیر است و افراد متخاصم روش های گوناکونی برای دور زدن الگوریتم ها در اختیار دارند . در نتیجه باید سیستم دفاعی بهتری توسعه داده شود تا این خطرات کاهش یابد .

شرکت اینتل فاز اولیه توسعه چنین سیستمی را بهبود سطح شناسایی اشیا می داند و معتقد است باید از داده های مربوط به فضا ، زمان و معنا که از تصاویر و ویدیو ها به دست آمده است باید به طور منسجم و یکپارچه در این زمینه به کار گرفته شود.

دکتر Hava Siegelmann مدیر اداره فناوری اطلاعات برنامه DARPA پیش بینی می کند سیستم ایمنی جدید بی شباهت به سیستم ایمنی بدن انسان نخواهد بود. به گفته وی می توان آن را یک سیستم یادگیری ماشینی در کالبد یک سیستم یادگیری ماشینی دیگر دانست.

دکتر Siegelmann همچنین اضافه می کند:

سیستم جامعی که طی این پروژه به دنبال تولید آن هستیم مبتنی بر سناریو بوده و به عنوان مثال ، مشابه سیستم ایمنی بدن ، حملات را شناسایی کرده ، آن ها را شکست می دهد و تجربیات را به خاطر می سپارد تا پاسخ قاطعی در مقابل حملات آینده داشته باشد ؛ چرا که باید مطمئن شویم فناوری یادگیری ماشینی و هوش مصنوعی از ایمنی کامل برخوردار است و قابل فریب دادن نیست.

اینستاگرام کیمیانو

دیدگاهتان را بنویسید

دکمه بازگشت به بالا