[ad_1]

مدل های یادگیری ماشین خطا پذیر نیستند. محققان برای جلوگیری از استفاده مهاجمین از این مدل ، تکنیک های مختلفی را برای تقویت مدل های یادگیری ماشین طراحی کرده اند.

همه شبکه های عصبی در معرض “حملات مسابقه ای” هستند ، جایی که مهاجم مثالی را برای فریب شبکه عصبی طراحی کرده است. هر می توان از سیستمی استفاده کرد که از شبکه عصبی استفاده می کند. خوشبختانه تکنیک های شناخته شده ای وجود دارد که می تواند حملات اتومبیلرانی را کاملاً کاهش داده یا حتی از آن جلوگیری کند. با آگاهی شرکت ها از خطرات حملات رقبا ، زمینه یادگیری ماشین رقابتی به سرعت در حال رشد است.

ما یک مطالعه موردی مختصر در مورد سیستم های تشخیص چهره و آسیب پذیری های بالقوه آنها را بررسی خواهیم کرد. حملات و شمارنده هایی که در اینجا توضیح داده شده اند کمی رایج است ، اما تشخیص چهره مثال های آسان و قابل فهم را ارائه می دهد.

سیستم های تشخیص چهره

با افزایش در دسترس بودن داده های بزرگ در مورد افراد ، روش های یادگیری ماشین مانند شبکه های عصبی عمیق به دلیل سهولت ساخت ، آموزش و اجرا بسیار جذاب می شوند. سیستم های تشخیص چهره (FRS) مبتنی بر این شبکه های عصبی آسیب پذیری های شبکه را به ارث می برند. در صورت عدم رسیدگی ، FRS در برابر حملات به چندین شکل آسیب پذیر خواهد بود.

حملات جسمی

ساده ترین و بارزترین حمله ، حمله ارائه است ، که در آن مهاجم به سادگی یک عکس یا فیلم از شخص مورد نظر را جلوی دوربین نگه می دارد. مهاجم همچنین می تواند از یک ماسک واقع بینانه برای فریب FRS استفاده کند. اگرچه حملات ارائه می تواند م effectiveثر باشد ، اما به راحتی توسط تماشاگران و / یا اپراتورهای انسانی مشاهده می شود.

یک نوع دقیق تر از حمله ارائه ، یک حمله اغتشاش فیزیکی است. این شامل یک مهاجم است که چیزی مخصوص برای فریب FRS مانند شیشه های مخصوص رنگی طراحی کرده است. اگرچه می توان فردی را به درستی به عنوان یک غریبه طبقه بندی کرد ، اما شبکه عصبی FRS می تواند گمراه کننده باشد.

حملات دیجیتالی

سیستم های تشخیص چهره در برابر حملات دیجیتالی بسیار آسیب پذیرتر هستند. مهاجمی که شبکه اساسی عصبی FRS را می داند می تواند با دقت یک پیکسل به پیکسل نمونه ایجاد کند تا شبکه را کاملا فریب دهد و خود را به همه معرفی کند. این باعث می شود حملات دیجیتالی بسیار موذی تر از حملات فیزیکی باشد ، که در مقابل از اثربخشی کمتری برخوردار هستند و بیشتر به چشم می آیند.

حمله صوتی نامحسوس ، نشان داده شده در عکس عکس آزاد تصویر: الکس سعد-فالکون

حمله صوتی نامحسوس ، در یک عکس سهام آزاد نشان داده شده است

تصویر: الکس سعد-سوکول

حملات دیجیتالی چندین قسمت دارند. اگرچه نسبتاً نامحسوس است ، ناخودآگاه ترین آن حمله صوتی است. تصویر مهاجم توسط یک تصویر نویز سفارشی اصلاح می شود ، جایی که مقدار هر پیکسل حداکثر 1 تغییر می کند. عکس بالا این نوع حمله را نشان می دهد. از نظر انسان ، تصویر سوم کاملاً شبیه به تصویر اول است ، اما شبکه عصبی آن را به عنوان یک تصویر کاملاً متفاوت ثبت می کند. این اجازه می دهد تا مهاجم مورد توجه هر دو عامل انسانی و FRS قرار نگیرد.

حملات دیجیتالی مشابه دیگر شامل حملات دگرگونی و تولیدی است. حملات تحول به سادگی صورت را می چرخانند یا چشم ها را به گونه ای حرکت می دهند که برای فریب FRS طراحی شده باشد. در حملات تولیدی از الگوهای زایشی پیچیده برای ایجاد نمونه هایی از مهاجم با ساختار صورت شبیه به هدف استفاده می شود.

راه حل های ممکن

برای رسیدگی صحیح به آسیب پذیری های سیستم های تشخیص چهره و به طور کلی شبکه های عصبی ، زمینه تاب آوری یادگیری ماشینی بازی می شود. این زمینه با ناسازگاری در اجرای مدل یادگیری ماشین به حل مشکلات جهانی کمک می کند و پاسخی در مورد چگونگی کاهش حملات مسابقه ای ارائه می دهد.

یکی از راه های ممکن برای بهبود تاب آوری شبکه عصبی ، گنجاندن مثال های رقابتی در یادگیری است. این معمولاً به مدلی منجر می شود که از نظر داده های آموزشی کمی دقیق تر باشد ، اما مدل برای تشخیص و دفع حملات مسابقه ای هنگام استقرار مناسب تر خواهد بود. یک مزیت اضافه شده این است که مدل داده های دنیای واقعی را با ثبات تر اجرا می کند ، که اغلب پر سر و صدا و متناقض است.

روش معمول دیگر برای بهبود تاب آوری مدل استفاده از بیش از یک مدل یادگیری ماشین با آموزش گروه است. در مورد سیستم های تشخیص چهره ، از چندین شبکه عصبی با ساختارهای مختلف می توان به طور همزمان استفاده کرد. شبکه های عصبی مختلف آسیب پذیری های مختلفی دارند ، بنابراین یک حمله مسابقه ای فقط می تواند از آسیب پذیری های یک یا دو شبکه همزمان استفاده کند. از آنجا که تصمیم نهایی “رای اکثریت” است ، حملات رقبا بدون فریب اکثریت شبکه های عصبی نمی توانند FRS را فریب دهند. این امر مستلزم تغییرات چشمگیری در تصویر است که به راحتی توسط FRS یا اپراتور قابل مشاهده خواهد بود.

نتیجه

رشد نمایی داده ها در زمینه های مختلف ، شبکه های عصبی و سایر مدل های یادگیری ماشین را برای بسیاری از کارها نامزد بزرگی کرده است. مشکلاتی که در گذشته راه حل ها هزاران ساعت طول می کشید اکنون دارای راه حل های ساده و زیبایی هستند. به عنوان مثال ، کد پشت Google Translate از 500000 خط به فقط 500 خط کاهش یافته است.

با این حال ، این پیشرفت ها خطرات حملات مسابقه ای را به همراه دارد ، که می تواند از ساختار شبکه عصبی برای اهداف سوicious استفاده کند. برای مقابله با این آسیب پذیری ها ، انعطاف پذیری یادگیری ماشین باید اجرا شود تا اطمینان حاصل شود که از حملات رقیب شناسایی و جلوگیری می شود.

الکس سعد-سوکول نویسنده مطالب برای PDF برق و تحویل. وی مهندس تحقیقات منتشر شده در یک م instسسه تحقیقاتی معتبر بین المللی است ، جایی که وی پروژه های داخلی و تحت حمایت را هدایت می کند. الکس دارای مدرک کارشناسی ارشد مهندسی برق از Georgia Tech و دکترای یادگیری ماشین است.

انجمن هفته اطلاعات متخصصان فناوری اطلاعات و متخصصان صنعت را با مشاوره ، آموزش و نظرات فناوری اطلاعات گرد هم آورده است. ما تلاش می کنیم تا رهبران فن آوری و متخصصان موضوع را برجسته کنیم و از دانش و تجربه آنها برای کمک به مخاطبان IT خود استفاده کنیم … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم ، یا [contact us directly] با س questionsالات در مورد سایت.

مقالات بیشتر



[ad_2]

منبع: tasiveh-news.ir