مجله خبری صبح آنلاین

جدیدترین اخبار ایران و جهان

اخبار

هوش مصنوعی در معرض خطر “مسمومیت” داده‌ای قرار دارد؛ راهکاری نوآورانه برای مقابله با حملات سایبری

اشتیاق روزافزون به جمع‌آوری حجم وسیعی از داده‌ها، که سوخت اصلی برای آموزش مدل‌های هوش مصنوعی به شمار می‌رود، می‌تواند پاشنه آشیل این فناوری نوظهور باشد. تزریق عامدانه اطلاعات نادرست و گمراه‌کننده به مجموعه‌های داده‌های آموزشی، روشی است که مهاجمان سایبری برای تخریب عملکرد و منحرف کردن مسیر مدل‌های هوشمند به کار می‌گیرند. یک مطالعه جدید، با ترکیب دو فناوری پیشرفته، راهکاری امیدوارکننده برای شناسایی و حذف این “داده‌های مسموم” پیش از آنکه بتوانند به سیستم‌های هوش مصنوعی آسیب برسانند، ارائه کرده است.

امروزه، طیف گسترده‌ای از سیستم‌های هوش مصنوعی که در زندگی روزمره با آن‌ها سروکار داریم، از چت‌بات‌های پیشرفته گرفته تا سیستم‌های پیشنهاددهنده فیلم و موسیقی، توانایی‌های چشمگیر خود را مدیون حجم عظیم داده‌هایی هستند که بر اساس آن‌ها آموزش دیده‌اند. اگر این منبع غنی اطلاعات آلوده شود، رفتار و خروجی این مدل‌ها می‌تواند به طور جدی مختل شود.

پیامدهای چنین حملاتی می‌تواند بسیار فراتر از عملکرد نادرست یک چت‌بات باشد. تصور کنید گروه‌های سودجو با تزریق داده‌های مسموم، باعث شوند یک خودروی خودران چراغ قرمز را نادیده بگیرد یا در مقیاسی وسیع‌تر، منجر به اختلال و قطعی در شبکه‌های حیاتی مانند شبکه برق شوند. این سناریوها نشان‌دهنده آسیب‌پذیری بالقوه زیرساخت‌های مهم در برابر حملات مسمومیت داده‌ای هستند.

برای مقابله با این تهدید رو به رشد، گروهی از محققان حوزه امنیت سایبری، رویکرد نوینی را توسعه داده‌اند که در آن دو فناوری نوظهور یادگیری فدرال (Federated Learning) و بلاکچین (Blockchain) به منظور آموزش ایمن‌تر مدل‌های هوش مصنوعی با یکدیگر ترکیب شده‌اند. روش ابتکاری این گروه نشان داده است که می‌تواند با موفقیت داده‌های نادرست را قبل از آنکه فرصت آلوده کردن مجموعه داده‌های آموزشی را پیدا کنند، شناسایی و حذف کند.

هادی امینی، محقق ارشد و استادیار دانشکده علوم محاسبات و اطلاعات بنیادی مؤسسه نایت، در این باره می‌گوید: «ما روشی را ایجاد کرده‌ایم که می‌تواند کاربردهای گسترده‌ای در افزایش تاب‌آوری زیرساخت‌های حیاتی، امنیت سایبری حمل و نقل، مراقبت‌های بهداشتی و بسیاری زمینه‌های دیگر داشته باشد.»

بخش نخست این رویکرد جدید، مبتنی بر یادگیری فدرال است. در این روش منحصربه‌فرد، یک نسخه کوچک از مدل آموزشی به طور مستقیم بر روی دستگاه کاربر آموزش می‌بیند و تنها به‌روزرسانی‌های مدل، نه داده‌های شخصی کاربر، با مدل جهانی موجود بر روی سرور یک شرکت به اشتراک گذاشته می‌شود. اگرچه این روش حریم خصوصی کاربران را حفظ می‌کند، اما همچنان در برابر حملات مسمومیت داده‌ای آسیب‌پذیر است، زیرا تأیید صحت داده‌های کاربر قبل از رسیدن به مدل مرکزی چالش‌برانگیز است.

اروین مور، دانشجوی دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، در توضیح این چالش می‌گوید: «تأیید اینکه آیا داده‌های کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، یک چالش اساسی در یادگیری فدرال به شمار می‌رود. به همین دلیل، ما برای رفع این نقص به فناوری بلاکچین روی آوردیم.»

بلاکچین، که به واسطه نقش کلیدی‌اش در ارزهای دیجیتال مانند بیت‌کوین به شهرت رسیده است، یک پایگاه داده توزیع‌شده و غیرمتمرکز است که اطلاعات را در قالب بلوک‌هایی سازمان‌دهی می‌کند که به صورت زنجیره‌ای و بر اساس ترتیب زمانی به یکدیگر متصل شده‌اند. هر بلوک شامل یک اثر انگشت دیجیتال منحصر به فرد (Hash) و همچنین اثر انگشت بلوک قبلی است، که این ساختار، داده‌ها را عملاً در برابر هرگونه دستکاری مقاوم می‌سازد. کل زنجیره از یک ساختار مشخص پیروی می‌کند، که به عنوان یک فرآیند اعتبارسنجی عمل کرده و از افزودن بلوک‌های تصادفی و غیرمجاز جلوگیری می‌کند. می‌توان این فرآیند را به یک چک‌لیست دقیق برای پذیرش داده‌ها تشبیه کرد.

محققان در طراحی مدل خود از این ویژگی منحصربه‌فرد بلاکچین بهره بردند. مدل توسعه‌یافته، به‌روزرسانی‌های ارسالی در قالب بلوک‌ها را با یکدیگر مقایسه کرده و احتمال “سمی” بودن آن‌ها را ارزیابی می‌کند. به‌روزرسانی‌هایی که به عنوان بالقوه سمی شناسایی می‌شوند، ثبت شده و سپس از فرآیند تجمیع شبکه حذف می‌شوند، بدین ترتیب از آلوده شدن مدل اصلی جلوگیری به عمل می‌آید.

امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی کاربردهای هوش مصنوعی امن در سیستم‌های حمل و نقل متصل و خودران است، می‌گوید: «گروه ما در حال حاضر همکاری نزدیکی با مرکز ملی امنیت سایبری و تاب‌آوری حمل و نقل دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از داده‌ها و سیستم‌ها استفاده کند. هدف نهایی ما، تضمین ایمنی و امنیت زیرساخت‌های حمل و نقل و در عین حال بهره‌گیری از قدرت هوش مصنوعی پیشرفته برای بهبود عملکرد این سیستم‌ها است.»

این پژوهش نشان می‌دهد که ترکیب هوشمندانه فناوری‌های نوظهور مانند یادگیری فدرال و بلاکچین می‌تواند گامی مؤثر در جهت افزایش امنیت و قابلیت اطمینان سیستم‌های هوش مصنوعی در برابر تهدید حملات مسمومیت داده‌ای باشد. با توسعه و به‌کارگیری چنین راهکارهایی، می‌توان از آسیب‌پذیری‌های موجود کاسته و از پتانسیل عظیم هوش مصنوعی در زمینه‌های مختلف به شکلی ایمن و مطمئن بهره‌مند شد.

مجله خبری صبح آنلاین

LEAVE A RESPONSE

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *