هوش مصنوعی در معرض خطر “مسمومیت” دادهای قرار دارد؛ راهکاری نوآورانه برای مقابله با حملات سایبری
اشتیاق روزافزون به جمعآوری حجم وسیعی از دادهها، که سوخت اصلی برای آموزش مدلهای هوش مصنوعی به شمار میرود، میتواند پاشنه آشیل این فناوری نوظهور باشد. تزریق عامدانه اطلاعات نادرست و گمراهکننده به مجموعههای دادههای آموزشی، روشی است که مهاجمان سایبری برای تخریب عملکرد و منحرف کردن مسیر مدلهای هوشمند به کار میگیرند. یک مطالعه جدید، با ترکیب دو فناوری پیشرفته، راهکاری امیدوارکننده برای شناسایی و حذف این “دادههای مسموم” پیش از آنکه بتوانند به سیستمهای هوش مصنوعی آسیب برسانند، ارائه کرده است.
امروزه، طیف گستردهای از سیستمهای هوش مصنوعی که در زندگی روزمره با آنها سروکار داریم، از چتباتهای پیشرفته گرفته تا سیستمهای پیشنهاددهنده فیلم و موسیقی، تواناییهای چشمگیر خود را مدیون حجم عظیم دادههایی هستند که بر اساس آنها آموزش دیدهاند. اگر این منبع غنی اطلاعات آلوده شود، رفتار و خروجی این مدلها میتواند به طور جدی مختل شود.
پیامدهای چنین حملاتی میتواند بسیار فراتر از عملکرد نادرست یک چتبات باشد. تصور کنید گروههای سودجو با تزریق دادههای مسموم، باعث شوند یک خودروی خودران چراغ قرمز را نادیده بگیرد یا در مقیاسی وسیعتر، منجر به اختلال و قطعی در شبکههای حیاتی مانند شبکه برق شوند. این سناریوها نشاندهنده آسیبپذیری بالقوه زیرساختهای مهم در برابر حملات مسمومیت دادهای هستند.
برای مقابله با این تهدید رو به رشد، گروهی از محققان حوزه امنیت سایبری، رویکرد نوینی را توسعه دادهاند که در آن دو فناوری نوظهور یادگیری فدرال (Federated Learning) و بلاکچین (Blockchain) به منظور آموزش ایمنتر مدلهای هوش مصنوعی با یکدیگر ترکیب شدهاند. روش ابتکاری این گروه نشان داده است که میتواند با موفقیت دادههای نادرست را قبل از آنکه فرصت آلوده کردن مجموعه دادههای آموزشی را پیدا کنند، شناسایی و حذف کند.
هادی امینی، محقق ارشد و استادیار دانشکده علوم محاسبات و اطلاعات بنیادی مؤسسه نایت، در این باره میگوید: «ما روشی را ایجاد کردهایم که میتواند کاربردهای گستردهای در افزایش تابآوری زیرساختهای حیاتی، امنیت سایبری حمل و نقل، مراقبتهای بهداشتی و بسیاری زمینههای دیگر داشته باشد.»
بخش نخست این رویکرد جدید، مبتنی بر یادگیری فدرال است. در این روش منحصربهفرد، یک نسخه کوچک از مدل آموزشی به طور مستقیم بر روی دستگاه کاربر آموزش میبیند و تنها بهروزرسانیهای مدل، نه دادههای شخصی کاربر، با مدل جهانی موجود بر روی سرور یک شرکت به اشتراک گذاشته میشود. اگرچه این روش حریم خصوصی کاربران را حفظ میکند، اما همچنان در برابر حملات مسمومیت دادهای آسیبپذیر است، زیرا تأیید صحت دادههای کاربر قبل از رسیدن به مدل مرکزی چالشبرانگیز است.
اروین مور، دانشجوی دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، در توضیح این چالش میگوید: «تأیید اینکه آیا دادههای کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، یک چالش اساسی در یادگیری فدرال به شمار میرود. به همین دلیل، ما برای رفع این نقص به فناوری بلاکچین روی آوردیم.»
بلاکچین، که به واسطه نقش کلیدیاش در ارزهای دیجیتال مانند بیتکوین به شهرت رسیده است، یک پایگاه داده توزیعشده و غیرمتمرکز است که اطلاعات را در قالب بلوکهایی سازماندهی میکند که به صورت زنجیرهای و بر اساس ترتیب زمانی به یکدیگر متصل شدهاند. هر بلوک شامل یک اثر انگشت دیجیتال منحصر به فرد (Hash) و همچنین اثر انگشت بلوک قبلی است، که این ساختار، دادهها را عملاً در برابر هرگونه دستکاری مقاوم میسازد. کل زنجیره از یک ساختار مشخص پیروی میکند، که به عنوان یک فرآیند اعتبارسنجی عمل کرده و از افزودن بلوکهای تصادفی و غیرمجاز جلوگیری میکند. میتوان این فرآیند را به یک چکلیست دقیق برای پذیرش دادهها تشبیه کرد.
محققان در طراحی مدل خود از این ویژگی منحصربهفرد بلاکچین بهره بردند. مدل توسعهیافته، بهروزرسانیهای ارسالی در قالب بلوکها را با یکدیگر مقایسه کرده و احتمال “سمی” بودن آنها را ارزیابی میکند. بهروزرسانیهایی که به عنوان بالقوه سمی شناسایی میشوند، ثبت شده و سپس از فرآیند تجمیع شبکه حذف میشوند، بدین ترتیب از آلوده شدن مدل اصلی جلوگیری به عمل میآید.
امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی کاربردهای هوش مصنوعی امن در سیستمهای حمل و نقل متصل و خودران است، میگوید: «گروه ما در حال حاضر همکاری نزدیکی با مرکز ملی امنیت سایبری و تابآوری حمل و نقل دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از دادهها و سیستمها استفاده کند. هدف نهایی ما، تضمین ایمنی و امنیت زیرساختهای حمل و نقل و در عین حال بهرهگیری از قدرت هوش مصنوعی پیشرفته برای بهبود عملکرد این سیستمها است.»
این پژوهش نشان میدهد که ترکیب هوشمندانه فناوریهای نوظهور مانند یادگیری فدرال و بلاکچین میتواند گامی مؤثر در جهت افزایش امنیت و قابلیت اطمینان سیستمهای هوش مصنوعی در برابر تهدید حملات مسمومیت دادهای باشد. با توسعه و بهکارگیری چنین راهکارهایی، میتوان از آسیبپذیریهای موجود کاسته و از پتانسیل عظیم هوش مصنوعی در زمینههای مختلف به شکلی ایمن و مطمئن بهرهمند شد.