جلوگیری از عملکرد مخرب هوش مصنوعی

هوش مصنوعی با وجود تمامی کاربردها و نقاط قوت، می‌ تواند با عملکرد اشتباه، نتایج مخرب و مرگباری را به‌ همراه داشته باشد. اگر اخبار و مقاله‌ های پیرامون هوش مصنوعی را دنبال کنید، متوجه رخدادهای مخرب این پدیده‌ مدرن می‌ شوید. در بسیاری از رخدادهای مذکور، تغییری جزئی در الگوریتم‌ های فناوری یادگیری ماشین (Machine Learning)، می‌ تواند منجر به تغییرات بزرگ در عملکرد آن شود.

به‌ عنوان نمونه‌ ای از عملکردهای مخرب هوش مصنوعی، می‌ توان آزمایش داون سانگ (Dawn Song) که خود استاد دانشگاه برکلی بود را بیان کرد. او با چسباندن چند برچسب (Sticker) بر روی علامت توقف در خیابان، یکی از الگوریتم های تشخیص اشیاء (Object Detection) مورد آزمایش را به چالش کشید. این آزمایش به نوعی باعث شد که الگوریتم، تابلوی توقف را با تابلوی حداکثر سرعت اشتباه بگیرد. سانگ در آزمایشی دیگر از پیام‌ های به هم پیوسته (Tailored Messages) استفاده کرد تا یک مدل مبتنی بر نوشتار را مجبور به ارائه‌ اطلاعات حساس داخلی هم چون اطلاعات کارت اعتباری کاربران کند. به‌ علاوه، چند ماه پیش گزارشی از هکرهای کلاه سفید منتشر شده بود که توانسته بودند با چند برچسب، اتومبیل بدون راننده خودران تسلا را در خلاف جهت خیابان هدایت کنند.

در سال‌ های اخیر، الگوریتم‌ های یادگیری ماشین پیشرفت‌ های زیادی را تجربه کرده و حضور آن‌ ها در زندگی کاربران، فراگیرتر شده است. محققان با بررسی این پدیده‌ های پر کاربرد، نمونه‌ های متعددی از اشتباهات آن‌ ها را کشف کرده‌ اند که این موارد، از اشتباه در تشخیص تصاویر تا تشخیص سرطان را شامل می شود. چنین اشتباهاتی می‌ تواند اثراتی را در محدوده بی‌ خطر تا مرگبار به همراه داشته باشد. با این وجود، به این گونه مسائل کمتر پرداخته می شود و شناخت انسان نسبت به این مسائل کم است. به همین دلیل است که محققان نگران حل این چالش «عدم شناخت» هستند.

در طی مقاله‌ ای که اخیراً توسط دانشمندان دانشگاه MIT ارائه شد، روش‌ های احتمالی برای حل چالش اشتباهات هوش مصنوعی مورد بررسی قرار گرفت. روش جدید به محققان این امکان را می‌ دهد تا مدل‌ های قوی‌ تر یادگیری ماشین را توسعه دهند که ایجاد اِشکال عملکردی در آن‌ ها تقریباً غیرممکن باشد. پیش از پرداختن به روش موجود، باید مفاهیم اولیه در اشتباهات عملکردی هوش مصنوعی را درک کنیم.

قدرت اصلی فرآیندهای یادگیری عمیق (Deep Learning)، از توانایی آن‌ ها در تشخیص الگوهای میان داده‌ ها نشأت می‌ گیرد. به‌ عنوان مثال اگر ده‌ ها هزار عکس حیوان با برچسب‌ گذاری نام را به یک الگوریتم یادگیری ماشین بدهیم، الگوریتم می‌ تواند الگوهای مرتبط با یک حیوان خاص، مثلاً پاندا یا میمون را شناسایی کند. سپس می‌ تواند از همین الگوها برای شناسایی حیوانات در مجموعه‌ های جدید تصاویر استفاده کند.

مدل‌ های یادگیری عمیق با وجود توانایی‌ های بالا، آسیب‌ پذیری زیادی نیز دارند. به‌ بیان دیگر، الگوریتم‌ ها تنها روی الگوهای پیکسلی تصاویر متمرکز می‌ شوند و درک صحیحی از آن‌ چه می‌ بینند، ندارند. در نتیجه به‌ راحتی می توان با دستکاری الگوهای پیکسلی، سوژه‌ مورد مشاهده‌ الگوریتم‌ را تغییر داد. به‌ عنوان مثال، در تصویر پایین با اضافه کردن کمی پارازیت (Noise) به تصویر یک خرس پاندا، هوش مصنوعی با درجه‌ اطمینان بالا آن را یک میمون تشخیص می‌ دهد. در این مثال می‌ توان نویز را نوعی حمله به تصمیم‌ گیری هوش مصنوعی دانست.

محققان از سال‌ ها قبل متوجه آسیب‌ پذیری هوش مصنوعی خصوصاً در بحث بینایی کامپیوتری شده‌ اند. البته آن‌ ها راهی برای گریز از آسیب‌ پذیری مذکور نداشته‌ اند. مقاله‌ ای از محققان هوش مصنوعی، این سؤال را مطرح می کند که آیا حمله به تصمیم‌ گیری هوش مصنوعی اجتناب‌ ناپذیر است؟ مقاله‌ مذکور در کنفرانس تحقیقات هوش مصنوعی ICLR ارائه شد. در نهایت به‌ نظر می‌ رسد صرف‌ نظر از تعداد عکس‌ هایی که به یک الگوریتم تزریق می‌ شوند، همیشه راه‌ هایی وجود خواهد داشت تا الگوی تشخیصی به چالش کشیده شود.

مقاله‌ جدید دانشگاه MIT ادعا می‌ کند که تصورات درباره‌ حملات تصمیم‌ گیری هوش مصنوعی تاکنون اشتباه بوده‌ اند. طبق ادعای محققان، به‌ جای پیدا کردن روش‌ هایی برای جمع‌ آوری داده‌ های آموزشی بیشتر و ارائه‌ آن‌ ها به الگوریتم یادگیری عمیق، باید به‌ صورت بنیادی روش آموزش دادن به الگوریتم را تغییر داد.

محققان برای نشان دادن اهمیت و تأثیر بالای اشتباهات تشخیصی الگوریتم هوش مصنوعی، مثالی ملموس را در مقاله ذکر کرده‌ اند. در بخشی از مقاله می‌ خوانیم که نویزهای تقریباً تصادفی و برچسب‌ هایی که روی تابلوها نصب می‌ شوند، به الگوهای دقیق و منحصر به‌ فرد الگوریتم آسیب می‌ رسانند. الگوهایی که هر کدام برای تشخیص یک سوژه‌ خاص شکل گرفته‌ اند. به‌ بیان ساده‌ تر، وقتی ماشین در تصویر پاندا را، یک میمون می‌ بیند، رفتار غلطی انجام نداده است. در واقع الگوریتم مورد نظر، الگویی از پیکسل‌ ها (که از دید انسان مخفی هستند) را می‌ بیند که پیشتر در فرآیند یادگیری، در تصویر میمون دیده بود.

برای درک بهتر اشتباهات الگوریتم هوش مصنوعی، یک آزمایش انجام شد. محققان از مجموعه‌ ای تصاویر مربوط به سگ استفاده کردند که تغییرات کوچکی در آن‌ ها داده شده بود. همین تغییرات باعث می‌ شد تا الگوریتم‌ های مرسوم، تصاویر را به‌ عنوان تصویر گربه ببینند. سپس تصاویر دست کاری‌ شده با برچسب گربه به الگوریتم تزریق شدند. در نهایت تصاویر جدیدی از گربه‌ های واقعی توسط الگوریتم ارائه شد. در این آزمایش، الگوریتم توانست جدید همه‌ تصاویر گربه را به خوبی شناسایی کند.

محققان با تکیه بر مثال بالا، نتیجه گرفتند که در هر مجموعه‌ داده، دو نوع الگو دیده می‌ شود:

  • الگوهایی که با معنای داده ارتباط دارند، اما لزوماً در زمینه‌ های دیگر صادق نیستند؛ مانند سبیل گربه در تصویر گربه یا موهای بدن خرس پاندا.
  • الگوهایی که در داده‌ های آموزش وجود دارند. نوع دوم الگوها منجر به اشتباه در هوش مصنوعی می‌ شوند و همان ابزارهای مورد استفاده برای حمله به تصمیم‌ گیری هستند.

با توجه‌ به یافته‌ های بالا به این نتیجه می‌ رسیم که اگر بخواهیم ریسک تصمیم‌گیری هوش مصنوعی را کاهش دهیم، باید روش آموزش به مدل‌ های یادگیری عمیق تغییر کند. در حال‌ حاضر، دانشمندان هوش مصنوعی به شبکه‌ های عصبی اجازه می‌ دهند که هر نوع ارتباط مورد نظر خود را برای تشخیص تصاویر استفاده کنند. در نتیجه هیچ کنترلی روی ارتباط تصاویر و الگوی ایجاد شده در اثر آن، ندارند. در مقابل اگر بتوان به مدل آموزش داد که تنها فاکتورهای مرتبط واقعی (که به‌ معنای تصویر نزدیک هستند) را به‌ عنوان الگو انتخاب کند، نتایج تا حدودی موفق آمیز خواهد بود.

محققان با تکیه بر نتایج قبلی، آزمایشی شامل آموزش ازطریق ارتباطات واقعی را بر روی الگوریتم یادگیری عمیق پیاده کردند. این روش جدید، آسیب‌ پذیری مدل را طوری کاهش داد که به موجب آن، محققان تنها در ۵۰ درصد مواقع، توانستند آن را دچار اشتباه کنند. شایان ذکر است مدل‌ های دیگر تا ۹۵ درصد احتمال خطا داشتند. به‌‌ هر حال اشتباهات تشخیصی هنوز در الگوریتم‌ های هوش مصنوعی وجود دارند و ما تنها می‌ توانیم آن‌ ها را به‌ مرور کاهش دهیم تا شاید زمانی به صفر برسند.