آیا تفسیرناپذیری هوش مصنوعی منطبق بر اخلاق است؟

اگر چه امروزه هوش مصنوعی در همه جا مورد بحث و توجه قرار گرفته است، اما عده کمی هستند که متوجه عمق اثر این فناوری در زندگی انسانی باشند. هوش مصنوعی مصنوعی شاید همه ما را از کار بیکار کند ولی در عین حال تمام مشکلات جهان را نیز حل نماید. فهرست موفقیت های هوش مصنوعی روز به روز در حال غنی تر شدن است. هوش مصنوعی امروزه می تواند متونی به شدت واقعی بنویسد، قهرمانان مناظره را به چالش بکشد، بیماری ها را تشخیص دهد، تصاویر مصنوعی از صورت انسان ها بسازد، و بسیاری کارهای دیگر.

بعد از آموزش این سامانه ها توسط مجموعه داده های عظیم، خالقان هوش مصنوعی به آن اجازه می دهند که کار خود را برای رسیدن به نتیجه گیری و خروجی های معین انجام دهند. مشکل این جاست که عموماً حتی خود سازندگان هوش مصنوعی نیز نمی دانند که اصلاً چرا و چگونه به آن نتایج و خروجی ها رسیده اند! راه ساده ای برای پیگیری منطق سامانه های یادگیری ماشین وجود ندارد. هر چه بیشتر به هوش مصنوعی اجازه داده می شود که در این مسیر غبارآلود پیش رود، احتمال این که انسان ها در این بازی سر از جایی در آورند که نمی خواستند باشند افزایش می یابد و ممکن است دیگر راه برگشتی نیز نداشته باشند.

در یک جلسه گفت و گو با موضوع «اخلاق و هوش مصنوعی: چه طور برای غیرقابل پیش بینی ها برنامه ریزی کنیم»، متخصصان این عرصه نقطه نظرات شان را برای ساخت سامانه های هوش مصنوعی شفاف، توضیح پذیر و مسئول به اشتراک گذاشتند.

جدید نه، ولی متفاوت

رایان ولش (Ryan Welsh)، بنیانگذار و مدیر استارت آپ هوش مصنوعی Kyndi، اشاره می کند که داشتن سامانه های دانش-مبنا برای انجام امور پیشرفته چیز جدیدی نیست؛ او امور لجستیکی، برنامه ریزی های زمانی، یا نرم افزارهای مالیاتی را نمونه هایی از این دست معرفی کرد. آن چه تازه است ویژگی آموزش پذیری سامانه های هوش مصنوعی است و ناتوانی ما در فهم این هوش مصنوعی چگونه می آموزد و همین طور عوارض اخلاقی حاصل از فعالیت آن ها. ولش می گوید:

اکنون ما سامانه هایی داریم که از داده ها می آموزند، و ما در تلاش هستیم تا بفهمیم چگونه به این نتایج دست می یابند. هرگز تاکنون چنین مباحث جدی ای در جامعه پیرامون اخلاقیات در سناریوهای آینده مطرح نبوده است.

به جای ادامه دادن به توسعه هوش مصنوعی با هسته های درونی غیرشفاف، مهندسان باید بر روی توضیح پذیری آن تمرکز کنند. از دیدگاه ولش، توضیح پذیری هوش مصنوعی به سه زیرشاخه قابل تقسیم بندی است. شفافیت و توصیف پذیری اولین مرحله است و به معنی شناسایی واحدهای دارای بیش ترین تأثیر در شبکه یادگیری ماشین و هم چنین وزن های داده شده به آن واحدها و نیز چگونگی ارتباط آن ها با بخش های مشخصی از داده های ورودی و خروجی است.

زیرشاخه بعدی شناخت سرمنشاء هاست. باید بدانیم که هر چیزی از کجا می آید. در یک سناریوی ایده آل، برای مثال، مولد متن جدید Open AI توانایی آن را خواهد داشت که برای محتوای داخل متن، مراجع نوشته شده توسط انسان (Citations) در قالب مطالعات و مقالات علمی بیابد.

توصیف پذیری خود یک عنصر مهم است و به توانایی یک سامانه برای توضیح خود به زبان طبیعی و قابل فهم برای کاربر معمولی در قالبی شبیه به «من این خروجی را تولید کردم به دلایل x و y و …» اشاره دارد.

جاش مارکوس، مدیر اجرایی هیئت نوآوری های دفاعی (Defense Innovation Board) ایالات متحده اضافه می کند:

انسان ها در توانایی و خواست شان برای پرسیدن چرایی و چگونگی مسائل بی مانند هستند. علت این که ما در مسائل مختلف از افراد توضیح می خواهیم آن است که دوست داریم ساز و کار باور آن ها را درک کنیم و ببینیم آیا با آن موافق هستیم و می خواهیم در ادامه کار با آن ها همراهی کنیم و یا خیر.

به شیوه ای مشابه، ما باید بتوانیم هوش مصنوعی را به نوعی بازخواست و بازجویی کنیم.

دو نوع تفکر

ولش توضیح می دهد که یکی از موانع راه توضیح پذیر شدن هوش مصنوعی، تنش های میان جامعه فعال در حوزه یادگیری ژرف (Deep Learning) و جامعه علاقه مند به هوش مصنوعی سمبلیک (Symbolic AI‌) است. این دو گروه خود را دارای دو پارادایم متفاوت دانسته و به لحاظ تاریخی همکاری چندانی با هم نداشته اند.

هوش مصنوعی سمبلیک یا کلاسیک، بر روی مفاهیم و قوانین تمرکز دارد،‌ حال آن که یادگیری ژرف پیرامون ادراک شکل گرفته است. این همانند تفاوتی است بین تصمیم گیری برای پاس دادن توپ فوتبال به یک هم تیمی که فضای آزاد دارد (شما تصمیم می گیرد چرا که می دانید تنها بازیکنان آزاد امکان دریافت پاس شما را دارند) و وقتی که کس دیگری به شما پاس می دهد (شما اطلاعات را دریافت می کنید بدون این که در تصمیم گیری مربوط به این پاس نقشی داشته باشید).

ولش می گوید:

هوش مصنوعی سمبلیک نمودهایی مبتنی بر منطق دارد که جامعیت انسانی بیشتری دارد.

هوش مصنوعی برای این که به درستی تفکر انسانی را تقلید کند، لازم دارد که اطلاعات را هم درک و هم تصور کند. نمونه ای از ادارک (یادگیری ژرف) در یک هوش مصنوعی تشخیص اعداد درون یک تصویر است، در حالی که یادگیری سمبلیک به آن اعداد ساختاری سلسله مراتبی تخصیص می دهد و سعی می کند از این ساختار قواعدی را استخراج کند (مثلا ۴ از ۳ بزرگتر است، و ۵ از ۴ بزرگتر است،‌ پس ۵ از ۳ نیز بزرگتر است).

توضیح پذیری زمانی وارد عرصه می شود که یک سیستم بتواند بگوید، «من a و b و c را دیدم و بر اساس آن تصمیمات x و y و z را گرفتم». استارت آپ هوش مصنوعی گوگل،‌ یعنی DeepMind،‌ و برخی دیگر اخیرا مقاله هایی را منتشر کرده اند که بر ضرورت ادغام این دو پارادایم تأکید دارند.

پیامدها و آثار در صنایع

یکی از عرصه هایی که اخلاقیات هوش مصنوعی وارد بازی خواهد شد، و جایی که شفافیت و مسئولیت پذیری سامانه های هوش مصنوعی حیاتی خواهد بود، صنایع دفاعی هستند. جاش مارکوس می گوید:

ما موجودات مسئولیت پذیری هستیم و بابت تصمیماتی که می گیریم پاسخگو هستیم. وارد کردن فناوری و هوش مصنوعی به میدان جنگ،‌این مسئولیت پذیری را از ما سلب نمی کند.

در حقیقت، به جای نگرانی راجع به این که هوش مصنوعی چگونه ممکن است ارزش های انسانی را تنزل دهد، انسان ها باید از خود بپرسند فناوری چطور می تواند در انتخاب های بهتر اخلاقی به ما کمک کند.

باید حواس مان باشد که هوش مصنوعی را با ماشین های خودمختار اشتباه نگیریم (بدترین سناریویی ممکن برای هوش مصنوعی تبدیل شدن آن ها به ماشین هایی نابودگر و طغیان گر است). اما در واقع، جاش مارکوس،‌ می گوید:

ما امروز ماشین های خودمختاری داریم که مبتنی بر هوش مصنوعی نیستند و البته اکثر سامانه های هوش مصنوعی ای که در موردشان فکر می کنیم خودمختار نخواهند بود.

وزارت دفاع آمریکا به تازگی استراتژی هوش مصنوعی خود را ارائه داد که شامل توسعه مجموعه ای از مبانی شفاف و استوار برای دفاع با هوش مصنوعی، سرمایه گذاری قابل اطمینان و تضمین شده در تحقیق و توسعه در AI، ادامه پشتیبانی مالی از تحقیقات در توضیح پذیر نمودن هوش مصنوعی، پیگیری مجموعه ای از دستورالعمل های نظامی جهانی برای AI و یافتن راه هایی برای استفاده از AI برای کاهش ریسک تلفات انسانی و سایر خسارات مادی است.

جاش مارکوس می گوید:

این استراتژی با نگاهی مختص به مسائل دفاع طراحی شده است. ولی بسیاری از نتایج و آثار آن به صنایع دیگر نیز قابل تعمیم است. حقیقت این است که جامعه صنایع نظامی تصور می کند که مشکلات شان خاص است و هیچ بخش دیگری با پیچیدگی ها و مسائلی که آن ها رو به رو هستند، درگیر نیست. این اشتباه بزرگی است!

مارکوس معتقد است که وزارت دفاع آمریکا می تواند بر روی ایمنی AI به نحوی سرمایه گذاری کند که مزایایی گسترده ای حاصل نماید. او می گوید:

همه ما برای امنیت و زنده ماندن خود به فناوری وابسته ایم، و هیچ کس نمی خواهد که ماشین ها به ما آسیبی بزنند.

مخلوقی برتر از خالق خویش

ما همواره علاقه مند بوده ایم که فناوری نیازهای ما را آن گونه که خود می خواهیم برآورده کند. سرورهای اینترنتی باید همیشه فعال بمانند، GPS نباید ما را به مسیری طولانی تر هدایت کند، گوگل باید همیشه نتایج مطلوب ما را در پاسخ به جستجوی مان ارائه دهد!

اما با AI، دیگر انتظارات ایده آل طلبانه ما کمتر منطقی خواهند بود. جاش مارکوس می افزاید:

در حال حاضر ما از ماشین ها عملکردی بر اساس استاندارهای فرابشری انتظار داریم. می خواهیم ایده آل و بدون اشتباه باشند.

خودروهای خودران (Self-Driving Cars) را در نظر بگیرید. آن ها ساخته و برنامه ریزی شده توسط انسان ها هستند و انسان معمولی اصولا راننده عالی و بدون نقصی نیست (کافی است به نرخ مرگ و میر ناشی از تصادفات نگاهی بیندازید). اما فقط به خاطر چند مورد انگشت شماری که ماشین های خودران در تصادفات منجر به مرگ نقش داشته اند، هیاهوی بسیاری در جوامع بر علیه این فناوری رخ داد و از دولت ها برای اعمال قوانین سخت گیرانه تر در این موضوع مطالبه صورت گرفت.

این موضوع به مسأله اخلاق نیز قابل تعمیم است. ما به عنوان انسان ها توانایی توضیح دادن در مورد تصمیمات مان را داریم، اما خیلی از ما نمی توانیم در این زمینه خوب عمل کنیم. مارکوس در این مورد می گوید:

انسان ها احساسی هستند. آن ها با هم گفتگو می کنند، دروغ می گویند، و مملوء از انگیزه های ناخودآگاه هستند. هیچ انسانی از آزمون توضیح پذیری سربلند بیرون نخواهد آمد!

با این شرایط، پس چرا توضیح پذیری باید به عنوان استانداردی برای AI در نظر گرفته شود؟

حتی اگر انسان ها در توضیح تصمیمات شان خوب نباشند، اما برای این کار تلاش می کنند و می توانند به سوالاتی برای اعتبارسنجی پروسه تصمیم گیری خود پاسخ دهند. یک سامانه یادگیری ژرف در حال حاضر توانایی این کار را ندارد. پس حرکت به سمت شناخت داده های ورودی ای که نقش اساسی را در تصمیم گیری های هوش مصنوعی ایفاء می کنند – حتی اگر تصمیمات و پروسه مربوط به اتخاذ آن ها ایده آل نیست – جهتی است که باید به سمت آن تغییر مسیر دهیم.