جاشوآ بنجیو: امکان سوء استفاده از هوش مصنوعی وجود دارد

جاشوآ بنجیو، برنده جایزه معتبر تورینگ برای فعالیت های پژوهشی اش در زمینه توسعه یادگیری ژرف (Deep Learning)، بناست دستورالعمل های بین المللی برای استفاده اخلاقی از هوش مصنوعی منتشر کند.

Yoshua Bengio یکی از سه دانشمند رشته کامپیوتر و محاسبات است که در هفته گذشته جایزه یک میلیون دلاری A.M.Turing، که یکی از جوایز برتر این رشته است را به دست آورد.

این سه متخصص هوش مصنوعی (AI) به عنوان بنیان گذاران یادگیری ژرف شناخته می شوند. یادگیری ژرف روشی است که مقادیر زیادی داده را با شبکه های عصبی مصنوعی چند لایه ای که از مغز الهام گرفته شده اند، ترکیب می کند. آن ها این جایزه را برای تبدیل شبکه های عصبی ژرف به «جزئی حیاتی در محاسبات» دریافت کردند.

دو برنده دیگر جایزه تورینگ، جفری هینتون (Geoffry Hinton) و یان لی کان (Yann LeCun) به ترتیب برای گوگل و فیسبوک کار می کنند. بنجیو، استاد دانشگاه مونترآل، یکی از معدود اساتید برجسته معروف یادگیری ماشین است که به صورت تمام وقت آکادمیک باقی مانده است. اما وی که مدیر علمی موسسه الگوریتم های یادگیری (MILA) مونترآل نیز هست، در کنار تحقیقات خود، در مورد خطرات سوء استفاده احتمالی از فناوری ابراز نگرانی کرده است. در ماه دسامبر، او مجموعه ای از دستورالعمل های اخلاقی AI را به نام Montreal Declaration در سامانه های پردازش اطلاعات عصبی (NeurIPS) در شهر مونترآل ارائه داد. در ادامه مصاحبه ای با Bengio را خواهید خواند.

آیا به نظر شما بسیاری از شرکت ها یا استان ها بدون احساس مسئولیت از هوش مصنوعی استفاده می کنند؟

این امر به مقدار زیادی وجود دارد و می تواند خیلی بیشتر هم باشد. بنابراین ما باید پیش از اینکه اتفاق بدی بیفتد پیشگیری کنیم. بسیاری از چیزهایی که در مورد آن ها نگرانی وجود دارد در روز روشن اتفاق نمی افتد بلکه در آزمایشگاه های نظامی، سازمان های امنیتی، شرکت های خصوصی ارائه دهنده خدمات به دولت ها و یا پلیس روی می دهد.

می توانید چند نمونه مثال ارائه کنید؟

هواپیماهای بدون سرنشین (Killer Drones) نگرانی بزرگی هستند که هم از لحاظ اخلاقی و هم امنیتی زیر سوال می روند. نمونه دیگر نظارت امنیتی است، که شما می توانید استدلال کنید که مزایای مثبت بالقوه ای دارد. اما خطرات سوء استفاده، به ویژه توسط دولت های اقتدارگرا، واقعیت دارند. اساساً، هوش مصنوعی ابزاری است که می تواند توسط کسانی که در قدرت هستند برای حفظ این قدرت و افزایش آن استفاده می شود. مسأله دیگر این است که هوش مصنوعی می تواند تبعیض و تعصبات، مانند جنسیت یا تبعیض نژادی را تقویت کند، زیرا آن ها در داده هایی که فناوری در آن آموزش دیده است، ظاهر می شوند و منعکس کننده رفتار افراد است.

چه چیزی Montreal Declaration را از ابتکارات مشابه متمایز می کند؟

من فکر می کنم این اولین موردی بود که نه فقط محققان AI، بلکه طیف وسیعی از محققان علوم اجتماعی و علوم انسانی و نیز عموم مردم عمیقاً در آن دخیل بودند. همین موضوع منجر به تغییرات شد؛ ما در نتیجه مشاوره با کارشناسان و عموم مردم هفت اصل اولیه را به ده مورد رساندیم. سازمان ها می توانند به پیروی از این اصول پایبند باشند.

مناسب ترین انجمن عمومی در مورد اخلاق در هوش مصنوعی چیست؟

ما در حال تلاش برای ایجاد یک سازمان در مونترآل هستیم که این کار را انجام می دهد: نظارت بین المللی بر اثرات اجتماعی هوش مصنوعی و فناوری های دیجیتال. این سازمان باید همه این بخش ها را دور هم جمع کند: دولت ها، زیرا آن ها اقدام کننده و مجری قوانین هستند.کارشناسان جامعه مدنی که هم کارشناسان فناوری AI و هم کارشناسان علوم اجتماعی را شامل می شود. متخصصان سلامت و بهداشت، متخصصان علوم سیاسی و جامعه شناسی و شرکت هایی که محصولات مبتنی بر هوش مصنوعی را می سازند. اما باید این کار را با دقت انجام دهیم، زیرا شرکت ها ممکن است چیزها را در مسیری قرار دهند که منفعت ببرند.

آیا به نظر شما این ابتکار عمل منجر به مقررات دولتی یا بین المللی برای AI می شود؟

بله. خودگردانی فایده ای نخواهد داشت. آیا شما فکر می کنید که مالیات دادن داوطلبانه روش مؤثری است؟ خیر. شرکت هایی که از دستورالعمل اخلاقی پیروی می کنند، در مقایسه با شرکت هایی که این کار را انجام نمی دهند، در معرض خطر قرار می گیرند. درست مانند رانندگی، چه در سمت چپ یا راست، همه باید به همان شیوه رانندگی کنند؛ در غیر این صورت، با مشکل روبرو خواهیم شد.

شما ابراز نگرانی کردید که شرکت ها استعدادهای دانشگاهی را دزدیده اند.  آیا این هنوز یک مشکل است؟

این امر ادامه دارد اما گاهی اتفاق های خوبی نیز می افتد. ما در مونترال موفق بوده ایم، زیرا اکوسیستم AI در حال رشد است و یک نوع فرار مغزها به صورت معکوس در حال وقوع است. افراد خارج از کانادا برای آموختن هوش مصنوعی وارد کانادا می شوند. چیز دیگری که در مونترال و فکر می کنم در دیگر نقاط جهان اتفاق می افتد این است که محققان سطح دانشگاهی که برای صنعت کار می کنند، نقش اعضای هیات علمی را به عنوان سرپرست دانشجویان تحصیلات تکمیلی در دانشگاه ها بر عهده می گیرند. این امر در MILA رخ میدهد. ما هم چنین در حال آموزش دانشجویان هستیم. اکنون تعداد استادان یادگیری ماشین در مونترآل دو برابر شده است و بخشی از این امر به کمک سرمایه گذاری دولت کانادا در هوش مصنوعی صورت پذیرفته است.

آیا شما فکر می کنید اروپا در هوش مصنوعی از چین و ایالات متحده عقب مانده است؟

بله. اما من فکر نمی کنم که اروپا باید این موضوع را بپذیرد. اروپا پتانسیل زیادی برای تبدیل شدن به یک رهبر دارد. دانشگاه های برجسته ای در اروپا وجود دارد. در واقع، بسیاری از دانشجویان ما در MILA از اروپا آمده اند. هم چنین در حال حاضر در چندین مکان مختلف اروپا، شرکت های استارت آپی نوپا اما فعالی وجود دارد. دولت ها شروع به درک اهمیت این موضوع نموده اند. دولت فرانسه احتمالاً نخستین دولت اروپایی باشد که حرکت بزرگی در این مسیر انجام دهد.

امر بزرگ بعدی در AI چیست؟

یادگیری ژرف در حال حاضر، پیشرفت زیادی در ادراک کامپیوتری ایجاد کرده است، اما در سامانه هایی که بتوانند نمودها و مفاهیم سطح بالا (مثلا نوعی از مفاهیم که ما در زبان و گفتار استفاده می کنیم) را کشف کنند، تحقق نیافته است. انسان ها می توانند از این مفاهیم سطح بالا استفاده کنند تا از آن ها برای توسعه توانایی ها خود استفاده کنند. این کاری است که حتی نوزادان می توانند انجام دهند، اما یادگیری ماشین هنوز در این امر بسیار ضعیف است.

ما این توانایی تحلیل منطقی و درک علت و معلولی در امور مختلف را داریم چون چیزهایی وجود دارد که در داده ها اتفاق نمی افتد. ما پیشرفت هایی در زمینه شبکه های خصمانه مولد (Generative Adversarial Networks) داشته ایم (تکنیکی که یک شبکه مولد را در رقابت با یک شبکه شناسایی تصویر قرار می دهد تا به هر دو برای بهبود عملکردشان کمک کند). اما انسان ها بسیار بهتر از ماشین ها هستند، و حدس من این است که یکی از موارد اصلی این برتری همان توانایی انسان ها در درک علت و معلول رویدادهاست.