کد خبر: ۲۶۹۱۹
تاریخ انتشار: ۱۰:۲۰ - ۲۸ مهر ۱۳۹۸ - 2019 October 20
پژوهشگران حوزه‌ی هوش مصنوعی در حال تلاش برای رفع اشکال‌های شبکه‌های عصبی هستند اما هنوز راه‌حلی برای برخی از اشتباهات عجیب این سیستم‌ها پیدا نکرده‌اند.
به گزارش آی تابناک : اتومبیل خودرانی به یک علامت توقف نزدیک می‌شود اما به‌جای اینکه از سرعت خود کم کند، با سرعت زیاد وارد تقاطع شلوغ می‌شود. بعدا، گزارش تصادف نشان می‌دهد که چهار مستطیل کوچک روی علامت توقف چسبیده بود و موجب شد که سیستم هوش مصنوعی اتومبیل، کلمه‌ی توقف را با علامت حداکثر سرعت مجاز ۴۵ کیلومتر اشتباه بگیرد. اگرچه چنین رویدادی درواقعیت اتفاق نیفتاده، اما پتانسیل خرابکاری هوش مصنوعی کاملا واقعی است.

خطای سیستم هوش مصنوعی

پژوهشگران قبلا نشان داده‌اند که وقتی برچسب‌هایی روی برخی از قسمت‌های تابلوی توقف چسبانده شود، سیستم هوش مصنوعی به‌راحتی فریب می‌خورد. آن‌ها سیستم‌های تشخیص چهره را نیز با چسباندن الگوهای چاپی روی عینک یا کلاه فریب دادند. آن‌ها همچنین با واردکردن الگوهای صدای سفید موجب شدند که سیستم‌ هوش مصنوعی تشخیص گفتار، عبارت‌های خیالی بشنود. این‌ موارد تنها چند مثال است که نشان می‌دهد شکستن تکنولوژی تشخیص الگو در هوش مصنوعی که با ‌عنوان «شبکه‌های عصبی عمیق» شناخته می‌شوند، چقدر ساده است. این سیستم‌ها در طبقه‌بندی صحیح انواع ورودی‌های مختلف شامل تصاویر، گفتار و داده‌های مربوط به اولویت‌های خریداران بسیار موفق عمل کرده‌اند. آن‌ها بخشی از زندگی روزمره‌ی ما هستند و هرچیزی، از سیستم‌های تلفن خودکار گرفته تا توصیه‌های کاربران را روی سرویس سیال نتفلیکس اجرا می‌کنند. با این حال، ایجاد تغییر در ورودی‌ها (به شکل تغییرات ناچیزی که معمولا برای انسان غیرمحسوس است) می‌تواند بهترین شبکه‌های عصبی موجود را هم گیج کند.

دن هندریکس، دانشجوی دکتری علوم کامپیوتر دانشگاه کالیفرنیا نیز مانند بسیاری از دانشمندان، شبکه‌های عصبی عمیق را اساسا شکننده تصور می‌کند: این شبکه‌ها تا زمانی‌که به قلمرو ناشناخته‌ها وارد نشوند، عملکرد درخشانی دارند اما وقتی در شرایط غیرمنتظره‌ای قرار می‌گیرند، به‌شدت شکننده هستند. این امر می‌تواند منجر به بروز مشکلات قابل‌توجهی شود. سیستم‌های یادگیری عمیق در حال خارج شدن از آزمایشگاه و وارد شدن به جهان واقعی هستند. این سیستم‌ها در حوزه‌های مختلفی مانند هدایت اتومبیل‌های خودران، نقشه‌یابی جرم و تشخیص بیماری‌ها مورد استفاده قرار می‌گیرند اما نتایج مطالعه‌ای که امسال منتشر شد، نشان می‌داد که افزودن چند پیکسل به اسکن‌های پزشکی موجب می‌شود که این سیستم‌ها در تشخیص سرطان اشتباه عمل کنند. برخی کارشناسان هم می‌گویند یک هکر می‌تواند از نقاط ضعف سیستم استفاده کرده و الگوریتم‌های مهاجم خود را روی آن اجرا کند. پژوهشگران در تلاش برای پی بردن به اشتباهات ممکن، اطلاعات زیادی درمورد علت ناکامی شبکه‌های عصبی عمیق به دست آورده‌اند. فرانسوا چولیت، مهندس هوش مصنوعی گوگل در مانتین ویو می‌گوید:

راه‌حلی برای ضعف‌های اساسی شبکه‌های عصبی عمیق وجود ندارد.

او و برخی دیگر از کارشناسان معتقدند که برای برطرف کردن این نقایص لازم است قابلیت‌های دیگری نیز به این شبکه‌ها افزوده شود؛ برای مثال، سیستم‌های هوش مصنوعی طراحی شود که خود بتوانند جهان را کشف کنند، کدهای خود را بنویسند و خاطرات را حفظ کنند. برخی از کارشناسان بر این باورند که این نوع سیستم‌ها موضوع پژوهش‌های هوش مصنوعی دهه‌ی آینده هستند.

بررسی واقعیت

در سال ۲۰۱۱، گوگل سیستمی را ارائه داد که می‌توانست گربه‌های موجود در ویدئوهای یوتیوب را تشخیص دهد و بالافاصله پس از آن، موجی از سیستم‌های طبقه‌بندی مبتنی بر شبکه‌های عصبی عمیق ارائه شد. جف کلون از دانشگاه وایومینگ می‌گوید:

همه می‌گفتند این سیستم چقدر شگفت‌انگیز است، کامپیوترها سرانجام می‌توانند جهان را درک کنند.

اما پژوهشگران هوش مصنوعی می‌دانستند که شبکه‌های عصبی عمیق درواقع جهان را نمی‌فهمند. این ساختارهای نرم‌افزاری که تقلیدی ساده از معماری مغز هستند، از تعداد زیادی نورون‌ دیجیتالی ساخته شده‌اند که در لایه‌های زیادی مرتب شده‌اند. هر نورون به نورون‌های لایه‌های بالا و پایین خود وصل می‌شود. ایده این است که ویژگی‌های ورودی خام که وارد لایه‌های زیرین می‌شود (مانند پیکسل‌های یک تصویر) موجب برانگیختگی برخی از نورون‌ها می‌شود و سپس این نورون‌ها طبق قوانین ساده‌ی ریاضی، سیگنالی را به نورون‌های موجود در لایه‌ی بالایی منتقل می‌کنند.

هوش مصنوعی

برای آموزش یک شبکه‌ی شبکه‌های عصبی عمیق، آن را در معرض مجموعه‌ی عظیمی از مثال‌های مختلف قرار می‌دهند. طی فرایند آموزش، هر بار، روش اتصال نورون‌ها به هم تغییر می‌کند تا درنهایت پاسخ مورد نظر در لایه‌ی بالایی ایجاد شود، طوری که تصویر یک شیر همیشه به‌عنوان یک شیر تفسیر شود؛ حتی اگر قبل از آن، این تصویر به سیستم ارائه نشده باشد.

اولین بررسی مهم در ارتباط با این مسئله در سال ۲۰۱۳ انجام شد، زمانی‌که کریستین سزگدی و همکارانش گزارش مقدماتی را با عنوان «ویژگی‌های عجیب شبکه‌های عصبی» منتشر کردند. این پژوهشگران نشان دادند که می‌توان مثلا تصویری از یک شیر گرفت که سیستم هوش مصنوعی آن را بشناسد و سپس با تغییر چند پیکسل ماشین را متقاعد کرد که در حال دیدن چیز دیگری مانند یک کتابخانه است. پژوهشگران این تصاویر را «مثال‌های خصمانه» نامیدند. یک سال بعد، کلون و آنه نیگوین به‌همراه جیسون یوسینسکی در دانشگاه کرنل نشان دادند که می‌توان کاری کرد که شبکه‌های عصبی عمیق چیزهایی را ببینند که در آنجا وجود ندارند (مانند پنگوئنی در الگویی از خطوط مواج). یوشوا بنگیو از دانشگاه مونترال، یکی از پیش‌گامان یادگیری عمیق است. او می‌گوید:

هرکسی که با یادگیری ماشین کار کرده باشد، می‌داند که این سیستم‌ها گاهی اشتباهات احمقانه‌ای می‌کنند... چیزی که عجیب بود، نوع اشتباه بود. این نوعی اشتباه است که تصور نمی‌کردیم، پیش آید.



منبع : زومیت

ارسال نظر
نام:
ایمیل:
* نظر:
فیلم
جدیدترین اخبار