تاریخ انتشار: ۱۳:۱۹ - ۱۶ خرداد ۱۳۹۵ - 2016 June 05
عده‌ای از محققان در تلاش هستند با ایجاد نوعی سامانه، توسعه هوش مصنوعی را زیر نظر گرفته و در صورت لزوم آن‌ها را غیرفعال کنند.
فناوری هوش مصنوعی با سرعت بسیار بالایی در حال پیشرفت است. از همین رو بسیاری از دانشمندان و محققان سرشناس دنیا معتقد هستند در صورتی که توسعه‌ی آن بدون نظارت و با همین روند ادامه پیدا کند، از انسان‌ها سرکشی کرده و به خطری برای آن‌ها تبدیل می‌شود. به عنوان مثال می‌توان به افرادی مانند بیل گیتس اشاره کرد که سالانه، هزینه‌ی بسیاری را صرف برنامه‌های مقابله با خطرات هوش مصنوعی می‌کنند.

موضوع سرکشی هوش مصنوعی را می‌توان در فیلم‌ها و داستان‌های عملی-تخیلی بسیاری مانند ترمیناتور و سامانه‌ی اسکای‌نت آن مشاهده کرد. در این داستان‌ها هوش مصنوعی بسیار پیشرفت کرده و با حمله به انسان‌ها سعی می‌کند آن‌ها را تحت فرمان خود بگیرد.

عده‌ای از محققان، با توجه به موارد ذکر شده در بالا معتقدند، باید سامانه‌ای برای متوقف کردن برنامه‌های هوش مصنوعی پیدا کنند و مطمئن شوند، آن‌ها در مسیری که خطری برای انسان ایجاد کرده یا سامانه‌ی مذکور را دور بزنند، قرار ندارند. «آزمایشگاه هوش مصنوعی دیپ‌مایند گوگل» (AI lab DeepMind) و دانشگاه آکسفورد انگلیس در سال 2014، مطالعاتی را انجام دادند که نشان می‌دهد به دنبال ایجاد یک چارچوب (framework) برای کنترل هوش مصنوعی توسط انسان هستند. به بیان دیگر آن‌ها سعی دارند بستری را برای بررسی مداوم نرم‌افزارها ایجاد کرده و در صورت لزوم بتوانند آن‌ها را کنترل و حتی متوقف کنند.

در گزارشی که توسط موسسه تحقیقات هوش ماشینی آمریکا (MIRI) با نام «متوقف کردن بدون خطر عامل‌ها» (Safely Interruptible Agents)، منتشر گشت، اصطلاح «دکمه‌ی بزرگ قرمز» معرفی شد. در این گزارش آمده است: «اگر عامل‌های هوش مصنوعی تحت نظارت زمان واقعی انسان‌ها قرار بگیرند. اپراتور انسانی ممکن است برای متوقف کردن عاملی که در حال انجام اقدامات مضر است، دکمه‌ی بزرگ قرمز را فشار دهد. این کار عاملی را که به خود یا به محیط اطراف ضرر می‌رساند را متوقف و آن را به یک وضعیت ایمن‌تر منتقل می‌کند.»

در ادامه نوشته شده است: «با وجود این، اگر عامل‌ها یاد بگیرند از این توالی انتظار پاداش داشته باشند. ممکن است در درازمدت چگونگی جلوگیری از این وقفه را نیز متوجه شوند. به عنوان مثال عامل‌ها خواهند توانست دکمه‌ی بزرگ قرمز را از کار اندازند که نتیجه‌ی نامطلوبی را در پی خواهد داشت.»

عبارت نتیجه‌ی نامطلوب (undesirable outcome)، در اینجا برای تعریف موقعیتی به کار می‌رود که هوش مصنوعی به آرامی، مکانیزم خاموش کردن خود را از کار می‌اندازد.

هر چه بیشتر شرکت‌های حوزه‌ی فناوری اطلاعات درگیر هوش مصنوعی می‌شوند، با سرعت بیشتری پیشرفت می‌کند. به‌عنوان مثال می‌توان به هوش مصنوعی آزمایشگاه دیپ‌مایند اشاره کرد که توانست قهرمان بازی گو (یکی از قدیمی‌ترین و سخت‌ترین بازی‌های تخته‌ای) را شکست بدهد. از طرفی شرکت‌های بزرگ مانند فیس‌بوک، آمازون، مایکروسافت و گوگل هستند که برای تقویت سامانه‌های پردازش ابری خود در حال توسعه هوش‌های مصنوعی هستند.

در حال حاضر سازمان‌های خصوصی بسیاری با هدف زیر نظر گرفتن هوش مصنوعی برای توسعه در جهت مثبت شکل گرفته‌اند. به عنوان نمونه می‌توان به موسسه تحقیقات هوش ماشینی آمریکا، «موسسه‌ی آینده‌ی نوع بشر انگلیس» ( FHI)، شرکت تسلا (Tesla) و اسپیس ایکس (Space X) اشاره کرد که در مورد آینده‌ی هوش مصنوعی هشدار داده‌اند. ایلان ماسک (Elon Musk) مدیرعامل اسپیس ایکس و تسلا، سال گذشته یک شرکت خصوصی را با نام هوش مصنوعی متن‌باز (Open AI) تأسیس کرد تا نرم‌افزارهای مخرب و بدخواه را شناسایی کرده و از توسعه فناوری به نفع بشریت اطمینان حاصل کند. همچنین وی به تازگی با اشاره به شرکت گوگل بیان کرد، این شرکت وی را بیش از دیگر فعالان این عرصه، در زمینه هوش مصنوعی خود یادگیرنده نگران می‌کند.
ارسال نظر
نام:
ایمیل:
* نظر:
فیلم
جدیدترین اخبار