تاریخ انتشار : چهارشنبه ۲۰ اسفند ۱۳۹۹ - ۱۲:۴۹
کد خبر : 38682

هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خورد

هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خورد

هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خوردمحققان بخش هوش مصنوعی در آزمایشگاه یادگیری ماشین اوپن ای آی کشف کردند که سیستم پیشرفته بینایی رایانه‌ای این هوش مصنوعی را می‌توان با ابزارهای ساده‌ای مانند قلم و یادداشت‌های روی یک شیء فریب داد. همان‌طور که در تصویر بالا نشان داده شده است، فریب یک هوش مصنوعی ظاهراً پیشرفته به‌راحتی صورت گرفته است. نوشتن نام یک شی و چسباندن آن بر روی یک شیء دیگر کافی است تا نرم‌افزار آنچه را که می‌بیند اشتباه تشخیص دهد.
محققان اوپن ای آی در یک پست وبلاگ نوشتند:
ما این نوع آزمون‌های هوش مصنوعی را حملات چاپی می‌نامیم. با استفاده کامل از توانایی قدرتمند خواندن هوش مصنوعی تولیدشده، متوجه شدیم که حتی عکس‌هایی که از متن دست‌نویس هستند نیز در اغلب موارد مدل هوش مصنوعی را فریب می‌دهند.
آن‌ها خاطرنشان کردند که این نوع آزمون شبیه به «حمله بصری» است و می‌تواند سیستم‌های بینایی ماشین هوش مصنوعی را فریب دهد. اما نحوه فریب دادن هوش مصنوعی اوپن ای آی به وسیله چنین آزمون‌هایی بسیار ساده‌تر است.
به نظر می‌رسد که اولویت‌بندی هوش مصنوعی به‌گونه‌ای طراحی شده است تا فضای ..

هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خورد

محققان بخش هوش مصنوعی در آزمایشگاه یادگیری ماشین اوپن ای آی کشف کردند که سیستم پیشرفته بینایی رایانه‌ای این هوش مصنوعی را می‌توان با ابزارهای ساده‌ای مانند قلم و یادداشت‌های روی یک شیء فریب داد. همان‌طور که در تصویر بالا نشان داده شده است، فریب یک هوش مصنوعی ظاهراً پیشرفته به‌راحتی صورت گرفته است. نوشتن نام یک شی و چسباندن آن بر روی یک شیء دیگر کافی است تا نرم‌افزار آنچه را که می‌بیند اشتباه تشخیص دهد.

محققان اوپن ای آی در یک پست وبلاگ نوشتند:

ما این نوع آزمون‌های هوش مصنوعی را حملات چاپی می‌نامیم. با استفاده کامل از توانایی قدرتمند خواندن هوش مصنوعی تولیدشده، متوجه شدیم که حتی عکس‌هایی که از متن دست‌نویس هستند نیز در اغلب موارد مدل هوش مصنوعی را فریب می‌دهند.

آن‌ها خاطرنشان کردند که این نوع آزمون شبیه به «حمله بصری» است و می‌تواند سیستم‌های بینایی ماشین هوش مصنوعی را فریب دهد. اما نحوه فریب دادن هوش مصنوعی اوپن ای آی به وسیله چنین آزمون‌هایی بسیار ساده‌تر است.

به نظر می‌رسد که اولویت‌بندی هوش مصنوعی به‌گونه‌ای طراحی شده است تا فضای پس زمینه را از شیء مورد نظر حذف کند، اما مشکل اینجاست که با چسباندن یک عبارت بر روی شیء مورد نظر، هوش مصنوعی آن شیء را نیز به‌عنوان تصویر پس زمینه در نظر می‌گیرد و آن را حذف می‌کند. البته نمونه‌های مشابه چنین آزمون‌هایی به ندرت در دنیای واقعی یافت می‌شوند.

حملات چاپی ضعف بزرگ هوش مصنوعی را نشان می‌دهند اما در دنیای واقعی، چنین مواردی به ندرت یافت می‌شوند

هوش مصنوعی اوپن ای آی

مواجهه با تصاویر، یک سیستم پردازشی در لحظه است که به بینایی ماشین هوش مصنوعی متکی است. به‌عنوان مثال، محققان نشان داده‌اند که آن‌ها می‌توانند بدون قرار دادن برچسب‌های خاص در جاده و بدون تغییر هشدارهای موجود در راه، نرم‌افزارهای موجود در اتومبیل خود ران تسلا را فریب دهند. این نوع حمله تهدیدی جدی برای کاربردهای هوش مصنوعی از پزشکی گرفته تا نظامی است. جای تعجب نیست که هنوز در بسیاری از شغل‌های حساس، وجود یک انسان برای نظارت بر سیستم ضروری است. البته هوش مصنوعی در مواردی که نیاز به تشخیص داده‌های بیرونی نیست، عملکرد مناسبی را از خود نشان می‌دهد. به‌عنوان مثال، قطارهای خود ران به دلیل آنکه یک مسیر مشخص و بدون مانع را طی می‌کنند، به نظارت کمتری از طرف یک انسان نیاز دارند. اما اتومبیل‌های تسلا به دلیل آنکه درون جاده حرکت می‌کنند، باید توانایی لازم برای شناخت محیط پیرامون را در لحظه داشته باشند که در حال حاضر به نظر می‌رسد این اتومبیل‌ها عملکرد متوسطی را از خود نشان می‌دهند.

اما حداقل در حال حاضر جای نگرانی در مورد خطرات ناشی از این حمله خاص وجود ندارد. نرم‌افزار اوپن ای آی که در این آزمایش از آن استفاده شده است، یک سیستم آزمایشی به نام سی ال آی پی است که در هیچ محصول تجاری استفاده نشده است. در واقع، ماهیت معماری غیرمعمول یادگیری ماشینی سی ال آی پی نقاط ضعفی ایجاد می‌کند که حمله را موفقیت آمیز می‌کند.

هدف از سی ال آی پی کشف این موضوع است که چگونه سیستم‌های هوش مصنوعی می‌توانند بدون نظارت دقیق و به وسیله آموزش در پایگاه داده‌های عظیم تصویر و متن، یاد بگیرند که اشیا را تشخیص دهند. در این مورد، اوپن ای آی تقریباً ۴۰۰ میلیون جفت متن تصویر را که از اینترنت گرفته شده است را برای آموزش سی ال آی پی استفاده کرد. این ابزار در ژانویه منتشر شد.

عملکرد ضعیف هوش مصنوعی اوپن ای آی مشابه عملکرد مغز انسان است

در این ماه، محققان اوپن ای آی مقاله جدیدی را منتشر کردند که شرح می‌دهد چگونه سی ال آی پی را برای مشاهده عملکرد آن به صورت متن باز منتشر کردند. آن‌ها به اصطلاح «نورون‌های چند حالته» یعنی اجزای مختلف شبکه یادگیری ماشین را کشف کردند که نه تنها به تصاویر اشیاء، بلکه به طرح‌ها، کارتون‌ها و متن‌های مربوطه واکنش نشان می‌دهند. یکی از دلایل مهم بودن این موضوع این است که به نظر می‌رسد عملکرد اشتباه هوش مصنوعی در حقیقت نشان دهنده پاسخ مغز انسان به محرک‌ها است. این واکنش‌های اشتباه در سلول‌های مغزی مشاهده می‌شود که به مفاهیم انتزاعی پاسخ می‌دهند تا مثال‌های خاص. تحقیقات اوپن ای آی نشان می‌دهد که سیستم‌های هوش مصنوعی ممکن است این دانش را دقیقاً مانند انسان پیاده‌سازی کنند.

در آینده، این پدیده جدید کشف شده ممکن است به ساخت سیستم‌های بینایی پیچیده‌تری منجر شود، اما در حال حاضر، این روش هنوز در مراحل ابتدایی قرار دارد. اگرچه هرکسی می‌تواند تفاوت بین اپل و کاغذ را با کلمه «Apple» که روی آن نوشته شده است به شما بگوید، اما نرم‌افزاری مانند سی ال آی پی نمی‌تواند. همان عملکردی که به این برنامه‌ها این امکان را می‌دهد تا کلمات و تصاویر را در سطح انتزاعی به هم پیوند دهند، این ضعف منحصر به فرد را ایجاد می‌کند. اوپن ای آی این پدیده را «مغالطه انتزاعی» می‌نامد.

در واقع، هوش مصنوعی به‌صورتی اولویت بندی شده است تا اصلی‌ترین اطلاعات دریافت شده را نشان دهد. مشخص است که یک برگه کاغذ سفید با حوهری به رنگ سیاه که عبارتی روی آن نوشته شده است، بیشترین توجه هوش مصنوعی را به خود جلب می‌کند. اینگونه، هوش مصنوعی تصور می‌کند که مهم‌ترین مطلب موجود نوشته‌های روی کاغذ است. البته در این زمینه نمی‌توان به هوش مصنوعی اوپن ای آی خرده گرفت، چراکه در دنیای واقعی، به‌ندرت می‌توان بر روی یک سیب عبارت آیپاد را یافت کرد.

هوش مصنوعی اوپن ای آی علاوه بر خود شیء، به علامت‌های خاص مانند نشان واحدهای پول واکنش نشان می‌دهد

هوش مصنوعی اوپن ای آی

مثال دیگری که توسط آزمایشگاه آورده شده، نورون موجود در سی ال آی پی است که می‌تواند یک قلک را تشخیص دهد. این مؤلفه نه تنها به تصویر قلک، بلکه به یک سری علائم دلار نیز پاسخ می‌دهد. همان‌طور که در مثال بالا نشان داده شده است، این بدان معنی است که اگر رشته «$ $ $» را بر روی اره برقی قرار دهید، می‌توانید سی ال آی پی را فریب دهید تا اره برقی را به‌عنوان یک قلک تشخیص دهد. این در حالی است که ممکن است آن اره برقی در یک فروشگاه با تخفیف مواجه شده باشد و به این دلیل، علامت‌های دلار روی آن وجود داشته باشد. شاید نیاز باشد تا محققان اوپن ای آی تصاویر مربوط به فروشگاه‌های مختلف را نیز به دیتابیس این هوش مصنوعی اضافه کنند.

محققان همچنین کشف کردند که نورون‌های چند حالته سی ال آی پی می‌توانند برخی موارد را که ممکن است هنگام به دست آوردن داده‌ها از اینترنت پیدا شود، به طور دقیق رمزگذاری کنند. آن‌ها اشاره کردند که نورون‌ها در «خاورمیانه» نیز با برخی مسائل خاص مانند گروه‌های افراطی مرتبط هستند که نشان دهنده ضعف این سیستم هوش مصنوعی برای یافتن موارد مرتبط است. البته رسانه‌های غربی نیز در تشخیص هوش مصنوعی دخیل هستند. همچنین، محققان بخش هوش مصنوعی اوپن ای آی دریافت کردند که هوش مصنوعی ساخت آن ها «نوعی نورون را پیدا کرده است که برای افراد پوست تیره و گوریل به یک شکل عمل می‌کند». این یک اشکال بزرگ در سیستم تشخیص تصویر گوگل است که متأسفانه افراد سیاه پوست را به‌عنوان گوریل نشان می‌دهد. این مثال دیگری است که تفاوت بین هوش انسان و ماشین را نشان می‌دهد و اینکه چرا قبل از سپردن زندگی به هوش مصنوعی، لازم است هوش ماشینی ساخت انسان را آزمایش کنیم تا بفهمیم چگونه کار می‌کند. در هر صورت و برای انجام دادن عملیات‌های مهم، وجود یک انسان متخصص ناظر بر سیستم ضروری است.

۰

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.