هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خورد
هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خوردمحققان بخش هوش مصنوعی در آزمایشگاه یادگیری ماشین اوپن ای آی کشف کردند که سیستم پیشرفته بینایی رایانهای این هوش مصنوعی را میتوان با ابزارهای سادهای مانند قلم و یادداشتهای روی یک شیء فریب داد. همانطور که در تصویر بالا نشان داده شده است، فریب یک هوش مصنوعی ظاهراً پیشرفته بهراحتی صورت گرفته است. نوشتن نام یک شی و چسباندن آن بر روی یک شیء دیگر کافی است تا نرمافزار آنچه را که میبیند اشتباه تشخیص دهد.
محققان اوپن ای آی در یک پست وبلاگ نوشتند:
ما این نوع آزمونهای هوش مصنوعی را حملات چاپی مینامیم. با استفاده کامل از توانایی قدرتمند خواندن هوش مصنوعی تولیدشده، متوجه شدیم که حتی عکسهایی که از متن دستنویس هستند نیز در اغلب موارد مدل هوش مصنوعی را فریب میدهند.
آنها خاطرنشان کردند که این نوع آزمون شبیه به «حمله بصری» است و میتواند سیستمهای بینایی ماشین هوش مصنوعی را فریب دهد. اما نحوه فریب دادن هوش مصنوعی اوپن ای آی به وسیله چنین آزمونهایی بسیار سادهتر است.
به نظر میرسد که اولویتبندی هوش مصنوعی بهگونهای طراحی شده است تا فضای ..
هوش مصنوعی اوپن ای آی توسط یادداشت دست نویس فریب خورد
محققان بخش هوش مصنوعی در آزمایشگاه یادگیری ماشین اوپن ای آی کشف کردند که سیستم پیشرفته بینایی رایانهای این هوش مصنوعی را میتوان با ابزارهای سادهای مانند قلم و یادداشتهای روی یک شیء فریب داد. همانطور که در تصویر بالا نشان داده شده است، فریب یک هوش مصنوعی ظاهراً پیشرفته بهراحتی صورت گرفته است. نوشتن نام یک شی و چسباندن آن بر روی یک شیء دیگر کافی است تا نرمافزار آنچه را که میبیند اشتباه تشخیص دهد.
محققان اوپن ای آی در یک پست وبلاگ نوشتند:
ما این نوع آزمونهای هوش مصنوعی را حملات چاپی مینامیم. با استفاده کامل از توانایی قدرتمند خواندن هوش مصنوعی تولیدشده، متوجه شدیم که حتی عکسهایی که از متن دستنویس هستند نیز در اغلب موارد مدل هوش مصنوعی را فریب میدهند.
آنها خاطرنشان کردند که این نوع آزمون شبیه به «حمله بصری» است و میتواند سیستمهای بینایی ماشین هوش مصنوعی را فریب دهد. اما نحوه فریب دادن هوش مصنوعی اوپن ای آی به وسیله چنین آزمونهایی بسیار سادهتر است.
به نظر میرسد که اولویتبندی هوش مصنوعی بهگونهای طراحی شده است تا فضای پس زمینه را از شیء مورد نظر حذف کند، اما مشکل اینجاست که با چسباندن یک عبارت بر روی شیء مورد نظر، هوش مصنوعی آن شیء را نیز بهعنوان تصویر پس زمینه در نظر میگیرد و آن را حذف میکند. البته نمونههای مشابه چنین آزمونهایی به ندرت در دنیای واقعی یافت میشوند.
حملات چاپی ضعف بزرگ هوش مصنوعی را نشان میدهند اما در دنیای واقعی، چنین مواردی به ندرت یافت میشوند
مواجهه با تصاویر، یک سیستم پردازشی در لحظه است که به بینایی ماشین هوش مصنوعی متکی است. بهعنوان مثال، محققان نشان دادهاند که آنها میتوانند بدون قرار دادن برچسبهای خاص در جاده و بدون تغییر هشدارهای موجود در راه، نرمافزارهای موجود در اتومبیل خود ران تسلا را فریب دهند. این نوع حمله تهدیدی جدی برای کاربردهای هوش مصنوعی از پزشکی گرفته تا نظامی است. جای تعجب نیست که هنوز در بسیاری از شغلهای حساس، وجود یک انسان برای نظارت بر سیستم ضروری است. البته هوش مصنوعی در مواردی که نیاز به تشخیص دادههای بیرونی نیست، عملکرد مناسبی را از خود نشان میدهد. بهعنوان مثال، قطارهای خود ران به دلیل آنکه یک مسیر مشخص و بدون مانع را طی میکنند، به نظارت کمتری از طرف یک انسان نیاز دارند. اما اتومبیلهای تسلا به دلیل آنکه درون جاده حرکت میکنند، باید توانایی لازم برای شناخت محیط پیرامون را در لحظه داشته باشند که در حال حاضر به نظر میرسد این اتومبیلها عملکرد متوسطی را از خود نشان میدهند.
اما حداقل در حال حاضر جای نگرانی در مورد خطرات ناشی از این حمله خاص وجود ندارد. نرمافزار اوپن ای آی که در این آزمایش از آن استفاده شده است، یک سیستم آزمایشی به نام سی ال آی پی است که در هیچ محصول تجاری استفاده نشده است. در واقع، ماهیت معماری غیرمعمول یادگیری ماشینی سی ال آی پی نقاط ضعفی ایجاد میکند که حمله را موفقیت آمیز میکند.
هدف از سی ال آی پی کشف این موضوع است که چگونه سیستمهای هوش مصنوعی میتوانند بدون نظارت دقیق و به وسیله آموزش در پایگاه دادههای عظیم تصویر و متن، یاد بگیرند که اشیا را تشخیص دهند. در این مورد، اوپن ای آی تقریباً ۴۰۰ میلیون جفت متن تصویر را که از اینترنت گرفته شده است را برای آموزش سی ال آی پی استفاده کرد. این ابزار در ژانویه منتشر شد.
عملکرد ضعیف هوش مصنوعی اوپن ای آی مشابه عملکرد مغز انسان است
در این ماه، محققان اوپن ای آی مقاله جدیدی را منتشر کردند که شرح میدهد چگونه سی ال آی پی را برای مشاهده عملکرد آن به صورت متن باز منتشر کردند. آنها به اصطلاح «نورونهای چند حالته» یعنی اجزای مختلف شبکه یادگیری ماشین را کشف کردند که نه تنها به تصاویر اشیاء، بلکه به طرحها، کارتونها و متنهای مربوطه واکنش نشان میدهند. یکی از دلایل مهم بودن این موضوع این است که به نظر میرسد عملکرد اشتباه هوش مصنوعی در حقیقت نشان دهنده پاسخ مغز انسان به محرکها است. این واکنشهای اشتباه در سلولهای مغزی مشاهده میشود که به مفاهیم انتزاعی پاسخ میدهند تا مثالهای خاص. تحقیقات اوپن ای آی نشان میدهد که سیستمهای هوش مصنوعی ممکن است این دانش را دقیقاً مانند انسان پیادهسازی کنند.
در آینده، این پدیده جدید کشف شده ممکن است به ساخت سیستمهای بینایی پیچیدهتری منجر شود، اما در حال حاضر، این روش هنوز در مراحل ابتدایی قرار دارد. اگرچه هرکسی میتواند تفاوت بین اپل و کاغذ را با کلمه «Apple» که روی آن نوشته شده است به شما بگوید، اما نرمافزاری مانند سی ال آی پی نمیتواند. همان عملکردی که به این برنامهها این امکان را میدهد تا کلمات و تصاویر را در سطح انتزاعی به هم پیوند دهند، این ضعف منحصر به فرد را ایجاد میکند. اوپن ای آی این پدیده را «مغالطه انتزاعی» مینامد.
در واقع، هوش مصنوعی بهصورتی اولویت بندی شده است تا اصلیترین اطلاعات دریافت شده را نشان دهد. مشخص است که یک برگه کاغذ سفید با حوهری به رنگ سیاه که عبارتی روی آن نوشته شده است، بیشترین توجه هوش مصنوعی را به خود جلب میکند. اینگونه، هوش مصنوعی تصور میکند که مهمترین مطلب موجود نوشتههای روی کاغذ است. البته در این زمینه نمیتوان به هوش مصنوعی اوپن ای آی خرده گرفت، چراکه در دنیای واقعی، بهندرت میتوان بر روی یک سیب عبارت آیپاد را یافت کرد.
هوش مصنوعی اوپن ای آی علاوه بر خود شیء، به علامتهای خاص مانند نشان واحدهای پول واکنش نشان میدهد
مثال دیگری که توسط آزمایشگاه آورده شده، نورون موجود در سی ال آی پی است که میتواند یک قلک را تشخیص دهد. این مؤلفه نه تنها به تصویر قلک، بلکه به یک سری علائم دلار نیز پاسخ میدهد. همانطور که در مثال بالا نشان داده شده است، این بدان معنی است که اگر رشته «$ $ $» را بر روی اره برقی قرار دهید، میتوانید سی ال آی پی را فریب دهید تا اره برقی را بهعنوان یک قلک تشخیص دهد. این در حالی است که ممکن است آن اره برقی در یک فروشگاه با تخفیف مواجه شده باشد و به این دلیل، علامتهای دلار روی آن وجود داشته باشد. شاید نیاز باشد تا محققان اوپن ای آی تصاویر مربوط به فروشگاههای مختلف را نیز به دیتابیس این هوش مصنوعی اضافه کنند.
محققان همچنین کشف کردند که نورونهای چند حالته سی ال آی پی میتوانند برخی موارد را که ممکن است هنگام به دست آوردن دادهها از اینترنت پیدا شود، به طور دقیق رمزگذاری کنند. آنها اشاره کردند که نورونها در «خاورمیانه» نیز با برخی مسائل خاص مانند گروههای افراطی مرتبط هستند که نشان دهنده ضعف این سیستم هوش مصنوعی برای یافتن موارد مرتبط است. البته رسانههای غربی نیز در تشخیص هوش مصنوعی دخیل هستند. همچنین، محققان بخش هوش مصنوعی اوپن ای آی دریافت کردند که هوش مصنوعی ساخت آن ها «نوعی نورون را پیدا کرده است که برای افراد پوست تیره و گوریل به یک شکل عمل میکند». این یک اشکال بزرگ در سیستم تشخیص تصویر گوگل است که متأسفانه افراد سیاه پوست را بهعنوان گوریل نشان میدهد. این مثال دیگری است که تفاوت بین هوش انسان و ماشین را نشان میدهد و اینکه چرا قبل از سپردن زندگی به هوش مصنوعی، لازم است هوش ماشینی ساخت انسان را آزمایش کنیم تا بفهمیم چگونه کار میکند. در هر صورت و برای انجام دادن عملیاتهای مهم، وجود یک انسان متخصص ناظر بر سیستم ضروری است.
۰–
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0