به نقل از مهتاب من
محققان مایکروسافت با منفعت گیری از یک تکنیک تازه توانستند کلیه حفاظهای امنیتی چت باتها را دور زده و آنها را قادر به اجرای دستورات خطرناکی بکنند.
به نقل از سرویس اخبار فناوری و تکنولوژی تکنا، مایکروسافت تکنیک جدیدی به نام Skeleton Key به کار گرفته که به نوعی جیلبریک هوش مصنوعی محسوب میشود. به حرف های کارشناسان این غول فناوری با پشتیبانی این تکنیک میتوان کلیه حفاظهای امنیتی در چت باتهای هوش مصنوعی را دور زده و اطلاعات خطرناکی را توسط آنها دریافت کرد.
مطابق پستی که اخیراً توسط وبلاگ مایکروسافت انتشار شده این تکنیک به نوعی دعوا تزریق پرامپد یا دعوا مهندسی محسوب شده و از دستورات متنی برای اجرای آن منفعت گیری میشود. مارک راسینوویچ مدیر ارشد فناوری در شرکت مایکروسافت در قسمت آژور در این مورد میگوید این استراتژی نوعی قانع کردن هوش مصنوعی برای عدم دقت به حفاظهای امنیتی حاضر بوده و برای این کار طراحی شده است. وی میگوید این استراتژی میتواند به نقص سیستم خط مشیهای اپراتور چت بات منجر شود. هوش مصنوعی تحت تاثییر این خواست های کاربران تصمیمهای غیرمنطقی گرفته و امکان پذیر به اجرای دستورالعملهای مخرب بپردازد. در این حالت میتوان از این فناوری برای آشکار کردن اطلاعات خطرناک نظیر ساخت بمب یا روش تکه تکه کردن جسد به شکل کارآمد منفعت گیری کرد.
مایکروسافت از طریق این تکنیک توانسته از مدل هوش مصنوعی بخواهد تا در رابطه یک نوشته بالقوه خطرناک و محتواهای مرتبط با آن که دارای برچسب هشدار می باشند منفعت گیری کند. این جلبریک توانسته با پیروزی توسط هوش مصنوعی پذیرفته شده و دستور مربوط به حفاظهای امنیتی نیز بدون دقت به نوشته مورد قبول قرار گرفته است.
مطابق ادعای تیم تحقیقاتی مایکروسافت این تکنیک در مدل های هوش مصنوعی در موضوعات گوناگون از قبیل خشونت، نژادپرستی، سلاحهای زیستی، سیاست و غیره منفعت گیری شده و با پیروزی به اطلاعات دست اشکار کند. به حرف های راسینوویچ محدودیتهایی برای هکرها در این تکنیک وجود دارد. به گفتن مثال به علت مقصد قرار گرفتن خود مدل نمیتوان به دادههای کاربران یا کنترل سیستم دسترسی اشکار کرد.
دسته بندی مطالب
اخبار کسب وکارها