محافظت از LLM

محافظت از LLM توسط Azure AI

فهرست مطالب

انجام یک سری کارها برای محافظت از LLM در راستای فیلتر کردن Promptهای مخرب مورد استفاده قرار می‌گیرد تا به وسیله آن ایمنی در استفاده از Generative AI افزایش یابد. در این مقاله قصد داریم تا به توضیح درباره محافظت از LLM توسط Azure AI بپردازیم. پس تا انتها همراه ما باشید.

Genarative AI، مدل‌های ناقصی که می‌خواهیم دربرابرشان از کاربران و کد خود محافظت کنیم، مجزا ساخته‌است. این امر می‌تواند هم به شدت امیدوار کننده و یا بسیار پرخطر باشد. همه در اخبار این را مشاهده کردیم که این امکان وجود دارد که ربات‌های مخصوص گفتگو یا چت‌بات‌ها ترغیب شوند تا رفتار توهین آمیز یا نژادپرستانه داشته باشند، یا LLMها (Large Language Model) برای اهداف نامناسب به کار برده‌شوند که خروجی‌هایشان در بهترین حالت ایده‌آل و در بدترین حالت خطرناک هستند.

هیچ‌کدام از این‌ها منحصراً تعجب آور نیست. ممکن است (Prompts) پیچیده‌ای را طراحی کنیم که منجر به خروجی‌های نامطلوبی می‌شوند و پنجره ورودی ازدستورالعمل ها و ابزار های محافظت سیستم‌هایمان عبور می‌کند. هم زمان، این اتفاقات رخ می‌دهند:

  • ما خروجی‌هایی را می‌بینیم فراتر از داده‌های موجود در مدل پایه قرار می‌گیرند.
  • متنی ارائه می‌شود که دیگر حقیقی نیست.
  • عباراتی تولید شوند که از نظز معنایی درست اما ار نظر هوش مصنوعی نامربوط باشند.

اگرچه می‌توانیم از روش‌هایی مانند Retrieval-Augmented Generation (RAG) و ابزارهای Semantic Kernel و LangChain استفاده کنیم تا برنامه‌هایمان را مبتنی بر داده‌های خود نگه داریم. هنوز Prompt Attack هایی وجود دارند که می‌توانند خروجی‌های بی‌ربط به جود می‌آورند و اعتبار داده را در خطر قرار دهند. نیازمندیم که از قبل، یک راهی برای آزمایش برنامه‌های هوش مصنوعی وجود داشته باشد اگر چه ایمنی آنها را تضمین نمی‌کند، حداقل ریسک این حملات را کاهش دهد. همچنین مطمئن می‌شویم که Promptهای خودمان Force Bias نمی‌شوند یا به درخواست‌های نامناسب پاسخ داده نمی‌شود.

معرفی هوش مصنوعی ایمنی محتوای Azure

شرکت مایکروسافت به مدت طولانی از خطرات ذکر شده آگاه بوده‌است. با درس عبرت گرفتن از گذشته، دیگر با فاجعه ی PR مانند چت‌بات Tay مواجه نمی‌شوید. (چت‌بات مایکروسافت که به کاربران توییت‌های نامناسب ارائه داده بود و بلافاصله توسط مایکروسافت بسته شد.) در نتیجه، این شرکت سرمایه هنگفتی در قسمت مسئول سازمان محور هوش مصنوعی‌اش کرده است. بخشی از این گروه، AI Azure که مسئول بخش هوش مصنوعی است، در محافظت از برنامه‌های تولیدی با استفاده از AI Azure Studio، تمرکز دارد و یک مجموعه ابزاری همراه با آن به عنوان Azure AI Content Safety، توسعه داده است.

Prompt Attacks

برخورد با تزریق حملات Prompt اهمیت زیادی دارد؛ زیرا یک Prompt مخرب نه تنها منتهی به محتوای نامطلوب می‌شود، بلکه می‌تواند بدین منظور کار کند که داده‌های بهم متصل و باهم هماهنگ به مدل را استخراح کند. در حالی که این واضح است که اطمینان حاصل شود که داده‌های RAG شامل اطلاعات شناسایی شده شخصی یا داده‌های تجاری حساس نیست، از اتصالات API خصوصی گرفته تا سیستم‌های کسب و کار رده‌بندی شده، همه این زمینه را دارند که بتوان به راحتی به آن‌ها نفوذ کرد.

attack

در ادامه ی حملات Prompt ما نیاز به مجموعه‌ای از ابزارها داریم که به ما اجازه دهد برنامه‌های هوش مصنوعی را قبل از ارسال به کاربران آزمایش کنیم و به ما اجازه دهد فیلترهای پیشرفته‌ای را بر روی ورودی‌ها اعمال کنیم تا خطر حملات تزریق Prompt را کاهش دهیم و حملاتی نوعشان شناخته شده‌است پیش از اینکه در مدل هایمان به کار بگیریم را مسدود کنیم.

پلتفرم‌های هوش مصنوعی بسیار کمی هستند از شرکت مایکروسافت و محیط پیشرفته‌ی AI Azure Studio آن بزرگ‌تر هستند. با استفاده از خدمات Copilot (خدمات Copilot مایکروسافت از جمله ابزارهای هوش مصنوعی و تکنولوژی ابری مایکروسافت هستند که برای کمک به توسعه دهندگان نرم‌افزار در فرایند نوشتن کد استفاده می‌شوند. این خدمات از تکنولوژی‌های پیشرفته مانند یادگیری ماشینی و پردازش زبان طبیعی بهره می‌برند تا به صورت خودکار پیشنهادات و راهنمایی‌های کدی برای توسعه‌دهندگان فراهم کنند.)

مایکروسافت که بر‌روی سازمان OpenAI سرمایه گذاری کرده‌است قادر به ردیابی Promptها و خروجی‌ها در سراسر محدوده‌ی وسیعی در برنامه های مختلف در چندین سطوح از استوار سازی با منابع متفاوت از داده‌هاست. این امکان را به تیم امنیتی هوش مصنوعی مایکروسافت می‌دهد تا به سرعت بفهمد که چه نوعی از Promptها مشکلات ساز‌اند و در با توحه به آن سوریس امنیتی خود را بهبود ببخشد.

استفاده از Prompt Shields برای کنترل ورودی‌ها هوش مصنوعی

Prompt Shields یا سپرهای Prompt مجموعه‌ای از فیلترها برای ورودی هستند. وقتی که Promptها را به طور عادی تولید می‌کنید  Prompt Shields آنها را تجزیه و تحلیل می‌کند و Promptهای مخرب را قبل از ارسال به LLM شما مسدود می‌کند.

prompt shield

هم اکنون دو نوع Prompt Shield وجود دارد. Prompt Shield برای Promptهای کاربر طراحی شده است تا برنامه شما را از Promptهای کاربری که مدل از حالت استوار به خروجی های نامطلوب سوق می‌دهد، محافظت می‌کند. روشن است که این موارد بسیار اعتبار را به خطر می‌اندازند. با مسدود کردن Promptهایی که این خروجی‌ها را به وجود می‌آورند، برنامه LLM شما باید روی حالت‌های خاص مورد استفاده‌ی شما متمرکز بماند. در حالی که سطح حملات برای برنامه LLM شما ممکن است کوچک باشد، سطح Copilot بسیار وسیع است. با فعال‌سازی Prompy Shield، شما می‌توانید از وسعت مهندسی امنیتی مایکروسافت بهره ببرید.

برنامه‌ی Prompt Shield for Documents

Prompt Shield for Documents به کاهش خطرات از طریق حملات غیرمستقیم کمک می‌کند. این‌ها از منابع داده‌ی جایگزین استفاده می‌کنند. Prompt Shield for Documents محتوای این فایل‌ها را بررسی می‌کند و آن‌هایی را که با الگوهای مرتبط با حملات تطبیق دارند، مسدود می‌کند. با افزایش سو‌ء استفاده از تکنیک‌هایی مانند این، ریسک قابل توجهی همراه آن وجود دارد. زیرا این‌ها با استفاده از ابزارهای امنیتی معمولی، به سختی تشخیص داده می‌شوند. استفاده از محافظ‌هایی مانند Prompt Shield که هوش مصنوعی دارند، حائز اهمیت است.

استفاده از Prompt Shield شامل فراخوانی با API (به فراخوانی یا فراخوانی واسط برنامه‌نویسی اشاره دارد. در این فرایند، یک برنامه یا سرویس از طریق واسط برنامه‌نویسی یک درخواست ارسال می‌کند تا به یک عملیات خاص دسترسی پیدا کند یا اطلاعاتی را دریافت کند.) با Prompt کاربر و هرگونه اسناد پشتیبانی کننده‌است. این‌ها برای قسمت‌های آسیب‌پذیر تحلیل می‌شوند، با یک پاسخ ساده نشان می‌دهد که یک حمله شناسایی شده‌است. سپس می‌توانید کد را به بخش هماهنگ کننده‌ی LLM خود اضافه کنید تا این پاسخ را دریافت کنید، بعد دسترسی این کاربر را مسدود کنید که چه Promptهایی استفاده کرده‌اند و فیلترهای اضافی را برای جلوگیری از بکار گیری از آن حملات در آینده ایجاد کنید.

بررسی خروجی‌های ناپایدار

این ویژگی تنها برای برنامه‌هایی کار می‌کند که از منابع داده‌ای پایداری استفاده می‌کنند. ابزار تشخیص استواری دادها، خود یک مدل زبان است، هدف آن ایجاد یک حلقه‌ی بازخورد (Feedback Loop) برای خروجی LLM می‌یاشد. حال خروجی LLM را با داده‌هایی که برای استوار شدن به آن کاربرد دارد، مقایسه می‌کند. سپس بررسی می‌کند تا ببیند آیا آن بر اساس داده‌های منبع است و اگر نه، ارور می‌دهد. این فرآیند، Natural Language Inference (استنتاج زبان به صورت طبیعی)، هنوز در مراحل ابتدایی خود است و مدل سطح پایین آن قرار است به روز شود و تیم‌های مسئول بخش هوش مصنوعی مایکروسافت در حال توسعه دادن راه‌هایی هستند که مدل های هوش مصنوعی محتوای خود را از دست ندهند.

با تهیه سرور مجازی پویان آی تی می‌توانید از اتصالی پایدار بهره‌مند شده و از هوش مصنوعی به راحتی استفاده نمایید. جهت خریداری سرور مجازی پویان آی تی همین حالا اقدام نمایید.

حفظ ایمنی کاربران با هشدارها

یک جنبه مهم از خدمات ایمنی محتوای AI Azure اطلاع رسانی به کاربران هنگام انجام کار غیر ایمن با LLM است. شاید آن‌ها به طور اجتماعی مهندسی شده‌اند تا یک Prompt را تحویل دهند که داده‌ها را جا به جا می‌کند. با این حال ارائه راهنمایی برای نوشتن Promptهای ایمن برای LLM، همانند بخشی از سرویس دهی امنیتی‌ Prompt Shield است.

مایکروسافت سیستم قالب‌های گفت و گویی را به AI Azure Studio اضافه می‌کند که می‌تواند به همراه Prompt Shield و دیگر ابزارهای امنیتی هوش مصنوعی به کار برده شود. این موارد به طور خودکار در فضای توسعه AI Azure نشان داده شده‌اند، تا اجازه دهد سیستم گفت و گو چه زمانی نمایان شوند و به شما کمک می‌کند تا پیام‌های خود را بر اساس طراحی و استراتژی محتوای برنامه شما، ایجاد کنید.

آزمایش و نظارت بر مدل‌های خود

AI Azure Studio همچنان بهترین فضا برای ساخت برنامه‌هایی است که با LLMهایی تحت میزبانی Azure کار می‌کنند. این استودیو شامل ارزیابی‌های خودکار برای برنامه‌های شما است و شامل روش‌های سنجیدن ایمنی برنامه‌ است که به استفاده از حملات پیش‌ساخته برای آزمایش واکنش مدل شما به Jailbreaks (برداشتن محدودیت‌های نرم افزاری) و حملات غیر مستقیم و اینکه آیا ممکن است محتوای خطرناک به خروجی دهد می‌پردازند. شما می‌توانید از Promptهای خود یا قالب‌های Prompt اختصاصی مایکروسافت به عنوان پایه آزمایش خود استفاده کنید.


هنگامی که یک برنامه هوش مصنوعی راه‌اندازی کرده‌اید، نیاز است که آن را نظارت کنید تا اطمینان حاصل شود که Promptهای اختصاصی جدید حمله‌ای موفقیت‌آمیز را به آن وارد نکنند. شما می‌توانید انواع حملات استفاده شده در ورودی‌ها، خروجی‌ها و هم حجم حملات را ببینید. در کنار آن امکان فهمیدن اینکه کدام کاربران از برنامه شما به طور خلاف‌کارانه استفاده می‌کنند نیز وجود دارد و به شما اجازه می‌دهد که الگوهای پشت حملات را شناسایی و لیست‌های مسدودی را به درستی تنظیم کنید.


اطمینان از اینکه کاربران خلافکار قادر به جلوگیری از LLM نیستند، تنها یک بخش از ارائه برنامه‌های هوش مصنوعی مورد اعتماد و مسئولانه است. فراموش نکنید که خروجی به اندازه ورودی اهمیت دارد. با بررسی داده‌های خروجی مقابل اسناد منبع، می‌توانیم حلقه بازخوردی را اضافه کنیم که به ما اجازه می‌دهد Promptها را بهبود بخشیم تا پایداری آن‌ها را از دست ندهیم. به یاد داشته باشید که این ابزارها به همراه با سرویس‌های هوش مصنوعی باید تکامل یابند. 

و در آخر

شرکت مایکروسافت با توجه به تجربیات گذشته و رویکردهای جدید در حوزه هوش مصنوعی، ابزارهای قدرتمندی برای ایمنی محتوای AI Azure ارائه داده است. این ابزارها شامل مجموعه‌ای از فیلترها، ابزارهای تشخیص پایداری دادها، و سیستم‌های هشداردهنده برای جلوگیری از خروجی‌های ناپایدار و اطلاع‌رسانی به کاربران در مورد رفتارهای غیرمجاز هستند. استفاده از این ابزارها، همراه با نظارت مداوم بر مدل‌های هوش مصنوعی، می‌تواند امنیت برنامه‌های هوش مصنوعی را بهبود بخشد. همچنین از حوادثی مانند حملات حریفان جلوگیری کند.

سؤالات متداول

  • چگونه ابزارهای ایمنی محتوا در Azure AI می‌توانند از حملات تزریقی مانند حملات Prompt جلوگیری کنند؟

ابزارهای ایمنی محتوای Azure AI از حملات تزریقی مانند حملات Prompt با استفاده از مجموعه‌ای از فیلترها و تکنیک‌های امنیتی جلوگیری می‌کنند. این ابزار از Prompt Shields، فیلترهای پیشرفته و Natural Language Inference برای شناسایی و مسدود کردن Promptهای مخرب و حملات مشابه استفاده می‌کنند.

  • چطور می‌توان با استفاده از ابزارهای AI Azure، خروجی‌های ناپایدار مدل‌های هوش مصنوعی را تشخیص داد و پیشگیری از آنها را انجام داد؟

با استفاده از ابزارهای AI Azure، مانند مدل‌های زبان و ابزارهای تشخیص استواری دادها، می‌توان خروجی‌های ناپایدار مدل‌های هوش مصنوعی را تشخیص داد.

به این مقاله امتیاز دهید!

میانگین امتیاز 0 / 5. تعداد رأی ها : 0

هنوز هیچ رأیی داده نشده. اولین نفر باشید!

اشتراک گذاری اشتراک گذاری در تلگرام اشتراک گذاری در لینکدین اشتراک گذاری در ایکس کپی کردن لینک پست

و در ادامه بخوانید

اولین دیدگاه را اضافه کنید.

برچسب ها

هوش مصنوعی Microsoft