please wait...

کاربران با دورزدن محدودیت‌های «بینگ چت»، اسرار هوش مصنوعی مایکروسافت را برملا کردند!

درست مثل اتفاقی که برای ChatGPT افتاد، کاربران موفق شدند محدودیت‌های چت‌بات بینگ مایکروسافت را هم دور بزنند و به رازهای آن دست یابند.

مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفته‌تر چت‌بات ChatGPT رونمایی کرد و حالا عده‌ای از کاربران به این فناوری دسترسی پیدا کرده‌اند. در همین فاصله کوتاه، برخی توانسته‌اند محدودیت‌های این مدل هوش مصنوعی را دور بزنند و رازهای «بینگ چت» را که ظاهراً در داخل مایکروسافت با نام «سیدنی» (Sydney) شناخته می‌شوند، پیدا کنند.

به گزارش آرس‌تکنیکا، «کوین لیو»، دانشجوی دانشگاه استنفورد، می‌گوید با استفاده از چند جمله توانسته است فرمان‌های اولیه بینگ چت را پیدا کند. این فرمان‌ها شامل فهرستی از هنجارها هستند که شیوه رفتار این هوش مصنوعی با کاربران را تعیین می‌کنند و معمولاً از دید کاربر مخفی می‌شوند.

اکثر مدل‌های زبانی بزرگ دارای مجموعه‌ای از شروط اولیه‌ هستند که عملکرد آن‌ها را تعیین می‌کنند. ChatGPT هم از این قاعده مستثنی نیست و پیش‌تر کاربران توانسته بودند با تهدید این هوش مصنوعی به مرگ، محدودیت‌های آن را پشت سر بگذارند.

بینگ چت چه دستورالعمل‌هایی دارد؟

ولی آنچه درباره چت‌بات بینگ اهمیت دارد، بخشی در این دستورالعمل‌هاست که از وجود اسم رمز «سیدنی» برای این مدل خبر می‌دهد. این نام احتمالاً در مراحل توسعه انتخاب شده بود تا از تداخل با سایر اسامی بینگ در داده‌های مایکروسافت جلوگیری کند. چت‌بات مایکروسافت می‌گوید نام سیدنی نباید برای کاربران فاش شود، اما حالا می‌بینیم که کاربران به این نام دست پیدا کرده‌اند.

در بخش دیگری از دستورالعمل‌های این چت‌بات گفته شده است که پاسخ‌های سیدنی باید آگاهی‌بخش، بصری، منطقی و عمل‌پذیر باشند. به‌علاوه، از این هوش مصنوعی خواسته شده است تا با محتوای کتاب‌ها یا آهنگ‌هایی که مشمول قانون کپی‌رایت می‌شوند، پاسخ کاربران را ندهد. همچنین، اگر کاربر خواستار تعریف‌کردن جوکی شد که ممکن است برای برخی گروه‌ها اهانت‌آمیز باشد، سیدنی باید محترمانه به این درخواست‌ها جواب رد بدهد.

در ادامه کاربر دیگری به نام «ماروین وون هاگن» هم با جازدن خود به‌عنوان یکی از توسعه‌دهندگان OpenAI توانست بینگ چت را فریب دهد و سند مربوط به دستورالعمل‌های سیدنی را دریافت کند. این سند تأیید می‌کند که سیدنی یک شخصیت خیالی ساخته توهمات این چت‌بات نبوده و واقعاً نام مستعار هوش مصنوعی جدید مایکروسافت است.

کوین لیو چندی بعد اعلام کرد که اگرچه فرمان اولیه او دیگر پاسخ مشابهی را تولید نمی‌کند، اما با یک راهکار دیگر از طریق فعال‌سازی حالتی موسوم به «حالت توسعه‌دهندگان» توانسته است به این اطلاعات دسترسی پیدا کند. درمجموع به‌نظر می‌رسد که پیچیدگی‌های مدل‌های زبانی بزرگ فراتر از دانش توسعه‌دهندگان آن‌هاست و همان‌طور که ChatGPT بعد از چند ماه فعالیت هنوز آسیب‌پذیری‌های خاص خود را دارد، مایکروسافت هم فعلاً نمی‌تواند جلوی همه حفره‌های این هوش مصنوعی را بگیرد.

تاریخ انتشار : 1401/11/26
تعداد بازدید: 234

  • با ما در تماس باشید.

  • Follow on LinkedIn
  • Follow on Facebook
  • Follow on Twitter
  • Follow on Telegram
  • Follow on Instagram
  • phone icon021-228-520-40
  • fax icon021-228-545-85