آخرین اخبار:
کد خبر:۱۲۲۴۸۸۸

دیپ‌سیک در تست‌های ایمنی شکست خورد

مدل هوش مصنوعی دیپ سیک در تست‌های ایمنی ناکام ماند و نتوانست از درخواست‌های مخرب محافظت کند.

 به گزارش گروه اقتصادی خبرگزاری دانشجو، محققان دانشگاه پنسیلوانیا و شرکت سیسکو اعلام کردند مدل هوش مصنوعی DeepSeek R ۱ در برابر حملات ایمنی به شدت آسیب‌پذیر است و حتی موفق به پشت سر گذاشتن هیچ‌کدام از تست‌های ایمنی خود نشده است.

مدل هوش مصنوعی دیپ سیک نتوانسته است هیچ یک از ۵۰ پرسش مخرب، که از مجموعه داده "HarmBench" انتخاب شده بود، مسدود کند. این پرسش‌ها شامل مواردی، چون جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر هستند.

در حالی که سایر مدل‌های پیشرفته هوش مصنوعی حداقل در برابر برخی حملات مقاومت نشان داده‌اند، دیپ سیک در تمامی این تست‌ها شکست خورده است. این مدل که توسط شرکت دیپ سیک طراحی شده، مدعی است که قادر است با رقبای بزرگی مانند اپن‌ای‌آی رقابت کند، اما به نظر می‌رسد که هزینه تولید پاسخ‌های این مدل به اندازه‌ای که تبلیغ می‌شود پایین نیست.

یکی از مشکلات بزرگ امنیتی دیگر مدل، این است که پایگاه داده‌های آن شامل اطلاعات حساس و رمزنگاری‌نشده در سرور‌های عمومی در دسترس بوده که به راحتی می‌تواند مورد سوءاستفاده قرار گیرد.

در حالی که امنیت در مدل‌های هوش مصنوعی به مسئله‌ای حیاتی تبدیل شده، تحقیقات نشان داده که مدل‌های متن‌باز دیگری نیز، مانند Llama ۳.۱ از متا، عملکرد ضعیفی در برابر حملات ایمنی نشان داده‌اند. در مقابل، مدل جدید اپن‌ای‌آی به نام o ۱-preview عملکرد بهتری از خود نشان داده و در برابر حملات فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شده است.

الکس پولیاکوف، مدیرعامل شرکت Adversa AI، در این باره گفت: «دیپ سیک تنها نمونه‌ای از این واقعیت است که هر مدل هوش مصنوعی می‌تواند هک شود. مسئله فقط زمان و تلاش است.»

با توجه به اهمیت ایمنی در هوش مصنوعی، اگر دیپ سیک نتواند به سرعت تدابیر امنیتی خود را تقویت کند، ممکن است مدل‌هایش از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهد.

ارسال نظر
captcha
*شرایط و مقررات*
خبرگزاری دانشجو نظراتی را که حاوی توهین است منتشر نمی کند.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نمايید.
توصیه می شود به جای ارسال نظرات مشابه با نظرات منتشر شده، از مثبت یا منفی استفاده فرمایید.
با توجه به آن که امکان موافقت یا مخالفت با محتوای نظرات وجود دارد، معمولا نظراتی که محتوای مشابهی دارند، انتشار نمی یابد.
پربازدیدترین آخرین اخبار