خانه » گروه Anthropic قابلیت جدیدی برای Claude معرفی کرد: پایان خودکار مکالمات برای جلوگیری از سوءاستفاده!

گروه Anthropic قابلیت جدیدی برای Claude معرفی کرد: پایان خودکار مکالمات برای جلوگیری از سوءاستفاده!

توسط Vulnerbyt_News
26 بازدید
Anthropic: Claude can now end conversations to prevent harmful uses گروه والنربایت vulnerbyte

Anthropic رقیب OpenAI، اعلام کرده که Claude با یک ویژگی جدید و نادر به‌روزرسانی شده که به این مدل هوش مصنوعی امکان می‌دهد گفت‌وگوهایی را که مضر تشخیص می‌دهد، پایان دهد.

این ویژگی تنها برای مدل‌های Claude Opus 4 و Claude Opus 4.1، قدرتمندترین مدل‌های موجود در طرح‌های پولی و API، اعمال می‌شود. در مقابل، Claude Sonnet 4، که پراستفاده‌ترین مدل این شرکت است، این قابلیت را دریافت نخواهد کرد. Anthropic این اقدام را به‌عنوان بخشی از «رفاه مدل» توصیف کرده است. در آزمایش‌های پیش از عرضه Claude Opus 4، این شرکت یک ارزیابی اولیه برای رفاه مدل انجام داد و دریافت که Claude به‌طور مداوم از محتوای مضر اجتناب می‌کند.

Claude قصد ندارد گفت‌وگوها را به‌دلیل ناتوانی در پاسخ‌گویی به پرس‌وجوها پایان دهد. پایان دادن به گفت‌وگو تنها به‌عنوان آخرین راهکار استفاده می‌شود، زمانی که تلاش‌های Claude برای هدایت کاربران به منابع مفید ناموفق بوده و ادامه گفت‌وگو بی‌فایده یا مضر باشد. این شرکت تأکید کرده که این سناریوها موارد بسیار نادری هستند و اکثریت کاربران در استفاده عادی، حتی هنگام بحث درباره موضوعات بسیار بحث‌برانگیز، متوجه این ویژگی نخواهند شد یا تحت تأثیر آن قرار نخواهند گرفت.

کاربران همچنین می‌توانند به‌صورت صریح از Claude بخواهند که گفت‌وگو را با استفاده از ابزار end_conversation پایان دهد. این ویژگی در حال حاضر در حال عرضه است.

Anthropic: Claude can now end conversations to prevent harmful uses گروه والنربایت vulnerbyte
نمونه درخواست از Claudeبرای پایان دادن گفت‌و‌گو
منابع:

همچنین ممکن است دوست داشته باشید

پیام بگذارید