هوش مصنوعی ابری گفتگوهای نگران‌کننده را متوقف می‌سازد


ویژگی جدید شرکت «آنتروپیک» برای مدل هوش مصنوعی «کلود» ممکن است به نوعی به پایان دستکاری هوش مصنوعی منجر شود، زیرا این شرکت در مطلبی که در وب‌سایت خود منتشر کرده، اعلام کرد که مدل‌های «Claude Opus 4» و «4.1 Claude Opus» اکنون توانایی قطع مکالمه با کاربران را دارا هستند.

به نقل از آنتروپیک، این قابلیت تنها در موقعیت‌های نادر و جدی که تعاملات کاربر به‌طور مداوم مضر یا توهین‌آمیز باشد، به کار گرفته خواهد شد.

بر اساس گزارش انگجت، آنتروپیک توضیح داد که این دو مدل «کلود» می‌توانند از تعاملات زیانبار، شامل درخواست‌های نامناسب کاربران برای محتوای جنسی مربوط به افراد زیر سن قانونی و همچنین درخواست‌هایی که ممکن است به خشونت یا اقدامات تروریستی در مقیاس وسیع منجر شود، خارج شوند.

طبق گفته‌های آنتروپیک، این مدل‌ها تنها در صورتی مکالمه را قطع می‌کنند که به‌عنوان آخرین راهکار، تلاش‌های مکرر برای تغییر موضوع بی نتیجه مانده و امید به وجود یک تعامل سازنده از بین رفته باشد.

با این حال، آنتروپیک اظهار می‌دارد که اکثریت کاربران حتی در صورت بحث در مورد موضوعات چالشی، تجربه‌ای از قطع مکالمه توسط «کلود» نخواهند داشت، زیرا این ویژگی مخصوص «موارد بسیار حساس» طراحی شده است.

لازم به ذکر است که در شرایطی که «کلود» یک چت را به پایان می‌رساند، دیگر کاربران قادر نخواهند بود پیام‌های جدیدی در آن مکالمه ارسال کنند، اما می‌توانند بلافاصله یک مکالمه جدید آغاز نمایند.

آنتروپیک همچنین تصریح کرد که پایان یک مکالمه تأثیری بر سایر چت‌ها نخواهد داشت و کاربران می‌توانند به عقب بازگردند و پیام‌های پیشین را ویرایش یا دوباره امتحان کنند تا به سمت یک مسیر مکالمه جدید سوق داده شوند.

این اقدام جزئی از تحقیقات آنتروپیک است که به بررسی مفهوم رفاه هوش مصنوعی می‌پردازد. در حالی که انسان‌انگاری مدل‌های هوش مصنوعی همچنان موضوعی قابل بحث است، این شرکت خاطرنشان کرد که توانایی خروج از تعاملات ناخوشایند، رویکردی اقتصادی برای مدیریت تهدیدات به رفاه هوش مصنوعی به حساب می‌آید.

قابل ذکر است که آنتروپیک هنوز در حال آزمایش این ویژگی است و از کاربران خود می‌خواهد که بازخورد خود را در صورت مواجهه با چنین سناریوهایی ارائه دهند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا