هوش مصنوعی ابری گفتگوهای نگرانکننده را متوقف میسازد

ویژگی جدید شرکت «آنتروپیک» برای مدل هوش مصنوعی «کلود» ممکن است به نوعی به پایان دستکاری هوش مصنوعی منجر شود، زیرا این شرکت در مطلبی که در وبسایت خود منتشر کرده، اعلام کرد که مدلهای «Claude Opus 4» و «4.1 Claude Opus» اکنون توانایی قطع مکالمه با کاربران را دارا هستند.
به نقل از آنتروپیک، این قابلیت تنها در موقعیتهای نادر و جدی که تعاملات کاربر بهطور مداوم مضر یا توهینآمیز باشد، به کار گرفته خواهد شد.
بر اساس گزارش انگجت، آنتروپیک توضیح داد که این دو مدل «کلود» میتوانند از تعاملات زیانبار، شامل درخواستهای نامناسب کاربران برای محتوای جنسی مربوط به افراد زیر سن قانونی و همچنین درخواستهایی که ممکن است به خشونت یا اقدامات تروریستی در مقیاس وسیع منجر شود، خارج شوند.
طبق گفتههای آنتروپیک، این مدلها تنها در صورتی مکالمه را قطع میکنند که بهعنوان آخرین راهکار، تلاشهای مکرر برای تغییر موضوع بی نتیجه مانده و امید به وجود یک تعامل سازنده از بین رفته باشد.
با این حال، آنتروپیک اظهار میدارد که اکثریت کاربران حتی در صورت بحث در مورد موضوعات چالشی، تجربهای از قطع مکالمه توسط «کلود» نخواهند داشت، زیرا این ویژگی مخصوص «موارد بسیار حساس» طراحی شده است.
لازم به ذکر است که در شرایطی که «کلود» یک چت را به پایان میرساند، دیگر کاربران قادر نخواهند بود پیامهای جدیدی در آن مکالمه ارسال کنند، اما میتوانند بلافاصله یک مکالمه جدید آغاز نمایند.
آنتروپیک همچنین تصریح کرد که پایان یک مکالمه تأثیری بر سایر چتها نخواهد داشت و کاربران میتوانند به عقب بازگردند و پیامهای پیشین را ویرایش یا دوباره امتحان کنند تا به سمت یک مسیر مکالمه جدید سوق داده شوند.
این اقدام جزئی از تحقیقات آنتروپیک است که به بررسی مفهوم رفاه هوش مصنوعی میپردازد. در حالی که انسانانگاری مدلهای هوش مصنوعی همچنان موضوعی قابل بحث است، این شرکت خاطرنشان کرد که توانایی خروج از تعاملات ناخوشایند، رویکردی اقتصادی برای مدیریت تهدیدات به رفاه هوش مصنوعی به حساب میآید.
قابل ذکر است که آنتروپیک هنوز در حال آزمایش این ویژگی است و از کاربران خود میخواهد که بازخورد خود را در صورت مواجهه با چنین سناریوهایی ارائه دهند.