دلایل انتشار اطلاعات نادرست توسط ChatGPT و مدلهای مشابه چیست؟

“`html
درخواست توضیح در مورد خطاهای رباتهای هوش مصنوعی غالباً به اشتباهات تصوری مرتبط با طرز کار این سیستمها دامن میزند. هنگامی که یک دستیار هوش مصنوعی دچار مشکل میشود، کاربران معمولاً به این سوالات میپردازند: «دلیل این خطا چیست؟» یا «چرا چنین پاسخی ارائه دادید؟»
به نقل از ایتنا، این یک واکنش طبیعی است، زیرا در هنگام بروز خطا از سوی یک انسان، میتوان به سادگی از او توضیح خواست. اما در مورد مدلهای هوش مصنوعی، این رویکرد معمولاً نتیجهبخش نیست، زیرا نشاندهنده حقیقتی عمیقتر از ماهیت این سیستمها و شیوه عملکرد آنهاست.
حال چرا ممکن است یک سیستم هوش مصنوعی اطلاعات نادرستی درباره قابلیتها و اشتباهات خود ارائه کند؟
۱. فقدان هویت پایدار
مشکل اساسی این است که هنگام ارتباط با ChatGPT، Claude، Grok یا دیگر مدلهای مشابه، شما در واقع با شخصیتی ثابت یا موجودیت خودآگاه گفتگو نمیکنید. این سیستمها در اصل، الگوریتمهایی هستند که بر اساس الگوهای استخراج شده از دادههای آموزشی، پاسخهایشان را تولید میکنند. هیچ نسخه ثابتی از ChatGPT وجود ندارد که بتوانید از آن در مورد خطاهایش سوال کنید و نه هم موجودیتی مستقل به نام Grok وجود دارد که بتواند دلایل خطاهایش را بیان کند.
در واقع، شما با سیستمی سروکار دارید که تنها متنی را به منظور تولید پاسخی منطقی بر اساس الگوهای یادگرفته شده، تولید میکند. این سیستمها فاقد خودآگاهی واقعی و یا دانش ساختاریافته درباره وجود خود هستند و نمیتوانند مانند یک انسان، عملکرد خود را تحلیل کرده یا به خاطر بسپارند.
۲. ناتوانی در خودارزیابی مناسب
مدلهای زبانی بزرگ (LLMs) که در ابزارهای هوش مصنوعی به کار میروند، به دلایل متعددی قادر به ارزیابی صحیح و دقیق امکانات خود نیستند. این مدلها:
• فاقد توانایی دروننگری در فرآیند یادگیری خود میباشند.
• به معماری داخلی خود دسترسی ندارند و نمیتوانند محدودیتهای عملکردی خود را شناسایی کنند.
• پاسخهای آنها بر اساس الگوهایی است که در دادههای آموزشی موجود است، نه بر اساس یک ارزیابی درست از مدلی که در حال حاضر با آن در تعامل هستند.
زمانی که از یک مدل هوش مصنوعی میپرسید: «چه کارهایی از عهدهات برمیآید؟» یا «چرا چنین پاسخی ارائه دادی؟»، پاسخ آن بر مبنای اطلاعات موجود در دادههای آموزشی درباره محدودیتهای هوش مصنوعی شکل میگیرد، نه بر اساس یک تحلیل حقیقی از تواناییهای خود.
۳. فقدان دسترسی به دانش پایدار
برخلاف انسانها که میتوانند دانش خود را مورد بررسی و قضاوت قرار دهند، مدلهای هوش مصنوعی از یک پایگاه دانش پیوسته و قابل جستجو محرومند. اطلاعات آنها تنها در تعامل با ورودی کاربر و بر اساس الگوهای یادگرفته شده بروز میشود.
به عبارت دیگر، یک مدل خاص میتواند بسته به چگونگی پرسش کاربر، ارزیابیهای کاملاً متفاوتی از قابلیتهای خود ارائه دهد. به عبارت دیگر، پاسخهای هوش مصنوعی درباره خود بیشتر شبیه به حدسهای مبتنی بر الگوها هستند تا توضیحات دقیق و منطقی.
سیستمهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ، در واقع برنامههایی برای تولید متن به شمار میروند و نه موجودات خودآگاه. آنها نمیتوانند عملکرد خود را بهطور واقعی تحلیل کنند یا دلایل خطاهای خود را به شکل جامع توضیح دهند. پاسخهای آنها در مورد قابلیتها و اشتباهاتشان، بیشتر بازتابی از دادههای آموزشی محسوب میشود، نه یک ارزیابی خودساخت. به همین دلیل، انتظار توضیحات شفاف و متداوم از چنین سیستمهایی نادرست خواهد بود.
“`