به گزارش سایت خبری پرسون، پس از مشاهده تقاضای زیاد در روزهای آغازین راه اندازی GPT Chat، اکنون استفاده از آن با کاهش ۱۰ درصدی نسبت به ماه گذشته مواجه شده و همچنین میزان دانلودهای این برنامه کاهش یافته است.
کاربرانی که برای دسترسی به مدل قویتر GPT Chat یعنی مدل GPT Chat Plus هزینه پرداخت میکنند، در رسانههای اجتماعی و انجمنهای خصوصی OpenAI از کیفیت پایین خروجی این چت بات شکایت کرده اند.
کاربران اتفاق نظر دارند که GPT-۴ قادر به تولید خروجی سریعتر، اما با سطح کیفیت پایینتر است. پیتر یانگ، رئیس شرکت تولیدی Roblox، در توییتر از عملکرد GPT Chat انتقاد و ادعا کرد که کیفیت آن بدتر شده است. یکی دیگر از کاربران گفت که جدیدترین تجربه GPT-۴ مانند رانندگی با یک فراری برای یک ماه و سپس تبدیل شدن ناگهانی آن به یک پیکاپ قدیمی است.
برخی از کاربران حتی خشنتر بودهاند و GPT Chat را احمق و تنبل خواندند. به گفته کاربران، چند هفته پیش عملکرد GPT-۴ به طور قابل توجهی سریعتر شد، اما این سرعت به قیمت کاهش کیفیت عملکرد بود. جامعه هوش مصنوعی حدس میزند که این ممکن است به دلیل تغییر در اخلاق طراحی OpenAI و تقسیم آن به چندین مدل کوچکتر آموزشدیده در حوزههای خاص باشد که میتوانند در کنار هم برای ارائه همان نتیجه نهایی کار کنند.
شرکت OpenAI هنوز به طور رسمی این مورد را تایید نکرده و هیچ اشارهای به چنین تغییر عمدهای در نحوه عملکرد GPT-۴ نشده است. اما به گفته کارشناسان مانند شارون ژو، مدیر عامل سازنده هوش مصنوعی Lamini، که ایده چند پارادایم را "گام بعدی طبیعی" در توسعه GPT-۴ نامید، این یک توضیح معتبر است.
مشکل مبرم دیگری در GPT Chat وجود دارد که برخی از کاربران گمان میکنند ممکن است علت افت اخیر عملکرد آن باشد و به نظر میرسد صنعت هوش مصنوعی تا حد زیادی تمایلی به رسیدگی به آن ندارد؛ و آن اصطلاح «خودکار عمل کردن در استفاده از هوش مصنوعی» است؛ به این معنی که مدلهای بزرگ زبان (LLM) مانند ChatGPT و Google Bard دادههای عمومی را خلاصه میکنند تا هنگام تولید پاسخها از آن استفاده کنند.
این خطر ایجاد یک حلقه بازخورد را به همراه دارد که به موجب آن مدلهای هوش مصنوعی از محتوای تولید شده توسط آن یاد میگیرند و منجر به کاهش تدریجی انسجام و کیفیت خروجی میشود. با وجود تعداد زیادی LLM که هم اکنون هم برای متخصصان و هم برای عموم مردم در دسترس است، خطر جذب هوش مصنوعی به طور فزایندهای رایج میشود؛ به ویژه آنکه هنوز هیچ نمایش مفیدی وجود ندارد که چگونه مدلهای هوش مصنوعی میتوانند به طور دقیق بین اطلاعات واقعی و محتوای تولید شده توسط این فناوری تمایز قائل شوند.
منبع: 24.ae