شباهت بیش از اندازه چت‌بات‌های هوش مصنوعی به انسان

پژوهشگران در یک مطالعه جامع نشان می‌دهند که جدیدترین نسل از چت‌بات‌های مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسان‌ها برابری می‌کنند و حتی از آنها پیشی می‌گیرند. بسیاری از پژوهش‌ها نشان می‌دهند که این چت‌بات‌ها اکنون با موفقیت انسان‌ها را فریب می‌دهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.
تصویر شباهت بیش از اندازه چت‌بات‌های هوش مصنوعی به انسان

به گزارش سایت خبری پُرسون، هیچ‌کدام از ما انتظار ورود ابرارتباط‌دهنده‌ها را نداشتیم. داستان‌های علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایش‌های جدید نشان داده‌اند که مدل‌هایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسان‌ها عمل می‌کنند. مطالعه دیگری نشان داد که مدل‌های زبانی بزرگ در ارزیابی احساسات ظریف در پیام‌های نوشته‌شده توسط انسان، عملکرد عالی دارند.

مدل‌های زبانی بزرگ در ایفای نقش ماهر هستند و طیف گسترده‌ای از شخصیت‌ها را بر عهده می‌گیرند و سبک‌های زبانی ظریف را تقلید می‌کنند. این امر با توانایی آنها در استنباط باورها و نیت‌های انسانی از متن تقویت می‌شود. مدل‌های زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.

این سامانه‌ها «عوامل انسان‌انگاری»(anthropomorphic agents) نام دارند. انسان‌انگاری به نسبت دادن ویژگی‌های انسانی به موجودات غیر انسانی اشاره دارد. مدل‌های زبانی بزرگ ویژگی‌های بسیاری را شبیه به انسان نشان می‌دهند. بنابراین، درخواست‌ها برای اجتناب از انسان‌انگاری مدل‌های زبانی بزرگ بی‌نتیجه خواهد بود.

این عوامل منجر می‌شوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چت‌بات هوش مصنوعی آنلاین را تشخیص دهید.

تشخیص هوش مصنوعی در اینترنت

مدل‌های زبانی بزرگ نوید می‌دهند که اطلاعات پیچیده را از طریق رابط‌های چت به‌طور گسترده‌تری در دسترس قرار دهند و پیام‌ها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینه‌ها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از توانایی‌های ایفای نقش می‌توان برای ایجاد معلم‌هایی استفاده کرد که سؤالات شخصی می‌پرسند و به دانش‌آموزان در یادگیری کمک می‌کنند.

در عین حال، این سامانه‌ها فریبنده‌اند. میلیون‌ها کاربر روزانه با اپلیکیشن‌های هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشن‌های همراه گفته شده است اما فریبندگی انسان‌نما پیامدهای بسیار گسترده‌تری دارد. کاربران به اندازه‌ای آماده‌اند تا به چت‌بات‌های هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش می‌کنند. این امر با ویژگی‌های بسیار متقاعدکننده چت‌بات‌ها همراه می‌شود و نگرانی‌های واقعی را پدید می‌آورد.

پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان می‌دهد که چت‌بات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکننده‌ترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چت‌بات‌های هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسان‌ها عمل کنند.

این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیک‌های مؤثر فروش باز می‌کند. چه چیزی می‌تواند مؤثرتر از یک همراه مورد اعتماد باشد که به‌طور اتفاقی محصولی را در جریان مکالمه توصیه می‌کند؟

«چت‌جی‌پی‌تی»(ChatGPT) در حال حاضر ارائه توصیه‌های محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه‌ محصول در مکالمات است.

راه حل

اولین قدم، افزایش آگاهی درباره این توانایی‌هاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم می‌کند. در هر حال، این موضوع با توجه به ویژگی‌های فریبنده مدل‌های زبانی بزرگ کافی نخواهد بود.

دومین قدم، درک بهتر ویژگی‌های انسان‌نماست. آزمایش‌ مدل‌های زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کرده‌اند اما هیچ‌کدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار نداده‌اند. با آزمایشی مانند این می‌توان از شرکت‌های هوش مصنوعی خواست تا توانایی‌های انسان‌نما را با یک سامانه رتبه‌بندی افشا کنند و قانون‌گذاران می‌توانند سطوح قابل قبولی از خطر را برای زمینه‌ها و گروه‌های سنی خاص تعیین کنند.

اگر دولت‌ها یک رویکرد غیر مداخله‌گرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که می‌خواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکت‌های هوش مصنوعی برای خودداری از انسانی‌تر کردن این سامانه‌ها، غیرمنطقی به نظر می‌رسد. همه تحولات در جهت مخالف هستند.

شرکت «اوپن ای‌آی»(OpenAI) در تلاش است تا سامانه‌های خود را جذاب‌تر و شخصی‌تر کند و این توانایی را به کاربران بدهد که نسخه چت‌جی‌پی‌تی خود را دارای یک شخصیت خاص کنند. چت‌جی‌پی‌تی به طور کلی پرحرف‌تر شده است، اغلب سؤالات پیگیرانه می‌پرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.

کارهای خوبی را می‌توان با عوامل انسان‌نما انجام داد. از توانایی‌های متقاعدکننده آنها می‌توان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی می‌تواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.

این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.

منبع: ایسنا

966090

سازمان آگهی های پرسون