وقتی هوش ‌مصنوعی ترسناک می شود!

تأثیر ربات‌چت GPT-4 در زندگی روزمره مردم به قدری بوده که مقامات کشورهای مختلف را به واکنش علیه آن وا داشته است.
تصویر وقتی هوش ‌مصنوعی ترسناک می شود!

به گزارش سایت خبری پرسون، حتی کارشناسان برجسته هوش مصنوعی، کارآفرینان فناوری و دانشمندان نیز با امضای نامه‌ای سرگشاده، خواستار توقف توسعه و آزمایش فناوری‌های هوش مصنوعی قدرتمندتر از مدل زبان OpenAI GPT-4 شدند تا خطرات احتمالی آن به درستی مورد مطالعه قرار گیرد. اقدام یک مرد بلژیکی که پس از ۶ هفته چت با این فناوری دست به ‌خودکشی زد نیز مزید بر علت شده است تا بیشتر روی این فناوری نو ظهور بحث شود.

هشدار برای جایگزینی ربات با انسان
متخصصان در نامه خود هشدار داده‌اند که مدل‌های زبانی مانند GPT-4 می‌توانند در زمینه طیف رو به رشدی از وظایف با انسان‌ها رقابت کنند و باعث جایگزین شدن روبات به ‌جای انسان و انتشار اطلاعات نادرست شوند. این نامه همچنین دورنمای سیستم‌های هوش مصنوعی را که می‌توانند جایگزین انسان‌ها و بازسازی تمدن شوند، مطرح می‌کند: ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 (از جمله GPT-5 را که در حال حاضر در حال آموزش است) به‌مدت حداقل ۶‌ ماه متوقف کنند. در این نامه که به امضای یوشا بنجیو یکی از استادان دانشگاه مونترال و یکی از پیشگامان هوش مصنوعی مدرن، یووال نوح هراری مورخ، جان تالین یکی از بنیانگذاران اسکایپ و ایلان ماسک مدیرعامل توییتر رسیده و توسط مؤسسه Future of Life نوشته شده، آمده است؛ این توقف باید عمومی و قابل‌تأیید باشد و باید همه کسانی را که روی مدل‌های هوش مصنوعی پیشرفته مانند GPT-4 کار می‌کنند، درگیر کند. البته نمی‌توان توقف توسعه را تأیید کرد و به همین منظور دولت‌ها باید وارد عمل شوند و یک تعلیق وضع کنند، چیزی که بعید به‌نظر می‌رسد ظرف ۶‌ماه اتفاق بیفتد.

سکوت عجیب
مایکروسافت و گوگل به درخواست‌ها برای اظهارنظر در مورد این نامه پاسخ ندادند. امضاکنندگان آن ظاهرا شامل افرادی از شرکت‌های فناوری متعددی هستند که در حال ساخت مدل‌های زبان پیشرفته هستند؛ ازجمله مایکروسافت و گوگل. هانا وونگ، سخنگوی شرکت OpenAI، سازنده این ربات‌چت، می‌گوید که این شرکت پس از آموزش این مدل، بیش از ۶‌ماه روی ایمنی و تراز GPT-4 کار کرده است. او اضافه می‌کند که OpenAI در حال حاضر GPT-5 را آموزش نمی‌دهد. این نامه در حالی منتشر شده است که سیستم‌های هوش مصنوعی جهش‌های جسورانه و چشمگیری دارند. GPT-4 تنها ۲۰ روز پیش معرفی شد، اما قابلیت‌های آن شور و شوق قابل توجهی را برانگیخته و البته نگرانی‌های زیادی را هم به دنبال داشته است.

ممنوعیت در ایتالیا
ایتالیا نخستین کشور غربی است که چت‌بات پیشرفته ChatGPT را مسدود می‌کند. مقام‌مسئول حفاظت از داده‌ها در ایتالیا اعلام کرد که نگرانی‌هایی درخصوص حفظ حریم خصوصی در رابطه با این مدل وجود دارد که توسط استارت‌آپ آمریکایی OpenAI ایجاد شده و توسط مایکروسافت پشتیبانی می‌شود. این سازمان تنظیم‌کننده گفت که OpenAI را خیلی فوری ممنوع و بررسی خواهد کرد. با این حال OpenAI به بی‌بی‌سی گفت که از قوانین حفظ حریم خصوصی پیروی می‌کند.
این در حالی است که روبات‌چت Bard که ساخته شرکت گوگل است، همچنان در دسترس است، اما به‌دلیل وجود نگرانی‌هایی که برای ChatGPTوجود داشت، بارد فقط برای کاربران خاص بالای ۱۸ سال قابل اجراست. مقام حفاظت از اطلاعات ایتالیا گفت OpenAI در واقع ۲۰ روز فرصت دارد تا برنامه‌های خود را درباره رسیدگی به نگرانی‌های این سازمان بیان کند. در ایرلند نیز کمیسیون حفاظت از داده‌های این کشور گفت در حال پیگیری با تنظیم‌کننده ایتالیایی است تا مبنای اقدام آنها را درک کند و با تمام مقامات حفاظت از داده اتحادیه اروپا در ارتباط با این ممنوعیت هماهنگ خواهد شد. دفتر کمیسر اطلاعات، تنظیم‌کننده مستقل داده‌های بریتانیا گفت که از پیشرفت‌های هوش مصنوعی حمایت می‌کند، اما آماده است تا عدم‌انطباق با قوانین حفاظت از داده‌ها را به چالش بکشد.
گروه حمایت از مصرف‌کننده BEUC همچنین از مقامات اتحادیه اروپا و ناظران حفاظت از داده‌ها درخواست کرد تا به‌دنبال شکایت در ایالات متحده آمریکا، ChatGPT و چت روبات‌های مشابه را بررسی کنند. اگرچه اتحادیه اروپا در حال حاضر روی نخستین قانون جهان در مورد هوش مصنوعی کار می‌کند، نگرانی BEUC این است که اجرایی شدن قوانین برای هوش مصنوعی احتمالا سال‌ها طول می‌کشد و مصرف‌کنندگان را در معرض خطر آسیب ناشی از فناوری که به اندازه کافی تنظیم نشده است، قرار می‌دهد.
طبق گزارش‌ها، یک مرد بلژیکی پس از ۶هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با این روبات هم وضعیت روحی مناسبی نداشته است، اما آنقدر بدحال نبوده که دست به ‌خودکشی بزند.

479183

سازمان آگهی های پرسون