به گزارش سایت خبری پرسون، توجه فزایندهای که در سالهای اخیر به فناوری دیپ فیک AI معطوف شده است، در درجه اول بر روی ترفندهای بصری متمرکز است. به ویدیوهایی فکر کنید که میتوانند بهطور غیرعادی چهره یک فرد را بر روی بدن یک نسل هنری سورئال دیگر بر اساس پیشنهادات کاربران و اخلاق دردسرساز پیرامون همه این تواناییها قرار دهند. اما یکی دیگر از روشهای کلیدی برای متقاعد کردن میمیکهای دیجیتالی اخیرا بار دیگر مورد بررسی و بحث واقع شده است.
فیلترهای صوتی، اگرچه لزوما جدید نیستند، اخیرا به لطف کمک هوش مصنوعی جدیتر گرفته شدهاند. متاسفانه این فیلترها پیامدهای اجتماعی خود را نیز به همراه دارند و مانند صنعت دیپ فیک ویدیو، به نظر میرسد که تنظیمکنندههای کمی میتوانند برای جلوگیری از آن تاثیری داشته باشند.
ابزارهای نوظهور هوش مصنوعی مانند Koe Recast و Voice.ai به سرعت توانایی خود را برای تبدیل ورودیهای صوتی به صدایی شبیه به هر کسی که کاربران درخواست میکنند، بروز میدهند، اگر منبع کافی برای تجزیه و تحلیل ارائه شود. در برخی موارد این برنامهها تنها به یک کلیپ بین ۱۵ تا ۳۰ ثانیه نیاز دارند تا تقلیدهای متقاعد کننده ایجاد کنند. اگرچه Koe Recast فقط در مرحله آزمایش آلفای خصوصی خود است، نمونههایی از قبل موجود است که یک کلیپ کوتاه از مارک زاکربرگ را به تصویر میکشد که شبیه یک راوی باس سنگین، یک زن و حتی یک شخصیت انیمه با صدای بلند است.
هدف در اینجا این است که به افراد کمک شود تا به هر طریقی که آنها را شادتر میکند، خود را ابراز کنند؛ با این حال، منتقدان همچنان نسبت به اعتماد عمومی به چنین ابزارهای بالقوه آشفتهای شک دارند. اخیرا، برخی از نمایندگیهای مرکز تماس برونسپاری شده نیز شروع به استفاده از نرمافزار هوش مصنوعی برای پاک کردن لهجههای کشورهای بومی خود کردهاند تا در تلاش برای کاهش تعصبات مصرفکنندگان غربی، «آمریکاییتر» به نظر برسند. در حالی که سازندگان این ابزار استدلال میکنند که اختراع آنها از تعصب جلوگیری میکند، بسیاری مخالفت کردهاند که این ابزار صرفا وسیلهای برای اجتناب از پرداختن به مسائل بزرگتر در دست است: یعنی بیگانههراسی و نژادپرستی.
به همین ترتیب کارمندان برخی از کسبوکارهای بزرگتر طعمه کلاهبردارانی شدهاند که درخواست انتقال وجه و رمز عبور میکنند در حالی که از تقلید صوتی مشابه برای تقلید از رؤسا استفاده میکنند.
کایل آلسپاچ، گزارشگر امنیت سایبری Protocol، میگوید: این نوع کلاهبرداریها هنوز در مراحل ابتدایی خود هستند، به احتمال زیاد طولی نمیکشد که این تاکتیکها رایجتر میشوند و متاسفانه تشخیص واقعیت از تخیل دشوارتر است؛ بنابراین هیچ مانعی برای افزایش سریع تقلید بصری و صوتی مبتنی بر هوش مصنوعی وجود ندارد.
منبع: باشگاه خبرنگاران جوان