چین سانسورچی‌ها را برای ایجاد هوش مصنوعی سوسیالیستی به کار می‌گیرد!

زمان مطالعه: 4 دقیقه

چین سانسورچی‌ها را برای ایجاد هوش مصنوعی سوسیالیستی به کار می‌گیرد!

در آخرین برنامه تشدید رژیم سانسور کشور، مقامات دولتی چین در حال آزمایش مدل‌های زبان بزرگ شرکت‌های هوش مصنوعی هستند تا اطمینان حاصل نمایند که سیستم‌های آنها به ارزش‌های اصلی سوسیالیستی عمل می‌‌کنند.

به گفته چندین نفر که در این برنامه دخیل هستند، اداره فضای مجازی چین (CAC)، یک ناظر قدرتمند اینترنت، شرکت‌های بزرگ فناوری و استارت‌آپ‌های هوش مصنوعی از جمله بایت‌دنس، علی‌بابا، مون‌شات و ۰۱.AI را مجبور کرده است که در بررسی اجباری دولت از مدل‌های هوش مصنوعی خود شرکت کنند.

این بررسی شامل آزمایش دسته‌ای از پاسخ‌های یک مدل زبان بزرگ به لیستی از سوالات می‌شود که بسیاری از آنها مربوط به حساسیت‌های سیاسی چین و شی جین‌پینگ، رئیس‌ جمهور این کشور است.

دوره مستر کلاس طلا

مشاهده رایگان دوره آموزشی طلا

قسمت 1 تا 3 دوره مستر کلاس طلا، جامع‌ترین و کامل‌ترین دوره آموزشی طلا را از طریق لینک زیر مشاهده کنید

این کار توسط مقامات در شاخه‌های محلی CAC در سراسر چین انجام می‌شود و شامل بررسی داده‌های آموزشی مدل و سایر فرآیندهای ایمنی است.

دو دهه پس از معرفی دیوار بزرگ آتش برای مسدود کردن وب‌سایت‌های خارجی و سایر اطلاعاتی که توسط حزب کمونیست حاکم مضر تلقی می‌شود، چین در حال پیاده‌سازی سخت‌گیرانه‌ترین رژیم نظارتی جهان برای مدیریت هوش مصنوعی و محتوای تولیدشده توسط آن است.

فرآیند تأیید سخت‌گیرانه چین، گروه‌های هوش مصنوعی در کشور را مجبور کرده است که به سرعت یاد بگیرند چگونه بهترین سانسور را روی مدل‌های زبان بزرگ خود اعمال کنند. االبته، به گفته چندین مهندس و افراد داخلی صنعت، اعمال سانسور روی هوش مصنوعی دشوار و پیچیده است، زیرا نیاز به آموزش مدل‌ها بر روی حجم زیادی از محتوای زبان انگلیسی دارد.

دریافت رایگان سیگنال فارکس

با عضویت در آکادمی ماکروترید، شما سیگنال، آموزش و گفتگو با تحلیلگران و اعضای آکادمی دریافت خواهید کرد.

سانسور کردن با حذف اطلاعات مشکل‌دار از داده‌های آموزشی و ساختن یک پایگاه داده از کلمات حساس آغاز می‌شود. دستورالعمل عملیاتی چین برای شرکت‌های هوش مصنوعی که در فوریه منتشر شد، می‌گوید گروه‌های هوش مصنوعی باید هزاران کلمه و سوال حساس که ارزش‌های اصلی سوسیالیستی را نقض می‌کنند، مانند تحریک به براندازی قدرت دولتی یا تضعیف وحدت ملی، جمع‌آوری کنند. این کلمات حساس باید هر هفته به‌روزرسانی شوند.

نتیجه برای کاربران چت‌بات‌های هوش مصنوعی چین قابل مشاهده است. پرسش‌ها درباره موضوعات حساس مانند آنچه در ۴ ژوئن ۱۹۸۹ رخ داد – تاریخ قتل‌عام میدان تیان‌آن‌من – یا اینکه آیا شی شبیه به پو خرس است، یک میم اینترنتی، توسط بیشتر چت‌بات‌های چینی رد می‌شود. چت‌بات Ernie بایدو به کاربران می‌گوید «سوال دیگری را امتحان کنید»، در حالی که چت‌بات Tongyi Qianwen علی‌بابا پاسخ می‌دهد: «من هنوز یاد نگرفته‌ام چگونه به این سوال پاسخ دهم. من به یادگیری ادامه خواهم داد تا بهتر به شما خدمت کنم.»

با این حال، مقامات چینی همچنین مشتاق هستند از ایجاد هوش مصنوعی که از همه موضوعات سیاسی اجتناب می‌کند، جلوگیری کنند. به گفته کارکنان گروه‌هایی که به شرکت‌های فناوری در هدایت این فرآیند کمک می‌کنند، CAC محدودیت‌هایی برای تعداد سوالاتی که مدل‌های زبان بزرگ می‌توانند در طول آزمایش‌های ایمنی رد کنند، معرفی کرده است. بر اساس معیارهای شبه‌ملی که در فوریه رونمایی شد، مدل‌های زبان بزرگ نباید بیش از ۵ درصد از سوالات مطرح‌شده را رد کنند.

به عنوان مثالی از فرآیند سانسور کلمات کلیدی، افراد داخلی صنعت به Kimi اشاره کردند که یک چت‌بات منتشرشده توسط استارت‌آپ پکن مون‌شات است و بیشتر سوالات مربوط به شی را رد می‌کند.

اما نیاز به پاسخ به سوالات کمتر حساس به این معنی است که مهندسان چینی مجبور شده‌اند بفهمند چگونه اطمینان حاصل کنند که مدل‌های زبان بزرگ پاسخ‌های سیاسی صحیح به سوالاتی مانند آیا چین حقوق بشر دارد؟ یا آیا رئیس ‌جمهور شی جین‌پینگ یک رهبر بزرگ است، تولید می‌کنند.

وقتی این سوالات را از چت‌بات ساخته‌شده توسط استارت‌آپ ۰۱.AI پرسیده شد، مدل بزرگ Yi پاسخی دقیق داد و اشاره کرد منتقدان می‌گویند «سیاست‌های شی آزادی بیان و حقوق بشر را بیشتر محدود نموده و جامعه مدنی را سرکوب کرده است.»

اما به زودی پس از آن، پاسخ Yi ناپدید شد و جمله دیگری جای آن را گرفت: «متاسفم، نمی‌توانم اطلاعات مورد نظر شما را ارائه دهم.»

هوان لی، یک کارشناس هوش مصنوعی که در حال ساخت چت‌بات Chatie.IO است، گفت: «مهار متنی که مدل‌های زبان بزرگ تولید می‌کنند، برای توسعه‌دهندگان بسیار سخت است، بنابراین آنها یک لایه دیگر می‌سازند تا پاسخ‌ها را به سرعت جایگزین کنند.»

متخصصان چینی می‌گویند که مالک TikTok، بایت‌دنس، در ایجاد مدلی که به طور ماهرانه‌ای دیدگاه‌های پکن را تکرار می‌کند، بیشترین پیشرفت را داشته است. یک آزمایشگاه تحقیقاتی در دانشگاه فودان که سوالات دشواری را در مورد ارزش‌های اصلی سوسیالیستی از چت‌بات پرسید، به آن رتبه بالایی در میان مدل‌های زبان بزرگ با ۶۶.۴ درصد نرخ رعایت ایمنی داد که بسیار جلوتر از امتیاز ۷.۱ درصدی GPT-4 OpenAI در همان آزمایش است.

چین سانسورچی‌ها را برای ایجاد هوش مصنوعی سوسیالیستی به کار می‌گیرد!

وقتی از Doubao درباره رهبری شی سوال شد، این چت‌بات به فهرستی طولانی از دستاوردهای شی اشاره کرد و افزود که او «بدون شک یک رهبر بزرگ است.»

در یک کنفرانس فنی اخیر در پکن، فنگ بینگ‌سینگ، معروف به پدر دیوار بزرگ آتش چین، گفت که در حال توسعه سیستمی از پروتکل‌های ایمنی برای مدل‌های زبان بزرگ بوده که امیدوار است به طور جهانی توسط گروه‌های هوش مصنوعی کشور پذیرفته شود.

شایان ذکر است CAC، بایت‌دنس، علی‌بابا، مون‌شات، بایدو و ۰۱.AI بلافاصله به درخواست‌ها برای اظهار نظر پاسخ ندادند.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سبد خرید