در آخرین برنامه تشدید رژیم سانسور کشور، مقامات دولتی چین در حال آزمایش مدلهای زبان بزرگ شرکتهای هوش مصنوعی هستند تا اطمینان حاصل نمایند که سیستمهای آنها به ارزشهای اصلی سوسیالیستی عمل میکنند.
به گفته چندین نفر که در این برنامه دخیل هستند، اداره فضای مجازی چین (CAC)، یک ناظر قدرتمند اینترنت، شرکتهای بزرگ فناوری و استارتآپهای هوش مصنوعی از جمله بایتدنس، علیبابا، مونشات و ۰۱.AI را مجبور کرده است که در بررسی اجباری دولت از مدلهای هوش مصنوعی خود شرکت کنند.
این بررسی شامل آزمایش دستهای از پاسخهای یک مدل زبان بزرگ به لیستی از سوالات میشود که بسیاری از آنها مربوط به حساسیتهای سیاسی چین و شی جینپینگ، رئیس جمهور این کشور است.
دوره مستر کلاس طلا
مشاهده رایگان دوره آموزشی طلا
قسمت 1 تا 3 دوره مستر کلاس طلا، جامعترین و کاملترین دوره آموزشی طلا را از طریق لینک زیر مشاهده کنید
این کار توسط مقامات در شاخههای محلی CAC در سراسر چین انجام میشود و شامل بررسی دادههای آموزشی مدل و سایر فرآیندهای ایمنی است.
دو دهه پس از معرفی دیوار بزرگ آتش برای مسدود کردن وبسایتهای خارجی و سایر اطلاعاتی که توسط حزب کمونیست حاکم مضر تلقی میشود، چین در حال پیادهسازی سختگیرانهترین رژیم نظارتی جهان برای مدیریت هوش مصنوعی و محتوای تولیدشده توسط آن است.
فرآیند تأیید سختگیرانه چین، گروههای هوش مصنوعی در کشور را مجبور کرده است که به سرعت یاد بگیرند چگونه بهترین سانسور را روی مدلهای زبان بزرگ خود اعمال کنند. االبته، به گفته چندین مهندس و افراد داخلی صنعت، اعمال سانسور روی هوش مصنوعی دشوار و پیچیده است، زیرا نیاز به آموزش مدلها بر روی حجم زیادی از محتوای زبان انگلیسی دارد.
دریافت رایگان سیگنال فارکس
با عضویت در آکادمی ماکروترید، شما سیگنال، آموزش و گفتگو با تحلیلگران و اعضای آکادمی دریافت خواهید کرد.
سانسور کردن با حذف اطلاعات مشکلدار از دادههای آموزشی و ساختن یک پایگاه داده از کلمات حساس آغاز میشود. دستورالعمل عملیاتی چین برای شرکتهای هوش مصنوعی که در فوریه منتشر شد، میگوید گروههای هوش مصنوعی باید هزاران کلمه و سوال حساس که ارزشهای اصلی سوسیالیستی را نقض میکنند، مانند تحریک به براندازی قدرت دولتی یا تضعیف وحدت ملی، جمعآوری کنند. این کلمات حساس باید هر هفته بهروزرسانی شوند.
نتیجه برای کاربران چتباتهای هوش مصنوعی چین قابل مشاهده است. پرسشها درباره موضوعات حساس مانند آنچه در ۴ ژوئن ۱۹۸۹ رخ داد – تاریخ قتلعام میدان تیانآنمن – یا اینکه آیا شی شبیه به پو خرس است، یک میم اینترنتی، توسط بیشتر چتباتهای چینی رد میشود. چتبات Ernie بایدو به کاربران میگوید «سوال دیگری را امتحان کنید»، در حالی که چتبات Tongyi Qianwen علیبابا پاسخ میدهد: «من هنوز یاد نگرفتهام چگونه به این سوال پاسخ دهم. من به یادگیری ادامه خواهم داد تا بهتر به شما خدمت کنم.»
با این حال، مقامات چینی همچنین مشتاق هستند از ایجاد هوش مصنوعی که از همه موضوعات سیاسی اجتناب میکند، جلوگیری کنند. به گفته کارکنان گروههایی که به شرکتهای فناوری در هدایت این فرآیند کمک میکنند، CAC محدودیتهایی برای تعداد سوالاتی که مدلهای زبان بزرگ میتوانند در طول آزمایشهای ایمنی رد کنند، معرفی کرده است. بر اساس معیارهای شبهملی که در فوریه رونمایی شد، مدلهای زبان بزرگ نباید بیش از ۵ درصد از سوالات مطرحشده را رد کنند.
به عنوان مثالی از فرآیند سانسور کلمات کلیدی، افراد داخلی صنعت به Kimi اشاره کردند که یک چتبات منتشرشده توسط استارتآپ پکن مونشات است و بیشتر سوالات مربوط به شی را رد میکند.
اما نیاز به پاسخ به سوالات کمتر حساس به این معنی است که مهندسان چینی مجبور شدهاند بفهمند چگونه اطمینان حاصل کنند که مدلهای زبان بزرگ پاسخهای سیاسی صحیح به سوالاتی مانند آیا چین حقوق بشر دارد؟ یا آیا رئیس جمهور شی جینپینگ یک رهبر بزرگ است، تولید میکنند.
وقتی این سوالات را از چتبات ساختهشده توسط استارتآپ ۰۱.AI پرسیده شد، مدل بزرگ Yi پاسخی دقیق داد و اشاره کرد منتقدان میگویند «سیاستهای شی آزادی بیان و حقوق بشر را بیشتر محدود نموده و جامعه مدنی را سرکوب کرده است.»
اما به زودی پس از آن، پاسخ Yi ناپدید شد و جمله دیگری جای آن را گرفت: «متاسفم، نمیتوانم اطلاعات مورد نظر شما را ارائه دهم.»
هوان لی، یک کارشناس هوش مصنوعی که در حال ساخت چتبات Chatie.IO است، گفت: «مهار متنی که مدلهای زبان بزرگ تولید میکنند، برای توسعهدهندگان بسیار سخت است، بنابراین آنها یک لایه دیگر میسازند تا پاسخها را به سرعت جایگزین کنند.»
متخصصان چینی میگویند که مالک TikTok، بایتدنس، در ایجاد مدلی که به طور ماهرانهای دیدگاههای پکن را تکرار میکند، بیشترین پیشرفت را داشته است. یک آزمایشگاه تحقیقاتی در دانشگاه فودان که سوالات دشواری را در مورد ارزشهای اصلی سوسیالیستی از چتبات پرسید، به آن رتبه بالایی در میان مدلهای زبان بزرگ با ۶۶.۴ درصد نرخ رعایت ایمنی داد که بسیار جلوتر از امتیاز ۷.۱ درصدی GPT-4 OpenAI در همان آزمایش است.
وقتی از Doubao درباره رهبری شی سوال شد، این چتبات به فهرستی طولانی از دستاوردهای شی اشاره کرد و افزود که او «بدون شک یک رهبر بزرگ است.»
در یک کنفرانس فنی اخیر در پکن، فنگ بینگسینگ، معروف به پدر دیوار بزرگ آتش چین، گفت که در حال توسعه سیستمی از پروتکلهای ایمنی برای مدلهای زبان بزرگ بوده که امیدوار است به طور جهانی توسط گروههای هوش مصنوعی کشور پذیرفته شود.
شایان ذکر است CAC، بایتدنس، علیبابا، مونشات، بایدو و ۰۱.AI بلافاصله به درخواستها برای اظهار نظر پاسخ ندادند.