هكذا تتحكم الصين فى استخدام الأشخاص والشركات للذكاء الاصطناعى
لم يعد الذكاء الاصطناعي مجرد كلمة طنانة، بل إنه ينتشر ببطء في جميع أنحاء صناعة التكنولوجيا في جميع أنحاء العالم. على الرغم من أن فوائد الذكاء الاصطناعي ضخمة، إلا أن مخاطره ضخمة أيضًا، ولهذا السبب تخطط الصين لفرض قيود صارمة على استخدام الذكاء الاصطناعي. يمكن استخدامه، بحسب تقرير نشرته صحيفة ساوث تشاينا مورنينج بوست. وبحسب التقرير، تحاول السلطات الصينية الموازنة بين مخاطر وفوائد الذكاء الاصطناعي.
نشرت الصين مسودة مبادئ توجيهية جديدة وتريد تحسين جانبين: أولا، كيفية استخدام بيانات التدريب وما إذا كانت آمنة، وأمن نماذج اللغات الكبيرة (LLM) المستخدمة في تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Baidu. إرني بوت.
ما تريد الصين أن تفعله
تريد السلطات الصينية التأكد من أن أي بيانات تستخدم لتدريب نماذج الذكاء الاصطناعي لا يمكن ربطها بانتهاك حقوق الطبع والنشر أو انتهاك البيانات الشخصية، ويجب “معالجة” جميع التدريبات التي تقدمها دايا، وفقًا للتقرير. يجب على منشئي البيانات والمراجعين المعتمدين اجتياز فحوصات الأمان أولاً.
بمعنى آخر، يجب أن تمر البيانات أولاً عبر العين البشرية قبل أن يتم توليدها بشكل مصطنع، وأيضًا عندما يقوم المطورون ببناء شهادات الماجستير الخاصة بهم، “يجب عليهم الاعتماد على النماذج الأساسية المقدمة والمرخصة للسلطات”، ومرة أخرى سيضمن ذلك أنها هي المعرفة المؤسسية بالمعلومات التي يتم تغذيتها في هذه النماذج المستخدمة في الذكاء الاصطناعي التوليدي.
لا يوجد “محتوى غير قانوني”
تعريف الصين للمحتوى غير القانوني واسع جدًا ويتضمن معلومات حساسة سياسيًا. على سبيل المثال، تعتبر الأمور المتعلقة بتايوان محتوى غير قانوني. بالإضافة إلى ذلك، تعتبر الأخبار المزيفة أو الترويج للأساطير أو المواد الإباحية محتوى غير قانوني أيضًا.
وتريد مسودة الاقتراح حظر جميع بيانات تدريب الذكاء الاصطناعي التي تحتوي على أكثر من “5% محتوى غير قانوني” لأن هذه المعلومات ستعتبر خطيرة بموجب قوانين الأمن السيبراني الصينية. وقد قدمت الصين مسودة اقتراح وتسعى للحصول على تعليق عام بحلول 25 أكتوبر. .