أقدمت السلطات الصينية على خطوة تنظيمية جديدة تعكس تشددها المتزايد في التعامل مع خدمات الذكاء الاصطناعي الموجهة للجمهور، وذلك عبر نشر مسودة قواعد تهدف إلى فرض رقابة صارمة على التطبيقات القادرة على محاكاة الشخصيات البشرية والتفاعل العاطفي مع المستخدمين. هذه الخطوة تأتي في سياق مساعٍ أوسع للحد من الآثار الاجتماعية والنفسية للتقنيات الرقمية المتقدمة، مع الحفاظ على السيطرة الحكومية على الفضاء الإلكتروني.
وتستهدف القواعد المقترحة مختلف منتجات وخدمات الذكاء الاصطناعي التي تُظهر سمات بشرية في التفكير أو التواصل، سواء عبر النصوص أو الصور أو الصوت أو الفيديو. وتشدد المسودة على ضرورة تنبيه المستخدمين من مخاطر الإفراط في الاستخدام، مع إلزام مزودي الخدمات بالتدخل عند ظهور مؤشرات على الاعتماد المفرط أو الإدمان، في مقاربة تعكس قلق السلطات من تحوّل هذه التقنيات إلى بدائل اجتماعية أو عاطفية.
كما تضع القواعد المقترحة مسؤولية السلامة على عاتق الشركات المطوِّرة طوال دورة حياة المنتج، بما يشمل مراجعة الخوارزميات، وتأمين البيانات، وحماية المعلومات الشخصية. ويمتد الإطار التنظيمي ليشمل المحتوى نفسه، حيث تُرسم خطوط حمراء واضحة تمنع إنتاج أو نشر أي محتوى قد يهدد الأمن القومي، أو يروّج للشائعات، أو يتضمن عنفًا أو مواد فاحشة.
وتؤشر هذه الخطوة إلى توجه صيني يسعى إلى موازنة الابتكار التكنولوجي بالضبط الأخلاقي والقانوني، في وقت تتسارع فيه قدرات الذكاء الاصطناعي بوتيرة تجعل الرقابة تلهث أحيانًا خلف الخوارزميات.
المصدر: رويترز.
