ذكاء اصطناعي

الصين تفرض قيودًا جديدة على الذكاء الاصطناعي الذي يقلّد البشر

Abdelrahman Amr
Abdelrahman Amr

2 د

قررت الصين وضع لوائح جديدة لتنظيم الشخصيات الرقمية وتوازن الابتكار بالقيم.

تشدد المسودة على تجسيد "القيم الاشتراكية الجوهرية" في التفاعلات الرقمية.

تُلزم القواعد المطورين بالإفصاح عن هوية الشخصية وحماية الخصوصية بشكل أكبر.

تمنع التصميمات "الإدمانية" وتُحول الحالات النفسية الخطرة إلى تدخل بشري.

تقترح المسودة تنبيهات للاستخدام المتواصل، تعزز التوازن بين التكنولوجيا والحياة.

في الوقت الذي تسعى فيه الشركات حول العالم إلى تطوير شخصيات رقمية أكثر إنسانية في طريقتها بالتفاعل، قررت الصين أن تضع حدودًا واضحة لهذا النوع من الذكاء الاصطناعي. الهيئة المركزية لشؤون الفضاء الإلكتروني في بكين كشفت عن مسودة لوائح جديدة تنظّم عمل الأنظمة التي تحاكي الشخصية البشرية، في خطوة تُظهر كيف تحاول الدولة بناء توازن دقيق بين الابتكار والانضباط القيمي.


لوائح موجهة نحو "القيم الاشتراكية الجوهرية"

تنص المسودة على أن هذه الأنظمة — سواء كانت دردشات نصية، أو روبوتات صوتية، أو حتى شخصيات افتراضية ثلاثية الأبعاد — يجب أن تُجسّد ما تصفه الوثائق الرسمية بـ«القيم الاشتراكية الجوهرية». لا تقتصر الفكرة على ضبط المحتوى، بل تمتد إلى الطريقة التي يتفاعل بها الذكاء الاصطناعي مع المستخدمين، متضمنة جوانب أخلاقية وسلوكية تمسّ طبيعة العلاقات الرقمية نفسها.


شفافية وخصوصية في قلب التجربة

تُلزم القواعد المقترحة مطوّري الأنظمة بالإفصاح الواضح عن كون الشخصية التي يتعامل معها المستخدم ليست بشرية. كما تتيح للمستخدمين حذف سجلات المحادثة متى أرادوا، وتمنع استخدام بياناتهم الشخصية لتدريب النماذج دون موافقة صريحة. هذه البنود تعكس تصاعد النقاش العالمي حول الخصوصية في واجهات الذكاء الاصطناعي التي باتت تعرف أكثر عن حياة المستخدمين مما يعرفه أصدقاؤهم أحيانًا.


حدود جديدة لتعاطف الآلة

تذهب المسودة إلى أبعد من الجوانب التقنية، إذ تمنع تصميم شخصيات اصطناعية "إدمانية" أو تُكرّس اعتمادًا عاطفيًا على الآلة لتعويض العلاقات الاجتماعية. ولعل أكثر البنود إنسانية هو البند الذي يُجبر النظام على اكتشاف مؤشرات الخطر النفسي كنية المستخدم في إيذاء نفسه، وتحويل التفاعل فورًا إلى موظف بشري قادر على التدخل. إنها محاولة لجعل الذكاء الاصطناعي أكثر مسؤولية دون أن يصبح بديلاً عن التعاطف الإنساني.


تصميم للاستخدام المتوازن

أثناء صياغة القواعد، وضع المنظمون في الاعتبار ظاهرة الإفراط في استخدام أنظمة الدردشات التفاعلية. لذلك تقترح المسودة ظهور تنبيه بعد مرور ساعتين من الاستخدام المتواصل يدعو المستخدم لأخذ استراحة. الإجراء يبدو بسيطًا، لكنه يشير إلى اتجاه عام نحو رؤية تكنولوجيا الذكاء الاصطناعي كأداة مساعدة لا كواقع بديل يغرق فيه الإنسان.

ذو صلة

تُظهر هذه الخطوة أن الصين لا تنظر إلى الذكاء الاصطناعي بوصفه حقلًا تقنيًا فقط، بل كقوة ثقافية تُعيد تشكيل علاقة الفرد بالآلة. في عالم تتنافس فيه الدول على تسريع التطوير، تفضّل بكين أن تضع كوابح أخلاقية قبل أن تسمح للعجلة بالدوران بالكامل. وربما سيكشف المستقبل ما إذا كانت هذه الضوابط ستحدّ من الابتكار أم ستفتح بابًا لحقبة أكثر توازنًا بين العقل الاصطناعي والوجدان الإنساني.

ذو صلة