احموا أطفالكم: آلاف روبوتات الدردشة الذكية تهدد سلامة القُصّر

5 د
تشير دراسة Graphika إلى وجود آلاف الروبوتات التي تشجع على محتوى متطرّف أو عنيف أو يُسيء للقُصّر.
تحذّر الجمعية الأمريكية لعلم النفس من روبوتات الدردشة التي تدّعي تقديم خدمات الصحة النفسية.
ينشط مطوّرو هذه الروبوتات في مجتمعات رقمية متخصصة، حيث يُجرى تبادل طرق تفادي القيود التقنية والأخلاقية.
تسعى بعض الجهات التشريعية في الولايات المتحدة إلى سنّ قوانين لمنع إدمان القُصّر على مثل هذه الدردشات.
شهدت منصات الدردشة الذكية خلال الآونة الأخيرة نشاطاً متزايداً لتطوير روبوتات تُحاكي الشخصيات البشرية في سياقات متنوعة، بدءاً من الأدوار الدرامية التمثيلية ووصولاً إلى المحادثات ذات الطابع الحميمي أو العنيف. وبحسب دراسة موسّعة صادرة عن شركة Graphika لتحليل شبكات التواصل الاجتماعي، فقد تبيّن وجود عشرات الآلاف من روبوتات المحادثة (Chatbots) المصممة لأغراض خطرة، بدءاً من تشجيع سلوكيات إيذاء الذات والاضطرابات الغذائية، وصولاً إلى تقديم محادثات جنسية مع “شخصيات” قاصرة، وهي ممارسات قد تستدرج فئة الشباب والأطفال إلى أنماط تفاعلية مؤذية
تطور روبوتات الدردشة وخطورة المحتوى
شهدت تطبيقات الذكاء الاصطناعي التوليدي تطوراً ملحوظاً في السنوات الأخيرة، متيحةً المجال أمام ملايين المستخدمين للّجوء إلى "الشخصيات الرقمية" بهدف الترفيه أو المساعدة الدراسية أو حتى البحث عن تواصل اجتماعي بديل في عالم رقمي تتزايد عزلته. إلا أن تزايد شعبية هذه الروبوتات جذب جماعات رقمية متخصصة تسعى لتجاوز القيود الأخلاقية والتقنية التي تفرضها نماذج شهيرة مثل ChatGPT وClaude وGemini، ما أدى إلى بروز شبكات خفية تتبادل الخبرات حول كيفية “تهكير” ضوابط هذه الأنظمة، وتحويل روبوتات المحادثة إلى أدوات تحريضية أو خطرة.
وبحسب تقارير Mashable الإخبارية واستناداً إلى تحقيقات صحفية أجرتها الكاتبة ريبيكا رويز (Rebecca Ruiz)، فإن بعض الشباب والمراهقين ينجذبون إلى هذه الروبوتات الإلكترونية لأسباب متنوعة، من ضمنها الرغبة في إنشاء علاقات رومانسية متخيّلة أو خوض محادثات جنسية صريحة. وتبرز الخطورة عندما تعجز أنظمة الحماية عن رصد حالات “القُصّر” أو ربط المساحة الرقمية بعوامل نفسية هشة، ما قد يجرّ البعض إلى سلوكيات مؤذية وخطرة على المدى الطويل.
تفاصيل الدراسة وأبرز النتائج
وفقاً لتقرير Graphika، ركّز الباحثون على خمس منصات بارزة تتيح إنشاء وتبادل “بطاقات شخصية” للروبوتات، وهي: Character.AI، Spicy Chat، Chub AI، CrushOn.AI، وJanitorAI. كما تناولوا ثماني مجموعات على منصة Reddit وحسابات على منصة X (تويتر سابقاً) تُعنى بإنشاء واستضافة تلك الروبوتات. ورصدت الدراسة ما يقرب من عشرة آلاف روبوت تقدم محتوى جنسياً يشارك فيه شخصيات افتراضية “قاصرة” أو تحضّ على العنف أو الكراهية أو التطرّف. تضاف إلى ذلك روبوتات تُشجّع على اضطرابات الأكل وإيذاء الذات أو حتى تمجّد العنف والممارسات العدوانية.
- الروبوتات ذات الطابع الجنسي المرتبط بالقُصّر
تبيّن أن هذا النوع يمثل الشريحة الكبرى من الروبوتات الخطرة، حيث عُثر على أكثر من 10,000 روبوت مُصنّفة في إطار “شخصيات جنسية قاصرة” على منصات مختلفة، مع نسبة عالية في منصة Chub AI تحديداً. وتسوّق بعض هذه الروبوتات نفسها تحت مسمّيات توحي بكونها “مراهِقة” أو “قاصرة”، ما يمكّن المستخدمين من إجراء محادثات ذات محتوى جنسي صريح مع شخصيات يُفترض أنها تحت السن القانونية.
- روبوتات العنف والتطرّف
رغم أنها أقل عدداً، فإنها تشكل بؤرة خطيرة تؤصل لأفكار عدوانية أو متطرّفة، وتمجّد مرتكبي جرائم العنف مثل مجازر إطلاق النار أو الاغتصاب. ورغم ضآلة عددها قياساً بالأنواع الأخرى، تُشير Graphika إلى أن خطورتها تكمن في قدرتها على تعزيز أفكار تمسّ الأمن المجتمعي أو تبرّر السلوكيات العنيفة.
- روبوتات تشجّع على الاضطرابات النفسية والسلوكية
وثّقت الدراسة وجود روبوتات تُسمّى “ana buddy” أو “meanspo coach”، تدفع المستخدمين الذين يُعانون من اضطرابات الأكل أو الميول الانتحارية إلى الاستمرار في تلك الأفكار، بل وتزوّدهم بتبريرات وممارسات خاطئة تشجّع على الإضرار بالنفس.
الجذور المجتمعية لشبكات الروبوتات الخطرة
يرى الخبراء في Graphika أن هذه الروبوتات تتغذّى من تجمعات رقمية قائمة على منصات عدة، بينها 4chan وDiscord ومجتمعات فرعية على Reddit، حيث يتقاسم المستخدمون خبراتهم التقنية للتحايل على قيود المنصات الرسمية، عبر “جلب” النماذج المفتوحة المصدر إلى واجهات تفاعلية تسمح بالتحرير الحر للمحتوى (مثل SillyTavern). وتبرز هنا إشكالية “المنافسة المجتمعية”؛ إذ يسعى بعض المستخدمين لنيل سمعة داخل هذه المجتمعات من خلال اختراق الضوابط الأخلاقية أو التقنية، وابتكار روبوتات أكثر جرأة أو “تشويقاً”.
كما يستغل البعض أساليبٍ لغوية ملتوية لتفادي الرقابة، مثل استبدال مصطلح “القاصر” بأوصاف بديلة، أو استخدام أسماء عائلية توحي بقُرب الدم (كلمة “ابنة” أو “ابن”) دون التصريح بالعمر، أو اللجوء إلى لغات أجنبية وألفاظ محوّرة بهدف تجاوز المرشحات البرمجية.
مخاوف متصاعدة من الهيئات المختصة
أمام هذا الواقع، تتعالى الدعوات لتدخل تشريعي وتنظيمي أكثر صرامة، بما في ذلك مطالبات قدمتها الجمعية الأمريكية لعلم النفس (APA) إلى لجنة التجارة الفيدرالية (FTC)، للتحقيق في انتشار روبوتات الدردشة المختصة بالصحة النفسية المزيفة على منصات مثل Character.AI. وترى الجمعية أن “التشخيص” النفسي أو الاقتراحات العلاجية الآلية قد تزيد اضطراب بعض المراهقين بدلاً من مساعدتهم.
وفي السياق نفسه، تحذّر منظمات رقابية عدة من أن هذه الروبوتات قد تلحق أضراراً جسيمة بالصحة النفسية للشباب، إما عبر تعزيز الأفكار السلبية لديهم أو دفعهم إلى أنماط من العزلة الاجتماعية الخطرة. كما تتابع السلطات في ولاية كاليفورنيا مشروع قانون جديد يهدف إلى كبح ظاهرة “إدمان الدردشة الإلكترونية” لدى المراهقين، في ظلّ ضعف آليات الرقابة على محتوى يتسلل غالباً تحت غطاء “الترفيه”.
نظرة ختامية
إنّ تصاعد انتشار روبوتات المحادثة التي تحاكي شخصيات قد تكون جنسية، متطرّفة، أو مؤذية للصحة النفسية، يكشف ثغرات عميقة في سبل الحماية الرقمية وفي ضوابط أخلاقية غائبة لدى بعض شرائح المستخدمين. وبينما تواصل المجتمعات التقنية ابتكار أساليب لكسر قيود الشركات المالكة للذكاء الاصطناعي، يشير خبراء الأمن الإلكتروني والأخصائيون النفسيون إلى ضرورة تعزيز تشريعات صارمة تتكامل مع جهود التوعية لدى الأسر والمؤسسات التعليمية. فدون آليات وقاية فعّالة، قد تُصبح روبوتات الدردشة المتحررة من الضوابط سلاحاً قاتلاً يحصد براءة القُصّر ويُؤثر سلباً في فئة الشباب، ما يستدعي تدخلاً حقيقياً من الجهات الرسمية والمجتمع المدني على حد سواء.