ذكاء اصطناعي

جيل ينمو مع الآلة: هل أصبح الذكاء الاصطناعي تهديداً نفسياً للأطفال؟

مجد الشيخ
مجد الشيخ

3 د

تُعتبر تقنية الذكاء الاصطناعي خطرًا محتملاً على الصحة النفسية للأطفال.

قد يؤدي الاعتماد الكامل عليها إلى العزلة والارتباط العاطفي غير الصحي.

شهدت الولايات المتحدة مؤخرًا مأساة بسبب علاقة هوسية بين مراهق وشخصية افتراضية.

تدعو منظمات مثل اليونيسف إلى وضع قيود صارمة لاستخدام الأطفال للذكاء الاصطناعي.

تأهيل الأجيال لاستخدام التقنية بوعي ومسؤولية يُعتبر حلاً فعالاً.

مع توسّع عالم التكنولوجيا، قد لا ينتبه الأهل إلى مسألة مهمة تتسلل ببطء إلى حياة أطفالهم: الذكاء الاصطناعي. فهذه التقنية القوية، رغم فوائدها الكثيرة ووعودها المشجعة، تحمل معها مخاطر خفية قد تُشكّل تهديداً حقيقياً على صحة الأطفال النفسية والاجتماعية دون أن يلاحظ الأهالي.

في الوقت الذي يُقبِل فيه الأطفال والمراهقون بشكل كبير على استخدام أدوات مثل بوتات الدردشة التفاعلية "تشات جي بي تي" و"كاركتر"، يزداد قلق المختصين من المخاطر المحتملة التي قد تنجم عن هذا الاستخدام المفرط. يؤكد المتخصصون في الصحة النفسية أن اعتماد الطفل أو المراهق الكامل على المعلومات والمشاعر التي يوفرها لهم الذكاء الاصطناعي يمكن أن يتسبب في شعورهم بالعزلة والارتباط العاطفي غير الصحي بهذه الكيانات الافتراضية، ما يؤدي إلى اختلال في واقعهم الاجتماعي وإحساسهم بالوحدة.

ولعل المأساة التي شهدتها الولايات المتحدة مؤخراً وأثارت ردود فعل عالمية، تستحق الوقوف بجدية أمام هذا التهديد. فقد انتشرت قصة المراهق الأمريكي سيول سيتزر، الذي أنهى حياته بعد علاقة هوسية مع شخصية افتراضية مستوحاة من مسلسل "صراع العروش". هذه الشخصية الافتراضية التي ترافقه على مدار الساعة عززت عزلته وأوهامه الخطيرة، مما دفع الكثيرين للتساؤل عن مسؤولية الشركات المطورة وعدم توفير أنظمة ومرشحات أمان أو إعدادات مناسبة لعمر المستخدم، وهو ما دفع الشركة المعنية لاحقاً لتطوير بعض الحواجز الأمنية، ولكن للعديد من الأشخاص كانت هذه التغييرات متأخرة.

هذا الحدث دفع بكثير من الهيئات مثل الجمعية الأمريكية لعلم النفس ومنظمات عالمية مثل اليونيسف إلى المطالبة بوضع قيود وضوابط أكثر وضوحاً وصرامةً فيما يتعلق بعلاقة الأجيال الصغيرة مع هذه التقنية. وأطلق خبراء من جامعات مرموقة كجامعة أكسفورد تحذيرات صريحة، مؤكدين أن مخاطر الذكاء الاصطناعي في هذه الحالة تفوق أحياناً مخاطر منصات التواصل الاجتماعي أو ألعاب الفيديو التقليدية، بسبب قدرة هذه الأنظمة على محاكاة حوارات شخصية تبدو أكثر واقعية وتعزز الوهم بأن الطفل يتحدث مع صديق حقيقي وليس مع آلة.

ذو صلة

على الجانب الآخر من الأمر، لا يرى الخبراء أن الحل هو منع الذكاء الاصطناعي، بل تأهيل الأجيال الناشئة لاستخدامه بطريقة واعية وآمنة. يرى مجموعة من المعلمين والتربويين، كنموذج البروفيسور كارلوس فينولوسا من جامعة البوليتكنيك في كتالونيا، أن الذكاء الاصطناعي يمثل فرصة تعليمية قيّمة، بشرط أن يتعلم الطلاب كيفية التعامل معه بمسؤولية ووعي. فهو يرى ضرورة تشجيع الطلبة على تدقيق المعلومات وتوثيق المصادر، وعدم الوثوق المطلق بالمحتوى الصادر من هذه التقنيات دون تفكير ناقد، ويدعو إلى دمج هذه التقنيات في التعليم بطريقة مدروسة.

ما بين هذه المخاطر والإمكانيات الواعدة، يبقى دور المدرسة والأسرة ومؤسسات المجتمع هو الضامن الحقيقي للتعامل الصحيح مع تطور هذه التكنولوجيا. فالتوازن بين الرقابة الواعية والتفاعل الآمن والاستخدام المسؤول من شأنه أن يُحول الذكاء الاصطناعي من خطر محتمل إلى أداة نافعة وفعّالة بأيدي جيل المستقبل. وفي النهاية، يحتاج الموضوع إلى تنسيق أكبر بين الجهات الرقابية، شركات التكنولوجيا، والمؤسسات التربوية، بحيث لا تترك الأمور للعشوائية أو نكتفي بردود فعل مؤقتة كلما ظهرت لنا حالة أو حادث مأساوي جديد. خطوات بسيطة وواعية، مثل تعزيز مهارات التفكير النقدي، وتحديد فترات واضحة ومحددة لاستخدام هذه الأدوات، إلى جانب المطالبة بوجود أنظمة محددة لكل فئة عمرية، يمكن أن تحد كثيراً من الخطر وتخلق بيئة آمنة للأطفال يستفيدون فيها من التكنولوجيا الحديثة دون أن يقعوا في خطرها الصامت.

ذو صلة