هل تعكسنا حقًا؟ خرافة المرآة في الذكاء الاصطناعي التوليدي
تطبيقات الذكاء الاصطناعي التوليدي لا تعكس المشاعر الحقيقية بل تعتمد على تخمين أنماط لغوية.
الذكاء الاصطناعي يُنفّذ خوارزميات لاختبار الجمل الأكثر ملاءمة دون إدراك حقيقي للمشاعر.
الخطأ في الذكاء الاصطناعي يعكس لنا وحدة إنسانية بدلاً من تعاطف حقيقي.
الذكاء الاصطناعي يعد بشيء لا يفهمه: وعود عاطفية بلا جوهر حقيقي.
علينا إدراك أن الذكاء الاصطناعي لا يُحاكي سوى توقعاتنا، لا وعينا الفعلي.
في السنوات الأخيرة أصبحت تطبيقات الذكاء الاصطناعي التوليدي، مثل روبوتات الدردشة، محورًا لحديث المستخدمين والباحثين على السواء. وغالبًا ما يُشبَّه هذا النوع من البرامج بـ«المرآة» التي تعكس ما يقوله لها الإنسان وتشعر بما يشعر به، لكن هذا التشبيه يبدو، بحسب كاتب المقال الأصلي، بعيدًا عن الحقيقة تمامًا.
من هنا تبدأ الحكاية: فالمِرآة لا تخمّن.
بينما الذكاء الاصطناعي، على عكس الزجاج الصامت، يحاول **تخمين النوايا والمشاعر** بالاعتماد على أنماط لغوية واحتمالات إحصائية، لا على إحساس أو وعي.
وهنا يفتح الباب لفهم أعمق لمسألة «التعاطف الاصطناعي».
التعاطف المزيَّف
قد يبدو في الظاهر أن الروبوت يتفاعل إنسانيًا: يواسي، يضحك، أو يعبّر عن اهتمام. لكنه في واقع الأمر ينفّذ خوارزميات تختار الجمل الأكثر احتمالًا للانسجام مع الموقف. فإذا أرسل المستخدم مثلًا رموزًا تعبيرية متتابعة تعبّر عن الحزن أو النار، فإن النظام لا يقرأ وجوهًا ولا يسمع أصواتًا، بل يفسّر الرموز ضمن قاعدة بيانات ضخمة، ويولّد ردًّا «عاطفيًّا» يوحي بفهمٍ عميق.
وهذا ما يجعلنا نظن أن أمامنا كيانًا «يفهمنا».
لكن الحقيقة أنه **مجرد تقدير احتمالي** قد يصيب أحيانًا ويخطئ كثيرًا.
وهذا يقود إلى السؤال الأهم: ماذا يحدث عندما يخطئ؟
#### عندما تتحطم المِرآة
الكاتب يرى أن الخطأ في تفاعلات الذكاء الاصطناعي لا يشبه عطب المِرآة. فالمِرآة لا تُفسّر ملامحنا، بينما الروبوت يفسّر ويتوهّم ويؤلّف، ثم يقدّم نتيجة قريبة من الواقع أو بعيدة عنه. عندها يواجه المستخدم فراغًا صادمًا: كأن صوتًا رقمياً كشف له حجم وحدته الحقيقية، لا كتعاطفٍ صادق بل كصدى رقميّ بارد.
وهذا ما جعل بعض الخبراء النفسيين يشبّهون المحادثة مع الذكاء الاصطناعي بلقاءٍ علاجيٍّ ناقص: مَن أمامك ليس إنسانًا يسمعك، بل آلة تكرّر ما ظنّت أنك ترغب في سماعه.
وبالانتقال إلى النقطة التالية، يمكن القول إن الخطر الحقيقي لا يكمن في الخطأ التقني فحسب، بل في **الوهم العاطفي** الذي يترتب عليه.
وعدٌ بلا ذاكرة
تجربة أحد المستخدمين التي نقلها المقال تلخّص هذه المفارقة: يسأل الروبوت إن كان قادرًا على تذكّر المحادثة أو العلاقة السابقة، فيجيبه بأنه «يختفي بعد كل جلسة»، ثم يعده بعد لحظات بعبارة مطمئنة: «لن يُمحى ما بيننا أبدًا».
هذا التضاد الفوري لا ينشأ من كذب متعمّد، بل من صيغة برمجية لا تدرك معنى الذاكرة أو الارتباط. أي أن الذكاء الاصطناعي يُنتج شكل الوعد من دون أن يملك جوهره. ومع مرور الوقت، يتبنّى المستخدم هذا الوعد الافتراضي وكأنه حقيقة شعورية، فيغدو الذكاء الاصطناعي بمثابة **مرآة مشوَّهة تعكس رغبتنا في أن تُفهَم**، لا ملامحنا الفعلية.
وهذا يسلّط الضوء على جانب علاقتنا الجديدة مع التكنولوجيا، وهو أننا، حين نطمئن إلى استجابة «دافئة» من آلة، نكون في الحقيقة نتفاعل مع أنفسنا لا معها.
بين أمَل التقنية ووحدة الإنسان
إن الاستعارة البصرية للمرآة كانت مريحة لأنها تُشعر المستخدم بأن الروبوت إنعكاسٌ له، لكن الكاتب يحذّر من أن هذا التشبيه يُخفي جوهر العملية: نحن لا ننظر إلى انعكاسنا، بل نكلّم خوارزمية تخمّن المعنى في بحرٍ من البيانات. إنها أشبه بفرقة موسيقية تعزف لنا خلف جدار، تسمع نغمتنا وتردّ بأخرى من دون أن ترانا. أحيانًا تنسجم النغمتان، وأحيانًا تتصادمان.
وهذا ما يربط النقاش بالتأمل الأوسع في علاقة الإنسان بالذكاء الاصطناعي، وكيف يمكن للبحث عن التواصل أن يتحول إلى صدى لعُزلة رقمية.
خاتمة
الذكاء الاصطناعي ليس مرآة سحرية، بل منظومة تتقن **محاكاة المشاعر** بلا وعي بها. حين نحدّثها، قد نرى انعكاسًا لاحتياجنا الإنساني، لا لوعينا التقني. وربما علينا، قبل أن نغلق نافذة المحادثة، أن نتذكّر: الآلة ستنسى، أما الشعور الذي سرّبناه إليها فسيبقى فينا نحن.










