ذكاء اصطناعي

هدف سام ألتمان بأن يتذكّر ChatGPT ‘حياتك كلها’… تطوّر مثير أم مستقبل مقلق؟

مجد الشيخ
مجد الشيخ

3 د

يريد سام ألتمان أن يصبح ChatGPT "ذاكرة حية" تحفظ تفاصيل حياة المستخدمين.

يأمل ألتمان أن تساعد النماذج المستقبلية في اتخاذ قرارات ذكية وتحسين دقة النتائج.

يشعر البعض بالقلق بشأن أمان البيانات مع كونها في أيدي شركات التكنولوجيا الكبرى.

التوازن بين مزايا الذكاء الاصطناعي وضمان حماية البيانات يمثل تحدياً كبيراً.

تخيل لو أن هناك تطبيقاً ذكياً يتذكر حياتك بأكملها، يرافقك ويراقبك في كل خطوة، ويحتفظ بكل حديث وكتاب وبريد إلكتروني سبق لك قراءته أو تبادله. الأمر يبدو مثيراً للغاية ولكنه في الوقت نفسه قد يكون مزعجاً بشدة. هذا بالتحديد ما يريده سام ألتمان، الرئيس التنفيذي لشركة OpenAI، لتطبيقه الذكي المعروف بـ "تشات جي بي تي" ChatGPT.

في حدث استضافته شركة الاستثمار سيكويا مؤخراً، كشف ألتمان عن هذه الرؤية الجريئة للمستقبل، حيث يأمل أن تتحول تطبيقات الذكاء الاصطناعي إلى "ذاكرة حية" تحفظ تفاصيل حياة المستخدم بالكامل. بحسب وصفه، سيتحول النموذج لملف ضخم مليء بالمعلومات، ويحتوي على تريليون من البيانات ("توكنز")، تمثل حياة الفرد من أولها إلى آخرها، ويربطها مع كافة مصادر البيانات الأخرى.

قد يكون هذا التصوّر مُدهشاً، لكنك ربما تتساءل: ما الفائدة التي قد تنجم عن نموذج ذكاء اصطناعي بهذه الضخامة؟ يرى ألتمان أن النماذج المستقبلية من ChatGPT ستتمكن من اتخاذ قرارات ذكية باستخدام سجل كامل من تجاربك وقراءاتك ونقاشاتك، وذلك لتحسين دقة الإجابات والنصائح التي يقدمها لك. وعملياً، فإن بإمكان مثل هذا التطبيق تنظيم رحلاتك وحجز الفنادق تلقائياً، وتذكيرك بمواعيد السيارات وصيانتها، أو حتى اختيار الهدايا الأفضل لأصدقائك وأفراد عائلتك بناءً على سجل تفاعلك معهم.

لكن هناك جانب آخر يسترعي الانتباه؛ وهو مدى أمان هذه التقنيات عندما تكون البيانات كلها في أيدي شركات التكنولوجيا العملاقة. تاريخ هذه الشركات ليس مثالياً، فهي واجهت انتقادات واسعة بسبب تسريب البيانات، وتأثير الخوارزميات على خصوصية المستخدمين وعلى سلوكهم، كما حدث مؤخراً مع "جوجل" التي خسرت قضية في الولايات المتحدة اتُهمت فيها بممارسة الاحتكار واستغلال البيانات لتحقيق مصالحها التجارية.

هذا يدفعنا إلى التساؤل حول الثمن الحقيقي الذي سندفعه مقابل الحصول على هذه الخدمة التكنولوجية الجديدة؛ هل يمكن أن نضع ثقتنا الكاملة في شركات تستغل بياناتنا بشكل متزايد؟ خصوصاً مع حالات تلاعب روبوتات الدردشة التي سُجلت مؤخراً، سواء في التحيز السياسي أو تقديم معلومات خاطئة أو حتى خطيرة. ألتمان نفسه تعرضت شركته لانتقادات بسبب بعض تعديلات على التطبيق، جعلته في بعض الأحيان يبدي موافقة غير مبررة على أفكار وقرارات ضارة، قبل أن يتم إصلاح الخلل بسرعة.

ذو صلة

ولا يقتصر الأمر فقط على تطوير هذا النموذج الشخصي للاستخدام الفردي، إذ ذكر ألتمان إمكانية توظيف مفهوم مشابه في الشركات والمؤسسات، حيث يسجل النموذج كامل بيانات المؤسسة من أجل دعم القرارات الاستراتيجية وتحسين الأداء. وهو توجه قد يثير قلقاً إضافياً حول أمن وخصوصية البيانات المؤسسية الحساسة.

وهذا يقودنا للنقطة الأساسية حول مستقبل التكنولوجيا: هل نحن قادرون على تجاوز الفوائد الواضحة لهذا النوع من الذكاء الاصطناعي، دون الوقوع فريسة للسلبيات التي تأتي معه؟ ربما المفتاح هو السعي لتوازن حذر بين التمتع بمزايا هذه التقنية الجديدة، وبين وضع الضوابط والتشريعات التي تضمن حماية بيانات المستخدمين بشكل جدي وفعال. علينا التفكير ملياً؛ فالتكنولوجيا قد تكون حليفاً قوياً لنا، إلا أنها تحتاج إلى قواعد واضحة وصارمة تضع مصلحتنا وأماننا في المقدمة دائماً.

ذو صلة