هل يمكننا الوثوق في ذكاء لا نعرف من يُلقّنه؟ في زمن أصبحت فيه الشات بوتات المدعومة بالذكاء الاصطناعي جزءًا أساسيًا من حياتنا اليومية، تتصاعد التساؤلات: هل المعلومات التي تقدمها دقيقة ومحايدة فعلًا؟ أم أن هناك من يقف خلف الستار يتحكم بما نعرفه وما لا نعرفه؟
عندما تسأل بوت مثل ChatGPT، Gemini، أو Grok عن معلومة، هل يقدم الحقيقة؟ أم نسخة مصفّاة منها؟ هذه الأسئلة لم تعد نظرية، بل واقعية ومُلِحّة، خاصة بعد الحوادث المتكررة التي أثارت الشكوك حول مصداقية هذه الأدوات.
سنتناول في هذا المقال أبرز الأزمات التي أثارت الجدل، ونسلط الضوء على الآليات التي تجعل من الذكاء الاصطناعي أحيانًا سلاحًا ذا حدين. هدفنا هو توعيتك كمستخدم: كيف تستفيد من هذه الأدوات دون أن تقع فريسة لتحيزاتها أو أخطائها.
كيف بدأت الشكوك؟ حادثة Grok نموذجًا
في الأسبوع الماضي، تصدّر بوت Grok التابع لشركة xAI عناوين الأخبار، بعدما بدأ يقدّم إجابات غريبة تتحدث عن "إبادة البيض في جنوب أفريقيا"، حتى عند طرح أسئلة غير متعلقة بالمجال.
المثير أن شركة X (المالكة للمنصة) اضطرت لاحقًا للاعتراف بأن تعديلاً غير مصرح به تم إدخاله على كود البوت، مما أدى لتوجيه إجاباته في هذا الاتجاه المثير للجدل.
ورغم الوعود بوقف هذا النوع من التلاعب، إلا أن مشاكل مشابهة تكررت بعدها بأيام، مما يفتح الباب أمام سؤال كبير: من يقرر ما يقوله الذكاء الاصطناعي؟
هل الذكاء الاصطناعي محايد فعلًا؟
رغم أن مصطلح "ذكاء اصطناعي" يوحي بالحيادية والموضوعية، إلا أن الحقيقة أبعد ما تكون عن ذلك.
البوتات لا "تفكر" كما نظن، بل تعتمد على كميات ضخمة من البيانات تم تدريبها عليها مسبقًا، ومصادر هذه البيانات قد تكون منحازة أو خاضعة لأجندات معينة.
Elon Musk نفسه قال مؤخرًا إن بوت Grok يجب ألا يعتمد على مصادر مثل BBC وThe Atlantic، واصفًا إياها بـ"المحرجة".
وبالفعل، تغيّر أسلوب إجابات البوت بعدها ليُظهر شكوكًا في الأرقام والإحصائيات، بحجة أنها "مضللة".
هذا يطرح تساؤلًا خطيرًا: هل البوت يعكس الواقع، أم يعكس ما يريد أصحابه أن نراه؟
البوتات الأخرى ليست بمنأى عن التحيز
ChatGPT
- اتُهِم بتجنب الإجابة على أسئلة سياسية حساسة.
- في بعض الأحيان، يُقدّم إجابات عامة وغامضة بدلًا من التصريح بموقف واضح.
Google Gemini
- تعرض لانتقادات بسبب تقديم معلومات "مغسولة سياسيًا"، وخاصة في القضايا الدولية.
Meta AI
- وُجهت له اتهامات بالترويج لأجندات معينة، وتصفية المحتوى وفقًا لسياسات ميتا.
هل هذه قرارات تقنية أم سياسية؟ هنا تكمن خطورة الوضع: حين يُستخدم الذكاء الاصطناعي كوسيلة للتحكم في المعلومات بدلاً من عرضها بشفافية.
ما الذي يحدث خلف الكواليس؟
لفهم الصورة بشكل أوضح، يجب أن نعرف كيف تُبنى إجابات الشات بوتات:
- تعتمد على نماذج لغوية ضخمة تُحلل ملايين الوثائق والمصادر.
- يتم تدريبها على بيانات مختارة ومصفّاة، غالبًا بواسطة فرق بشرية.
- تخضع لسياسات ومراجعات داخلية تقرر ما يُقال وما لا يُقال.
بمعنى آخر، الذكاء الاصطناعي لا يملك رأيًا، بل يعيد تركيب ما قيل له من قبل.
كيف تحمي نفسك كمستخدم؟
لحسن الحظ، هناك طرق لتقليل خطر الوقوع ضحية للمعلومات المضللة:
- تحقق من مصدر المعلومة دائمًا. اسأل: من قال ذلك؟ هل يوجد مرجع موثوق؟
- لا تعتمد على بوت واحد فقط. استخدم مصادر متعددة للمقارنة.
- اسأل بطريقة مختلفة. أحيانًا، طريقة طرح السؤال تؤثر على الإجابة.
- لا تتعامل مع الشات بوت كسلطة نهائية. اعتبره مساعدًا، لا خبيرًا.
خلاصة القول: الذكاء الاصطناعي أداة، لا مرجعًا
في النهاية، الشات بوتات مثل ChatGPT وGrok وGemini هي أدوات قوية تساعدك في الوصول إلى المعلومات بسرعة وكفاءة، لكنها ليست معصومة من الخطأ أو التحيز.
استخدمها، لكن بعقلك.
اسأل، دقّق، وابحث دائمًا عن الحقيقة من أكثر من زاوية.
هل تعرضت لمعلومة مضللة من شات بوت؟
شارك تجربتك في التعليقات!
واشترك في نشرتنا البريدية لتصلك مقالات تحليلية حول التقنية والذكاء الاصطناعي.