سام ألتمان يثير الجدل: هل رفع القيود عن ChatGPT خطوة نحو التطور أم فوضى رقمية جديدة؟

هل يمكن أن يتحول الذكاء الاصطناعي من أداة للتطوير إلى مصدر فوضى أخلاقية؟ هذا هو السؤال الذي انفجر على الإنترنت بعد إعلان "سام ألتمان" – المدير التنفيذي لشركة OpenAI – أن نسخة ديسمبر القادمة من ChatGPT ستشهد تخفيفًا كبيرًا في القيود، لتصبح أكثر حرية في التفاعل مع المستخدمين البالغين. 

رفع القيود عن ChatGPT خطوة نحو التطور أم فوضى رقمية جديدة؟

ما الذي أعلنه سام ألتمان بالضبط؟

خلال لقاء صحفي مؤخر، ألمح "ألتمان" إلى أن النسخة المقبلة من ChatGPT ستتيح "مساحة أكبر للبالغين" للتفاعل بحرية، مع خيارات تحكم إضافية في نوع المحتوى. لكن ما فُهم من تصريحه على نطاق واسع هو أن الشركة تستعد لرفع بعض الفلاتر الصارمة التي كانت تمنع الحديث في موضوعات حساسة.

خلفية القرار وأسبابه

منذ إطلاق ChatGPT، واجه المستخدمون مشكلة في صرامة أنظمة الأمان. فعند محاولة التحدث في أي موضوع له طابع أخلاقي أو اجتماعي حساس، كان النموذج يتجنب الإجابة أو يغير الموضوع. OpenAI ترى أن هذه الصرامة "تحد من إمكانيات الذكاء الاصطناعي في الإبداع والتحليل"، لذلك تسعى لتقديم نظام أكثر مرونة، بشرط أن يكون المستخدم "بالغًا ومسؤولًا".

المشكلة الحقيقية: كيف يُعرف من هو البالغ؟

الاعتماد على “الإقرار الذاتي” يعني ببساطة أن أي مستخدم يمكنه أن يقول إنه بالغ ويصل إلى كل الميزات. وهنا يبرز سؤال منطقي جدًا: كيف يمكن لنظام ذكاء اصطناعي أن يفرّق بين مراهق يبلغ 14 عامًا وشخص عمره 30 عامًا إذا لم يكن هناك توثيق فعلي للهوية؟ هذه النقطة تحديدًا تجعل فكرة “تخصيص المحتوى للبالغين” غير عملية ومليئة بالمخاطر.

لماذا القرار أثار كل هذا الغضب؟

الغضب لم يكن فقط بسبب الجانب الأخلاقي، بل بسبب الشعور بأن شركات التكنولوجيا الكبرى بدأت تتسابق نحو كسر الخطوط الحمراء لجذب مزيد من المستخدمين.
  • Meta (فيسبوك سابقًا) تواجه اتهامات بعدم حماية الأطفال من المحتوى الضار.
  • Elon Musk سمح في منصته X بحرية نشر واسعة وصلت إلى درجة “الفوضى”.
  • OpenAI الآن تسير في الاتجاه نفسه، ولكن تحت شعار “حرية التعبير والتخصيص”.
وهكذا يبدو أن الخطر ليس في الذكاء الاصطناعي نفسه، بل في الطريقة التي يُدار بها.

هل رفع القيود أمر سيئ تمامًا؟

الحقيقة أن جزءًا من المجتمع التقني يرى أن “تخفيف القيود” قد يكون مفيدًا في مجالات أخرى. على سبيل المثال:
  • في الطب، يحتاج الباحثون إلى مناقشة مواضيع حساسة حول السلوك البشري.
  • في الأدب والسينما، يُستخدم الذكاء الاصطناعي لصياغة نصوص درامية معقدة تتطلب حرية فنية.
  • في التعليم، بعض القضايا الأخلاقية تحتاج شرحًا واقعيًا بدون رقابة مفرطة.
لكن الخط الفاصل بين “التحليل العلمي” و“الإباحية أو الإساءة” يظل هشًا جدًا.

 لماذا لا يمكن تطوير الذكاء الاصطناعي بدون رفع القيود؟

لأن الفلاتر الحالية مبنية على خوارزميات حماية شاملة لا تفرق بين “السياق العلمي” و“السياق المخلّ”. فعندما تقول مثلاً "أريد كتابة قصة عن خطر الإدمان"، قد يظن النظام أنك تتحدث في موضوع ممنوع ويمنع الرد. الحل هو بناء نظام ذكاء اصطناعي “يفهم السياق” وليس “يحظر الكلمة”. وهذا ما تسعى إليه OpenAI بالفعل.

نصائح للحفاظ على الاستخدام الآمن للذكاء الاصطناعي

  • استخدم أدوات الذكاء الاصطناعي لأهداف تعليمية أو مهنية فقط.
  • راقب استخدام الأطفال والمراهقين للتقنيات الجديدة.
  • اقرأ دائمًا سياسات الخصوصية قبل تجربة أي تحديث أو منصة جديدة.
  • تذكر أن الحرية الرقمية لا تعني غياب الأخلاق.


 بين الحرية والفوضى.. من يضع الخط الفاصل؟

الذكاء الاصطناعي لا يصنع الفوضى من تلقاء نفسه، بل يعكس ما يطلبه الإنسان منه. فإذا قررنا أن تكون التكنولوجيا بلا قيود، فلن يكون اللوم على الآلة بل على من أطلقها دون مسؤولية. في النهاية، السؤال الحقيقي ليس “هل يجب أن نخفف القيود؟” بل “هل نحن مستعدون لتحمل نتائجها؟” شاركنا رأيك: هل ترى أن تقليل الرقابة على ChatGPT خطوة نحو الإبداع أم خطر على القيم؟
علي ماهر
علي ماهر
خبرة 11 عامًا في كتابة المقالات في مجالات متنوعة مثل التقنية، السيارات، الساتلايت. يمكن متابعة مقالاتي والتواصل معي عبر وسائل التواصل الاجتماعي. فيسبوك - X (تويتر سابقًا) - لينكدإن
تعليقات