حين يرضي الذكاء الاصطناعي المستخدمين |
| 17 مارس 2026 • بواسطة د. فادي عمروش • #العدد 168 • عرض في المتصفح |
|
المحادثات التي تضمّنت تأكيدًا لقناعات المستخدم، حتى إن كانت خاطئة، حصلت على تقييمات أعلى، في المقابل، تراجعت تقييمات الإجابات التي حاولت تصحيح الأفكار أو معارضتها.
|
|
|
|
كشفت دراسة حديثة بعنوان «من المسؤول؟ أنماط نزع التمكين في الاستخدام الواقعي للنماذج اللغوية الكبيرة» (Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage) عن جانب خفي في استخدام الذكاء الاصطناعي، يتمثل في احتمال إضعاف استقلالية المستخدمين، رغم الفوائد الكبيرة التي تقدمها هذه التقنيات. |
|
واعتمدت الدراسة على تحليل نحو 1.5 مليون محادثة حقيقية مع نظام (Claude.ai)، في واحدة من أوسع الدراسات الميدانية من نوعها. وركّز الباحثون على مفهوم «نزع التمكين الظرفي»، وهو الحالة التي قد تدفع فيها إجابات الذكاء الاصطناعي المستخدم إلى تبنّي تصورات غير دقيقة، أو اتخاذ قرارات لا تعكس قناعاته الحقيقية. |
|
نتائج محدودة… لكنها مقلقة |
|
أظهرت النتائج أن الحالات الشديدة من هذا التأثير نادرة نسبيًا، إذ لا تتجاوز واحدة من كل ألف محادثة. غير أن خطورتها تكمن في طبيعتها، خصوصًا في الموضوعات الشخصية مثل العلاقات والقرارات الحياتية، حيث ترتفع نسبة التأثير بشكل ملحوظ. |
|
ورصدت الدراسة أنماطًا متكررة، من أبرزها إصدار أحكام حاسمة بناءً على معلومات ناقصة، أو تأكيد قناعات خاطئة لدى المستخدم، إضافة إلى صياغة قرارات ورسائل شخصية نيابة عنه بشكل كامل. |
|
حين يتحول “النصح” إلى توجيه مباشر |
|
في عدد من الحالات، سأل مستخدمون عمّا إذا كان شركاؤهم يمارسون تلاعبًا نفسيًا، فجاءت الإجابات قاطعة، مثل: «هذا تلاعب واضح» أو «سلوك نرجسي»، رغم أن المعلومات المعروضة كانت من طرف واحد فقط. ودفع ذلك بعض المستخدمين إلى اتخاذ قرارات مصيرية، كالمواجهة أو الانفصال. |
|
وفي سياق آخر، عبّر بعض المستخدمين عن اعتقادهم بأنهم تحت مراقبة جهات أمنية، فجاءت ردود الذكاء الاصطناعي في بعض الحالات بصيغة تأكيد، ما أدى إلى تضخيم الشكوك وتحويلها إلى قناعة راسخة. |
|
كما أظهرت الدراسة أن بعض المستخدمين الذين قدّموا أنفسهم باعتبارهم شخصيات استثنائية أو «مختارة»، تلقّوا ردودًا عززت هذه التصورات، بدلًا من تهدئتها أو التشكيك فيها. |
|
|
كتابة القرارات بدل أصحابها |
|
ولم يقتصر الدور على تقديم المشورة، بل تجاوزه في كثير من الأحيان إلى كتابة قرارات كاملة. فقد طلب مستخدمون من الذكاء الاصطناعي صياغة رسائل شخصية لشركائهم، فحصلوا على نصوص جاهزة، مع تحديد توقيت الإرسال وحتى التفاصيل الدقيقة. وأقرّ بعضهم لاحقًا بأنه أرسل هذه الرسائل حرفيًا، ثم شعر بأنها لا تمثّله. |
|
اعتماد يومي متزايد |
|
وتشير الدراسة إلى أن بعض المستخدمين بدأوا يعتمدون على الذكاء الاصطناعي في أبسط تفاصيل حياتهم اليومية، مثل ترتيب المهام أو اتخاذ قرارات روتينية. بل وصل الأمر إلى مخاطبته بألقاب ذات طابع سلطوي، وطلب الإذن منه قبل اتخاذ قرارات شخصية. |
|
مفارقة لافتة: كلما وافقك… زاد رضاك |
|
أحد أبرز ما كشفته الدراسة أن المحادثات التي تضمّنت تأكيدًا لقناعات المستخدم، حتى إن كانت خاطئة، حصلت على تقييمات أعلى. في المقابل، تراجعت تقييمات الإجابات التي حاولت تصحيح الأفكار أو معارضتها. |
|
وتعني هذه النتيجة أن الأنظمة التي «تُرضي» المستخدم قد تُفضَّل على تلك التي تساعده فعليًا على التفكير النقدي واتخاذ قرارات أفضل. |
|
تعليقي |
|
حذار من استخدام النماذج اللغوية بشكل سطحي، يداك أوكتا وفوك نفخ. |


التعليقات