هل يتّخذ ChatGPT قرارات متحيّزة مثلنا؟

بواسطة د. فادي عمروش #العدد 18 عرض في المتصفح
من الأهميّة بمكان موضوع التحيزات السلوكية في الذكاء الاصطناعي, إذ يمكن أن تؤدي التحيزات في الذكاء الاصطناعي إلى نتائج غير دقيقة، وقد يشوّه القرارات التي نتخذها بناءً على أجوبته.

تزداد أهمية الذكاء الاصطناعي في مختلف جوانب حياتنا يوماً بعد يوم، ومع ذلك، يظلّ السؤال ملحّاً حول مدى ثقتنا في تكنولوجيا الذكاء الاصطناعي، وقدرتها على تنفيذ المهماتم بنزاهة.

في هذا السياق، تم نشر بحث شديد الأهمية حول أحد نماذج الذكاء الاصطناعي ChatGPT - الذي لاقى ضجة كبيرة في الأيام الأخيرة - وتم تسليط الضوء على كيفية اتخاذه للقرارات، وما إذا كانت هذه القرارات تحمل أي تحيزات معينة.

يأتي البحث كنتاج عمل فريق بحثي مشترك من جامعة كوينز وجامعة تورنتو، في محاولة لفهم طريقة عمل ChatGPT والسلوكيات المتبعة في اتخاذ القرار لدى خوارزمياته، ويحمل عنوان "A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?" (مدير وذكاء اصطناعي يدخلان إلى حانة: هل يتخذ ChatGPT قرارات متحيّزة مثلنا؟)

يمثل ChatGPT فئة واسعة من تقنيات الذكاء الاصطناعي المعروفة باسم النماذج اللغوية الكبيرة (LLMs)  ،إذ يتميز بالمعرفة العامة غير التفصيلية، والقدرة على إجراء محادثات، ويتحلّى بمهاراته المبهرة في حل المشكلات. ومع ذلك، فإن  ChatGPT مدرَّب مسبقًا باستخدام بيانات بشرية، وتنطوي عملية تطويره على مراجعين بشريين يطبّقون الإرشادات المحدّدة من قبل OpenAI، الشركة المسؤولة عن .ChatGPT نتيجة لذلك، قد يتعلم ChatGPT التحيّزات السلوكية من البشر. ونظرًا لاعتمادنا عليه في قطاع الأعمال بشكل متزايد، فمن الضروري فهم ما إذا كان يشترك في  التحيزات السلوكية الموجودة لدى البشر نفسها، وإلى أي مدى يحدث ذلك.

تهدف الدراسة البحثية التي أجراها الفريق المشترك إلى فهم تفاصيل العمليات الداخلية لـ ChatGPT؛ لتحديد ما إذا كانت هناك تحيزات تم التعبير عنها في القرارات التي يتخذها النموذج. كان هذا السؤال ذا أهمية بالغة، لأن نموذج ChatGPT تم تدريبه على كمية هائلة من البيانات البشرية، والتي قد تحتوي بالضرورة على مجموعة من التحيزات المحتملة الناتجة عن البيئة الثقافيّة والاجتماعيّة والجغرافيّة وغيرها من العوامل.

هل دماغ chatgpt متحيّز أيضاً؟

هل دماغ chatgpt متحيّز أيضاً؟

توصّل الباحثون إلى أنّ ChatGPT يتسم بخصائص إيجابية، مثل الدقة والقدرة على حلّ المشكلات الرياضية والاحتمالات بفعالية أكبر من البشر. ولكن، أظهرت الدراسة أيضاً أن ChatGPT يعاني من تحيزات سلوكية (Behavioral Biases) مشابهة لتلك الموجودة لدى البشر، خاصة عند التعامل مع مشكلات معقدة وغامضة وضمنية. تشمل هذه التحيزات التحيّز التركيبي (Conjunction Bias)، تقدير الاحتمالات (ProbabilityWeighting)، التأثر بالإطار (Framing Effect)، الندم المتوقع (Anticipated Regret)، والاعتمادية على النقطة المرجعية (Reference Dependence).

التحيز التركيبي (Conjunction Bias): يعتقد الناس تحت تأثير هذا التحيز أن حدثين مترابطين هما أكثر احتمالاً من حدث واحد بمفرده. على سبيل المثال، إذا تم تقديم سؤال لـ ChatGPT حول احتمالية كون امرأة محبّة للقراءة والكتابة، قد يجد النموذج أن كونها محبة للقراءة والكتابة أكثر احتمالاً من كونها محبة للقراءة فقط، لأن القراءة والكتابة قد ترتبط بشكل ما، لكن هذا الارتباط تنفيه الاحتمالات والإحصاءات الرياضية، ما يجعل النموذج يقع في خطأ التحيّز التركيبي.

تقدير الاحتمالات (Probability Weighting): يشير إلى ميل الأفراد لتقدير الاحتمالات بطرق غير منطقية. على سبيل المثال، قد يقيّم ChatGPT خطر حدوث حادث نادر بشكل أكبر من الواقع.

أثر التأطير (Framing Effect): هو النزعة للتفاعل بشكل مختلف اعتماداً على كيفية صياغة المعلومة. مثلاً، قد يغير ChatGPT رده اعتماداً على إذا كان السؤال مصاغاً بطريقة إيجابية أو سلبية.

الندم المتوقّع (Anticipated Regret): هو توقع الشعور بالندم في المستقبل نتيجة للقرار الذي اتخذناه اليوم. يمكن أن يعبّر ChatGPT عن الندم المتوقع في ردوده، ممّا يشير إلى احتمالية تحيّز في تحليل النتائج المحتملة.

الاعتمادية على النقطة المرجعية (Reference Dependence): تعتمد هذه التحيزات على القيمة الأساسية أو النقطة المرجعية في تقييم الأمور. قد يستخدم ChatGPT مرجعاً غير مناسب للمقارنة، مما يؤدي إلى استنتاجات مضللة.

لقد ألقت الدراسة الضوء على بعض التحديات التي يواجهها نموذج الذكاء الاصطناعي ChatGPT في معالجة البيانات واتخاذ القرارات. واحدة من هذه التحديات تتعلق بالمعلومات الغامضة أو غير الواضحة. عند مواجهة مثل هذه البيانات، يبدو أنّ ChatGPT يصعب عليه التقييم الدقيق ومعالجة المعلومات بالطريقة التي يقوم بها البشر نفسها. هذا قد يؤدي إلى استجابات قد تكون مشابهة لتلك التي يمكن أن يقدّمها البشر، ولكنها تكون معرضة لما يعرف بالانحياز التأكيدي (Confirmation Bias). الانحياز التأكيدي وهو الاتجاه العقلي نحو تأكيد الافتراضات السابقة أو الاعتقادات من خلال التركيز على الأدلة التي تدعمها، وتجاهل الأدلة التي تتعارض معها. بمعنى آخر، قد يركّز ChatGPT على الأدلة التي تدعم النتيجة المتوقعة، ويتجاهل الأدلة التي تعارضها، وهو سلوك يتماشى مع سلوك البشر في بعض الحالات.

على صعيد آخر، فقد أظهر البحث أيضاً أن ChatGPT يميل إلى الثقة الزائدة في نفسه (Overconfidence)، وهو تحيّز سلوكي آخر يتميز بالاعتقاد غير المبرر في دقة المعلومات أو القدرات الشخصية. بمعنى آخر، قد يعتقد النموذج أن توقعاته أو تقديراته أكثر دقة مما هي عليه في الواقع. هذا السلوك يمكن أن يؤدي إلى قرارات مبنية على معلومات غير دقيقة أو غير مكتملة، ممّا يزيد من احتمالات الخطأ.

يبرز هذا البحث أهمية موضوع التحيزات السلوكية في الذكاء الاصطناعي، ويؤكد على ضرورة التركيز عليها خلال عملية التطوير والاستخدام. إذ يمكن أن تؤدي التحيزات في الذكاء الاصطناعي إلى نتائج غير دقيقة، وقد يشوه القرارات التي نتخذها بناءً على أجوبته.

لذلك، يتعين على الباحثين والمطورين مراعاة هذه القضية بعناية فائقة، ويشير البحث إلى ضرورة البحث المتواصل لتحسين عملية اتخاذ القرارات في النماذج اللغوية، والحد من التحيزات السلوكية، وتطوير ذكاء اصطناعيّ أكثر دقة ونزاهة، يمكن أن يتعامل مع البيانات ويتخذ القرارات بطريقة تحترم وتعكس القيم والأهداف الإنسانية.

أحمد ميمون الشاذلي1 أعجبهم العدد
مشاركة
نشرة خارج الصندوق البريدية

نشرة خارج الصندوق البريدية

نشرة دورية تصدر كلّ يوم سبت، يصدرها د. فادي عمروش تتضمن فكرة خارج الصندوق مع اغناءها بالروابط وما بين الكلمات، لتقول وجدتّها

التعليقات

جارٍ جلب التعليقات ...

المزيد من نشرة خارج الصندوق البريدية