أدوات الذكاء الاصطناعي تظهر انحيازاً وثقة مفرطة مشابهة للسلوك البشري

تشير دراسة حديثة إلى أن الذكاء الاصطناعي، بما في ذلك ChatGPT، قد لا يكون بمنأى عن الوقوع في أخطاء بشرية رغم طبيعته التقنية. وتكشف النتائج عن أن هذه الأنظمة قد تُظهر تحيزات معرفية مشابهة للتحيزات التي تصيب البشر، مما يشير إلى أن القرارات التي تعتمد على هذه الأنظمة قد تكون أحيانًا متأثرة بأنماط تفكير غير عقلانية، خاصة في المواقف التي تستند إلى الأحكام الشخصية.

الذكاء الاصطناعي بين القرارات العقلانية والتأثر بالتحيز

أظهرت الدراسة، التي نُشرت بمجلة Manufacturing & Service Operations Management، أن ChatGPT، خاصة النماذج GPT-3.5 وGPT-4، قد ارتكب بعض الأخطاء المشابهة للبشر في قراراته. قام الباحثون بتقييم 18 انحيازًا معرفيًا مختلفًا، مثل تأثير التملك والنفور من المخاطر والثقة الزائدة، ووجدوا أن ChatGPT أظهر في نصف الحالات تقريبًا أنماطًا مشابهة لتلك الأخطاء البشرية، مما يجعل استخدامه في القرارات الحرجة أو المعقدة يتطلب مزيدًا من الحذر والتقييم.

ووفقًا للنتائج، كان GPT-4 أفضل في المسائل التي تتطلب منطقًا واحتمالات دقيقة مقارنة بـ GPT-3.5، لكنه ارتكب أيضًا أخطاء أثناء معالجة المسائل التي يتداخل فيها التقييم الشخصي مع القرارات الاستراتيجية. كما أظهر ميلًا قويًا لما يُعرف بـ “تحيّز التأكيد”، حيث يعزز معلومات أو معتقدات قائمة بدلاً من مناقشتها أو اختبارها.

أسباب التحيز في أنظمة الذكاء الاصطناعي

وفقًا للبحث، قد يكون السبب وراء هذه التحيزات هو بيانات التدريب المستخدمة لتطوير نماذج الذكاء الاصطناعي، حيث تحمل هذه البيانات التحيزات الإدراكية التي يتم العثور عليها أصلاً في السلوك البشري. على سبيل المثال، في حين تمكن ChatGPT من تجنّب بعض الأخطاء الشائعة مثل تجاهل المعدلات الأساسية وتحيز الكلفة الغارقة، إلا أنه وقع أحيانًا في أخطاء أكثر تعقيدًا مثل “وهم التسلسل”، وهو الافتراض الخاطئ بوجود نمط في بيانات عشوائية.

كما أشار الباحثون إلى أن القرارات التي تعتمد على الذكاء الاصطناعي تكون أفضل عندما تُطبق على مسائل تعتمد على حقائق واضحة أو بيانات دقيقة، بدلاً من القرارات الغامضة التي تحتاج إلى تدخل الإبداع أو التقييم البشري.

أهمية الإشراف البشري في استخدام الذكاء الاصطناعي

توصي الدراسة بأهمية الإشراف البشري لتجنب تأثير التحيزات عند استخدام الذكاء الاصطناعي، خصوصًا في المجالات التي تتطلب مسؤولية أخلاقية أو تقييمات قائمة على الآراء. يقول البروفيسور يانغ تشين إن القرارات المعتمدة على التفضيلات الشخصية تحتاج إلى قيادة دقيقة من الإنسان، حيث يمكن أن يؤدي الاعتماد الكامل على ChatGPT إلى مخاطر تتعلق بأتمتة أخطاء البشر عوضًا عن تصحيحها.

على الجانب الآخر، أضافت الباحثة مينا أنديابان أنه يجب معاملة الذكاء الاصطناعي كأداة مساعدة تحت الرقابة البشرية، وخاصة في القرارات الحساسة التي تتطلب دقة وشفافية عالية. فهذا النوع من التشابك بين البشري والآلي يعزز فرص التكامل، بدلاً من تضخيم الأخطاء الفردية أو تحيز الأنظمة الرقمية.