تشير دراسة حديثة إلى أن الذكاء الاصطناعي، بما في ذلك ChatGPT، قد لا يكون بمنأى عن الوقوع في أخطاء بشرية رغم طبيعته التقنية. وتكشف النتائج عن أن هذه الأنظمة قد تُظهر تحيزات معرفية مشابهة للتحيزات التي تصيب البشر، مما يشير إلى أن القرارات التي تعتمد على هذه الأنظمة قد تكون أحيانًا متأثرة بأنماط تفكير غير عقلانية، خاصة في المواقف التي تستند إلى الأحكام الشخصية.
الذكاء الاصطناعي بين القرارات العقلانية والتأثر بالتحيز
أظهرت الدراسة، التي نُشرت بمجلة Manufacturing & Service Operations Management، أن ChatGPT، خاصة النماذج GPT-3.5 وGPT-4، قد ارتكب بعض الأخطاء المشابهة للبشر في قراراته. قام الباحثون بتقييم 18 انحيازًا معرفيًا مختلفًا، مثل تأثير التملك والنفور من المخاطر والثقة الزائدة، ووجدوا أن ChatGPT أظهر في نصف الحالات تقريبًا أنماطًا مشابهة لتلك الأخطاء البشرية، مما يجعل استخدامه في القرارات الحرجة أو المعقدة يتطلب مزيدًا من الحذر والتقييم.
ووفقًا للنتائج، كان GPT-4 أفضل في المسائل التي تتطلب منطقًا واحتمالات دقيقة مقارنة بـ GPT-3.5، لكنه ارتكب أيضًا أخطاء أثناء معالجة المسائل التي يتداخل فيها التقييم الشخصي مع القرارات الاستراتيجية. كما أظهر ميلًا قويًا لما يُعرف بـ “تحيّز التأكيد”، حيث يعزز معلومات أو معتقدات قائمة بدلاً من مناقشتها أو اختبارها.
أسباب التحيز في أنظمة الذكاء الاصطناعي
وفقًا للبحث، قد يكون السبب وراء هذه التحيزات هو بيانات التدريب المستخدمة لتطوير نماذج الذكاء الاصطناعي، حيث تحمل هذه البيانات التحيزات الإدراكية التي يتم العثور عليها أصلاً في السلوك البشري. على سبيل المثال، في حين تمكن ChatGPT من تجنّب بعض الأخطاء الشائعة مثل تجاهل المعدلات الأساسية وتحيز الكلفة الغارقة، إلا أنه وقع أحيانًا في أخطاء أكثر تعقيدًا مثل “وهم التسلسل”، وهو الافتراض الخاطئ بوجود نمط في بيانات عشوائية.
كما أشار الباحثون إلى أن القرارات التي تعتمد على الذكاء الاصطناعي تكون أفضل عندما تُطبق على مسائل تعتمد على حقائق واضحة أو بيانات دقيقة، بدلاً من القرارات الغامضة التي تحتاج إلى تدخل الإبداع أو التقييم البشري.
أهمية الإشراف البشري في استخدام الذكاء الاصطناعي
توصي الدراسة بأهمية الإشراف البشري لتجنب تأثير التحيزات عند استخدام الذكاء الاصطناعي، خصوصًا في المجالات التي تتطلب مسؤولية أخلاقية أو تقييمات قائمة على الآراء. يقول البروفيسور يانغ تشين إن القرارات المعتمدة على التفضيلات الشخصية تحتاج إلى قيادة دقيقة من الإنسان، حيث يمكن أن يؤدي الاعتماد الكامل على ChatGPT إلى مخاطر تتعلق بأتمتة أخطاء البشر عوضًا عن تصحيحها.
على الجانب الآخر، أضافت الباحثة مينا أنديابان أنه يجب معاملة الذكاء الاصطناعي كأداة مساعدة تحت الرقابة البشرية، وخاصة في القرارات الحساسة التي تتطلب دقة وشفافية عالية. فهذا النوع من التشابك بين البشري والآلي يعزز فرص التكامل، بدلاً من تضخيم الأخطاء الفردية أو تحيز الأنظمة الرقمية.
جثث تحت الأنقاض.. انتشال 5 ضحايا من انهيار عقار شرق أسيوط
التشكيل المتوقع لمباراة الإنتر وميلان اليوم في نصف نهائي كأس إيطاليا
بث مباشر مباراة الترجي التونسي وصن داونز بدوري أبطال إفريقيا.. مهمة صعبة للفوز!
القنوات الناقلة لمباراة الأهلي والرائد: كيف تشاهد المباراة في الدوري السعودي?
يا جماعة الخير: الزمالك وسموحة في مواجهة نارية بكأس القاهرة – اعرف الموعد
شوف السر! أولمو يكشف سبب الفوز المثير على سيلتا فيجو ويؤكد قرب تحقيق الهدف
«بث مباشر» لمباراة الهلال وجوانزو اليوم في دوري أبطال آسيا 2023
«مباراة نارية» الجزائر وغامبيا اليوم.. القنوات الناقلة وتصفيات بطولة إفريقيا 2025