You are currently viewing بحث: أدوات الذكاء الاصطناعي مثل ChatGPT وGemini “غير عقلانية”

بحث: أدوات الذكاء الاصطناعي مثل ChatGPT وGemini “غير عقلانية”

قد تتوقع أن يكون الذكاء الاصطناعي مثالاً على التفكير المنطقي، لكن الباحثين يؤكدون في دراسة جديدة أنه قد يكون غير منطقي أكثر من البشر. أخضع باحثون من جامعة كوليدج لندن سبعة من أفضل أنظمة الذكاء الاصطناعي لسلسلة من الاختبارات الكلاسيكية المصممة لاختبار المنطق البشري.

ووفقا لصحيفة ديلي ميل البريطانية، فقد تبين أنه حتى أفضل أنظمة الذكاء الاصطناعي أداءً كانت غير عقلانية وعرضة للأخطاء البسيطة، حيث حصلت معظم النماذج على إجابة خاطئة أكثر من نصف الوقت.



ومع ذلك، وجد الباحثون أيضًا أن هذه النماذج لم تكن غير عقلانية بنفس الطريقة مثل البشر، حيث رفض البعض الإجابة على الأسئلة المنطقية “لأسباب أخلاقية”.



وقالت أوليفيا ماكميلان سكوت، طالبة الدكتوراه في جامعة كاليفورنيا والمؤلفة الرئيسية للبحث: “استناداً إلى نتائج دراستنا وأبحاث أخرى حول نماذج اللغة الكبيرة، من الآمن أن نقول إن هذه النماذج لا تفكر بعد مثل البشر”. ورقة الكتاب.



اختبر الباحثون سبعة نماذج لغوية رئيسية مختلفة، بما في ذلك إصدارات مختلفة من ChatGPT من OpenAI، وMeta's Llama، وClaude 2، وGoogle Bard (المعروف الآن باسم Gemini)، ثم طلبوا مرارًا وتكرارًا من النماذج الاستجابة لسلسلة من اثني عشر لغزًا منطقيًا كلاسيكيًا، في الأصل. مصممة لاختبار مهارات التفكير لدى الناس.



غالبًا ما يكون البشر سيئين في هذه الأنواع من الاختبارات أيضًا، ولكن إذا كانت أنظمة الذكاء الاصطناعي “شبيهة بالإنسان” على الأقل، فإنها ستتخذ هذا القرار بناءً على نفس أنواع التحيزات.



ومع ذلك، وجد الباحثون أن استجابات الذكاء الاصطناعي لم تكن في كثير من الأحيان عقلانية أو إنسانية.



كما رفضت بعض روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقديم إجابات للعديد من الأسئلة لأسباب أخلاقية، حتى لو كانت الأسئلة بريئة تمامًا.



يشير الباحثون إلى أن هذا يرجع على الأرجح إلى عدم عمل ميزات الأمان بشكل صحيح واختيار الحذر المفرط.

اترك تعليقاً