ChatGPT يتفوق على Gemini في 3 اختبارات حاسمة: العلم والبرمجة والتفكير المجرد
مع التطور السريع لأدوات الذكاء الاصطناعي، يزداد التحدي أمام المستخدمين لتحديد الأفضل بين العمالقة مثل ChatGPT من OpenAI وGemini من جوجل. وبدلاً من الاعتماد على الانطباعات الشخصية، يعتمد الخبراء على الاختبارات المعيارية (Benchmarks) المحايدة لقياس قدرات النماذج في مجالات مثل الاستدلال وحل المشكلات المعقدة. وتشير أحدث هذه الاختبارات إلى أن ChatGPT، خاصة الإصدار 5.2، يحافظ على تفوق واضح في ثلاث ساحات معرفية رئيسية على منافسه Gemini.
المجال الأول الذي يبرز فيه تفوق ChatGPT هو الإجابة على الأسئلة العلمية المعقدة التي تتطلب تفكيراً عميقاً على مستوى الدكتوراه، وتحديداً اختبار GPQA Diamond في الفيزياء والكيمياء والأحياء. هذه الأسئلة مصممة لتكون "مضادة لمحركات البحث"؛ أي أنها تتطلب ربط مفاهيم متعددة بدلاً من البحث السطحي. وقد سجل ChatGPT-5.2 نسبة مذهلة بلغت 92.4%، متقدماً بفارق بسيط على Gemini 3 Pro الذي حقق 91.9%. للمقارنة، متوسط إنجاز خريجي الدكتوراه في هذا الاختبار هو 65% فقط.
ثانياً، يظهر التفوق في حل المشكلات البرمجية الواقعية عبر اختبار SWE-Bench Pro، الذي يعتمد على تحديات فعلية مأخوذة من منصة GitHub تتطلب فهم شيفرات معقدة وأخطاء حقيقية. نجح ChatGPT-5.2 في حل حوالي 24% من هذه المشكلات الصعبة، بينما اقتصر أداء Gemini على 18%. ورغم أن هذه النسب تبدو متواضعة، إلا أنها تعكس الصعوبة الهائلة للاختبار الذي لا يزال الإنسان يتفوق فيه بنسبة 100%.
أما النقطة الثالثة الحاسمة فهي القدرة على حل الألغاز البصرية والتفكير المجرد عبر اختبار ARC-AGI-2. في هذا التحدي الذي يقيس استنتاج الأنماط من أمثلة محدودة، حقق ChatGPT-5.2 Pro نتيجة 54.2%، متجاوزاً بفارق كبير Gemini 3 Pro الذي سجل 31.1%. هذا المجال يعتبر من أصعب نقاط التحدي في الذكاء الاصطناعي، ويؤكد ريادة ChatGPT في التفكير غير المباشر.
تعتمد هذه المقارنة على أحدث الإصدارات المدفوعة لكلا النموذجين، مع التركيز على المعايير التي تختبر عمق الفهم بدلاً من سرعة الاستجابة. وعلى الرغم من وجود مجالات أخرى قد يتفوق فيها Gemini، فإن الأرقام الحالية تؤكد أن ChatGPT يمتلك ميزة تنافسية في المهام التي تستلزم استدلالاً علمياً وبرمجياً ومجردًا عالي المستوى.