أطلقت شركة DeepSeek الصينية نموذج الذكاء الاصطناعي DeepSeek V3، الذي حقق تفوقاً كبيراً في كتابة الأكواد البرمجية وإنشاء النصوص، متصدراً اختبارات الأداء أمام نماذج عالمية مثل Llama 3.1 من ميتا وGPT-4 من OpenAI.
يتميز النموذج الجديد بعدد هائل من المتغيرات، حيث يحتوي على 685 مليار متغير، متجاوزاً أكبر نموذج مفتوح المصدر لميتا بنسبة 1.6 مرة. كما دُرِّب على قاعدة بيانات تحتوي على 12.8 تريليون توكن، ما يعزز قدراته في الترجمة الفورية وكتابة الأكواد المتطورة.
وتم تدريب DeepSeek V3 خلال شهرين فقط باستخدام رقائق إنفيديا H800 وبميزانية قدرها 5.5 مليون دولار، وهو رقم منخفض مقارنة بنماذج الذكاء الاصطناعي الأخرى.
وعلى الرغم من إمكانياته، يعاني النموذج من قيود في الردود على الأسئلة المتعلقة بقضايا حساسة مثل مظاهرات تيانانمين، ما يعكس تدخل الحكومة الصينية في ضبط محتوى النماذج الذكية. كما يواجه مشكلة في تعريف نفسه أحياناً بأنه ChatGPT، مما يشير إلى احتمال تدريبه على محتوى مُنتج بواسطة OpenAI، وهو ما يتعارض مع سياسات الأخيرة.
ويُعد نموذج DeepSeek V3 جزءاً من الجهود الصينية لتعزيز حضورها في سباق الذكاء الاصطناعي العالمي. ومع استمرار تطور هذه النماذج، تشير التوقعات إلى أن 90% من المحتوى عبر الإنترنت بحلول عام 2026 سيكون مُنتجاً بواسطة الذكاء الاصطناعي.