المدونة

  • أصدر DeepSeek الكود المصدري الخاص به، وشرحًا تفصيليًا لـ FlashMLA
    في الأسبوع الماضي، أعلنت DeepSeek أنها ستفتح خمسة مشاريع مفتوحة المصدر الأسبوع المقبل: قال مستخدمو الإنترنت، "هذه المرة، OpenAI هنا حقًا". الآن، ظهر أول مشروع مفتوح المصدر، يتعلق بتسريع الاستدلال، FlashMLA: عنوان المشروع مفتوح المصدر: DeepSeek FlashMLA لقد كان مفتوح المصدر لمدة ساعتين، وحصل موقع Github بالفعل على أكثر من 2.7 ألف نجمة:...
  • ما هو FlashMLA؟ دليل شامل لتأثيره على نوى فك تشفير الذكاء الاصطناعي
    اكتسبت FlashMLA اهتمامًا سريعًا في عالم الذكاء الاصطناعي، وخاصة في مجال نماذج اللغة الكبيرة (LLMs). تعمل هذه الأداة المبتكرة، التي طورها DeepSeek، كنواة فك تشفير مُحسَّنة مصممة لوحدات معالجة الرسوميات Hopper - وهي شرائح عالية الأداء تُستخدم عادةً في حسابات الذكاء الاصطناعي. تركز FlashMLA على المعالجة الفعّالة للتسلسلات ذات الطول المتغير، مما يجعلها مناسبة بشكل خاص...
  • Qwen2.5-max مقابل DeepSeek R1: مقارنة عميقة بين النماذج: تحليل كامل لسيناريوهات التطبيق
    مقدمة تلعب نماذج اللغة الكبيرة (LLMs) اليوم دورًا حاسمًا. في أوائل عام 2025، مع اشتداد المنافسة على الذكاء الاصطناعي، أطلقت علي بابا نموذج الذكاء الاصطناعي الجديد Qwen2.5-max، وأطلقت شركة DeepSeek، وهي شركة من هانغتشو، الصين، نموذج R1، الذي يمثل قمة تكنولوجيا LLM. Deepseek R1 هو نموذج ذكاء اصطناعي مفتوح المصدر جذب...
  • إنه قريب من DeepSeek-R1-32B ويسحق s1 الخاص بـ Fei-Fei Li! جامعة كاليفورنيا في بيركلي ونماذج استدلال SOTA الجديدة مفتوحة المصدر الأخرى
    يستخدم نموذج الاستدلال 32B 1/8 فقط من البيانات ويتعادل مع DeepSeek-R1 من نفس الحجم! في الوقت الحالي، أصدرت مؤسسات مثل ستانفورد وجامعة كاليفورنيا في بيركلي وجامعة واشنطن نموذج استدلال على مستوى SOTA، OpenThinker-32B، كما قامت أيضًا بتوفير ما يصل إلى 114 ألف بيانات تدريبية مفتوحة المصدر. الصفحة الرئيسية لمشروع OpenThinker: OpenThinker Hugging Face:…

أنشئ حسابك المجاني اليوم!