في الأسبوع الماضي، أعلنت DeepSeek أنها ستفتح خمسة مشاريع مفتوحة المصدر الأسبوع المقبل: قال مستخدمو الإنترنت، "هذه المرة، OpenAI هنا حقًا". الآن، ظهر أول مشروع مفتوح المصدر، يتعلق بتسريع الاستدلال، FlashMLA: عنوان المشروع مفتوح المصدر: DeepSeek FlashMLA لقد كان مفتوح المصدر لمدة ساعتين، وحصل موقع Github بالفعل على أكثر من 2.7 ألف نجمة:...
اكتسبت FlashMLA اهتمامًا سريعًا في عالم الذكاء الاصطناعي، وخاصة في مجال نماذج اللغة الكبيرة (LLMs). تعمل هذه الأداة المبتكرة، التي طورها DeepSeek، كنواة فك تشفير مُحسَّنة مصممة لوحدات معالجة الرسوميات Hopper - وهي شرائح عالية الأداء تُستخدم عادةً في حسابات الذكاء الاصطناعي. تركز FlashMLA على المعالجة الفعّالة للتسلسلات ذات الطول المتغير، مما يجعلها مناسبة بشكل خاص...
مقدمة تلعب نماذج اللغة الكبيرة (LLMs) اليوم دورًا حاسمًا. في أوائل عام 2025، مع اشتداد المنافسة على الذكاء الاصطناعي، أطلقت علي بابا نموذج الذكاء الاصطناعي الجديد Qwen2.5-max، وأطلقت شركة DeepSeek، وهي شركة من هانغتشو، الصين، نموذج R1، الذي يمثل قمة تكنولوجيا LLM. Deepseek R1 هو نموذج ذكاء اصطناعي مفتوح المصدر جذب...
يستخدم نموذج الاستدلال 32B 1/8 فقط من البيانات ويتعادل مع DeepSeek-R1 من نفس الحجم! في الوقت الحالي، أصدرت مؤسسات مثل ستانفورد وجامعة كاليفورنيا في بيركلي وجامعة واشنطن نموذج استدلال على مستوى SOTA، OpenThinker-32B، كما قامت أيضًا بتوفير ما يصل إلى 114 ألف بيانات تدريبية مفتوحة المصدر. الصفحة الرئيسية لمشروع OpenThinker: OpenThinker Hugging Face:…