أصدر DeepSeek الكود المصدري الخاص به، وشرحًا تفصيليًا لـ FlashMLA

أصدر DeepSeek الكود المصدري الخاص به، وشرحًا تفصيليًا لـ FlashMLA

في الأسبوع الماضي، أعلنت DeepSeek أنها ستفتح خمسة مشاريع مفتوحة المصدر الأسبوع المقبل: قال مستخدمو الإنترنت، "هذه المرة، OpenAI هنا حقًا". الآن، ظهر أول مشروع مفتوح المصدر، يتعلق بتسريع الاستدلال، FlashMLA: عنوان المشروع مفتوح المصدر: DeepSeek FlashMLA لقد كان مفتوح المصدر لمدة ساعتين، وحصل موقع Github بالفعل على أكثر من 2.7 ألف نجمة:...

ما هو FlashMLA؟ دليل شامل لتأثيره على نوى فك تشفير الذكاء الاصطناعي

ما هو FlashMLA؟ دليل شامل لتأثيره على نوى فك تشفير الذكاء الاصطناعي

اكتسبت FlashMLA اهتمامًا سريعًا في عالم الذكاء الاصطناعي، وخاصة في مجال نماذج اللغة الكبيرة (LLMs). تعمل هذه الأداة المبتكرة، التي طورها DeepSeek، كنواة فك تشفير مُحسَّنة مصممة لوحدات معالجة الرسوميات Hopper - وهي شرائح عالية الأداء تُستخدم عادةً في حسابات الذكاء الاصطناعي. تركز FlashMLA على المعالجة الفعّالة للتسلسلات ذات الطول المتغير، مما يجعلها مناسبة بشكل خاص...

Qwen2.5-max مقابل DeepSeek R1: مقارنة عميقة بين النماذج: تحليل كامل لسيناريوهات التطبيق

Qwen2.5-max مقابل DeepSeek R1: مقارنة عميقة بين النماذج: تحليل كامل لسيناريوهات التطبيق

مقدمة تلعب نماذج اللغة الكبيرة (LLMs) اليوم دورًا حاسمًا. في أوائل عام 2025، مع اشتداد المنافسة على الذكاء الاصطناعي، أطلقت علي بابا نموذج الذكاء الاصطناعي الجديد Qwen2.5-max، وأطلقت شركة DeepSeek، وهي شركة من هانغتشو، الصين، نموذج R1، الذي يمثل قمة تكنولوجيا LLM. Deepseek R1 هو نموذج ذكاء اصطناعي مفتوح المصدر جذب...

إنه قريب من DeepSeek-R1-32B ويسحق s1 الخاص بـ Fei-Fei Li! جامعة كاليفورنيا في بيركلي ونماذج استدلال SOTA الجديدة مفتوحة المصدر الأخرى

يستخدم نموذج الاستدلال 32B 1/8 فقط من البيانات ويتعادل مع DeepSeek-R1 من نفس الحجم! في الوقت الحالي، أصدرت مؤسسات مثل ستانفورد وجامعة كاليفورنيا في بيركلي وجامعة واشنطن نموذج استدلال على مستوى SOTA، OpenThinker-32B، كما قامت أيضًا بتوفير ما يصل إلى 114 ألف بيانات تدريبية مفتوحة المصدر. الصفحة الرئيسية لمشروع OpenThinker: OpenThinker Hugging Face:…

أدوات إدارة نماذج اللغة الكبيرة مثل DeepSeek: Cherry Studio، Chatbox، AnythingLLM، من هو مسرع الكفاءة الخاص بك؟

أدوات إدارة نماذج اللغة الكبيرة مثل DeepSeek: Cherry Studio، Chatbox، AnythingLLM، من هو مسرع الكفاءة الخاص بك؟

لقد بدأ العديد من الأشخاص بالفعل في نشر واستخدام نماذج اللغة الكبيرة Deepseek محليًا، باستخدام Chatbox كأداة تصور. ستستمر هذه المقالة في تقديم اثنين من أدوات إدارة وتصور نماذج اللغة الكبيرة AI، وستقارن الثلاثة بالتفصيل لمساعدتك على استخدام نماذج اللغة الكبيرة AI بكفاءة أكبر. في عام 2025،...

تتصدر مدينة لو تشات قائمة المدن الأكثر استثمارًا في العالم، باستثمارات بلغت مائة مليار دولار. فهل تصبح المدينة القوة الثالثة في مجال الذكاء الاصطناعي بعد الولايات المتحدة والصين؟

في التاسع من فبراير/شباط، أعلن الرئيس الفرنسي إيمانويل ماكرون أن فرنسا ستستثمر 109 مليارات يورو (113 مليار دولار أميركي) في مجال الذكاء الاصطناعي في السنوات القليلة المقبلة. وسيتم استخدام هذا الاستثمار لبناء حديقة للذكاء الاصطناعي في فرنسا، وتحسين البنية التحتية، والاستثمار في الشركات الناشئة المحلية في مجال الذكاء الاصطناعي. وفي الوقت نفسه، أعلنت شركة ميسترال الفرنسية الناشئة عن إطلاق مشروعها…

ما الذي يمكن لـ Deepseek تحقيقه؟ حتى OpenAI لا يمكنها القيام بذلك؟

القيمة الحقيقية لـ DeepSeek غير مقدرة! لقد جلب DeepSeek-R1 بلا شك موجة جديدة من الحماس إلى السوق. ليس فقط أن الأهداف ذات الصلة بما يسمى المستفيدين ترتفع بشكل حاد، بل إن بعض الأشخاص طوروا دورات وبرامج مرتبطة بـ DeepSeek في محاولة لكسب المال منها. نعتقد أنه على الرغم من أن هذه الظواهر لها تأثير سلبي على السوق، إلا أن هناك العديد من الأسباب التي تجعلها غير قادرة على تحمل التكاليف.

تركز منتجات الذكاء الاصطناعي السائدة في العالم على التحليل وإرشادات تجربة المستخدم الشاملة (بما في ذلك DeepSeek وGPT)

تركز منتجات الذكاء الاصطناعي السائدة في العالم على التحليل وإرشادات تجربة المستخدم الشاملة (بما في ذلك DeepSeek وGPT)

تحديد موضع الوظيفة وتحليل المزايا الأساسية ChatGPT (OpenAI) – المعيار العالمي للبرمجيات الشاملة الجينات التقنية ChatGPT: الذكاء الاصطناعي التوليدي القائم على سلسلة GPT من النماذج الكبيرة، مع المهارات العامة للمحادثة والاستدلال المنطقي كميزة أساسية. المعالجة متعددة اللغات: تعمل بشكل أفضل باللغة الإنجليزية، مع التحسن المستمر في اللغة الصينية؛ ولكننا نوصي باستخدام اللغة الإنجليزية...

السر وراء DeepSeek 1 | تفاصيل DeepSeekMath وGRPO

السر وراء DeepSeek 1 | تفاصيل DeepSeekMath وGRPO

أود اليوم أن أشارككم مقالاً من DeepSeek بعنوان DeepSeekMath: دفع حدود التفكير الرياضي في نماذج اللغة المفتوحة. يقدم هذا المقال DeepSeekMath 7B، والذي تم تدريبه مسبقًا على DeepSeek-Coder-Base-v1.5 7B استنادًا إلى مجموعة من 120B من الرموز المرتبطة بالرياضيات واللغة الطبيعية وبيانات الكود. حقق النموذج درجة مذهلة بلغت 51.7% في المستوى التنافسي...

تم الكشف عن تقنية DeepSeek-R1: تم تحليل المبادئ الأساسية للورقة وتم الكشف عن مفتاح أداء النموذج الرائد

اليوم سنشارك DeepSeek R1، العنوان: DeepSeek-R1: تحفيز القدرة على التفكير في LLMs عبر التعلم التعزيزي: تحفيز القدرة على التفكير في LLM عبر التعلم التعزيزي. تقدم هذه الورقة الجيل الأول من نماذج التفكير في DeepSeek، DeepSeek-R1-Zero وDeepSeek-R1. تم تدريب نموذج DeepSeek-R1-Zero من خلال التعلم التعزيزي واسع النطاق (RL) دون ضبط دقيق خاضع للإشراف (SFT) كخطوة أولية،...