DeepSeek פרסמה את קוד המקור שלה, הסבר מפורט על FlashMLA

DeepSeek פרסמה את קוד המקור שלה, הסבר מפורט על FlashMLA

בשבוע שעבר, DeepSeek הודיעה כי תפתח חמישה פרויקטים בקוד פתוח בשבוע הבא: גולשים אמרו, "הפעם, OpenAI באמת כאן." זה עתה, הגיע פרויקט הקוד הפתוח הראשון, הקשור להאצת מסקנות, FlashMLA: כתובת פרויקט קוד פתוח: DeepSeek FlashMLA זה היה קוד פתוח כבר שעתיים, ול-Github כבר יש 2.7k+ כוכבים: ה...

מה זה FlashMLA? מדריך מקיף להשפעתו על ליבות פענוח בינה מלאכותית

מה זה FlashMLA? מדריך מקיף להשפעתו על ליבות פענוח בינה מלאכותית

FlashMLA זכה במהירות לתשומת לב בעולם הבינה המלאכותית, במיוחד בתחום מודלים של שפה גדולה (LLMs). הכלי החדשני הזה, שפותח על ידי DeepSeek, משמש כגרעין פענוח אופטימלי המיועד ל-Hopper GPUs - שבבים בעלי ביצועים גבוהים הנפוצים בחישובי AI. FlashMLA מתמקדת בעיבוד יעיל של רצפים באורך משתנה, מה שהופך אותו למתאים במיוחד...

Qwen2.5-max לעומת DeepSeek R1: השוואה עמוקה של מודלים: ניתוח מלא של תרחישי יישומים

Qwen2.5-max לעומת DeepSeek R1: השוואה עמוקה של מודלים: ניתוח מלא של תרחישי יישומים

מבוא כיום, מודלים של שפה גדולים (LLMs) ממלאים תפקיד מכריע. בתחילת 2025, עם התגברות התחרות על בינה מלאכותית, השיקה עליבאבא את דגם ה-AI החדש Qwen2.5-max, ו-DeepSeek, חברה מהאנגג'ואו, סין, השיקה את דגם ה-R1, המייצג את פסגת טכנולוגיית ה-LLM. Deepseek R1 הוא מודל AI בקוד פתוח שמשך אליו...

זה קרוב ל-DeepSeek-R1-32B ומרסק את ה-s1 של Fei-Fei Li! UC Berkeley ומודלים חדשים של SOTA בקוד פתוח אחרים

מודל ההסקה 32B משתמש רק ב-1/8 מהנתונים והוא קשור ל-DeepSeek-R1 באותו גודל! זה עתה, מוסדות כמו סטנפורד, UC Berkeley ואוניברסיטת וושינגטון שחררו יחד מודל הסקה ברמת SOTA, OpenThinker-32B, וגם קוד פתוח של עד 114 אלף נתוני אימון. דף הבית של פרויקט OpenThinker: OpenThinker Hugging Face:...

חפצי ניהול מודל שפה גדולים כגון DeepSeek: Cherry Studio, Chatbox, AnythingLLM, מי מאיץ היעילות שלך?

חפצי ניהול מודל שפה גדולים כגון DeepSeek: Cherry Studio, Chatbox, AnythingLLM, מי מאיץ היעילות שלך?

אנשים רבים כבר החלו לפרוס ולהשתמש ב-Deepseek Large Language Models באופן מקומי, תוך שימוש ב-Chatbox ככלי להדמיה מאמר זה ימשיך להציג שני חפצי ניהול ווויזואליזציה של מודלים גדולים של AI Large Language, וישווה בין השלושה בפירוט כדי לעזור לך להשתמש במודלים גדולים של AI ביעילות רבה יותר. בשנת 2025,…

לה צ'ט עומד בראש הטבלאות, עם השקעה של מאה מיליארד דולר. אחרי ארה"ב וסין, האם היא מעצמת הבינה המלאכותית השלישית?

ב-9 בפברואר הודיע נשיא צרפת עמנואל מקרון כי צרפת תשקיע 109 מיליארד יורו (113 מיליארד דולר) בתחום הבינה המלאכותית בשנים הקרובות. השקעה זו תשמש לבניית פארק בינה מלאכותית בצרפת, שיפור התשתית והשקעה בסטארט-אפים מקומיים של בינה מלאכותית. בינתיים, מיסטרל, סטארט-אפ צרפתי,...

מה יכול Deepseek להשיג? אפילו OpenAI לא יכול לעשות את זה?

הערך האמיתי של DeepSeek אינו מוערך! DeepSeek-R1 ללא ספק הביא גל חדש של התלהבות לשוק. לא רק שהיעדי המוטבים הרלוונטיים כביכול עולים בחדות, אלא שחלק מהאנשים אפילו פיתחו קורסים ותוכנה הקשורים ל-DeepSeek בניסיון להרוויח מזה כסף. אנו מאמינים שלמרות שלתופעות הללו יש…

מוצרי AI המיינסטרים בעולם מתמקדים בניתוח ובהנחיות מקיפות של חווית משתמש (כולל DeepSeek ו-GPT)

מוצרי AI המיינסטרים בעולם מתמקדים בניתוח ובהנחיות מקיפות של חווית משתמש (כולל DeepSeek ו-GPT)

מיצוב פונקציות וניתוח יתרון הליבה ChatGPT (OpenAI) – אמת המידה העולמית לגנים טכניים של ChatGPT מכל הסוגים: בינה מלאכותית מחוללת המבוססת על סדרת ה-GPT של מודלים גדולים, עם כישורי שיחה כלליים וחשיבה לוגית כיתרונות הליבה שלה. עיבוד רב לשוני: מתפקד בצורה הטובה ביותר באנגלית, עם שיפור מתמיד בסינית; אך אנו ממליצים להשתמש באנגלית כדי...

הסוד מאחורי DeepSeek 1 | פרטי DeepSeekMath ו-GRPO

הסוד מאחורי DeepSeek 1 | פרטי DeepSeekMath ו-GRPO

היום אני רוצה לשתף מאמר מ-DeepSeek, שכותרתו DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models. מאמר זה מציג את DeepSeekMath 7B, שהוכשר מראש על DeepSeek-Coder-Base-v1.5 7B המבוסס על אוסף של 120B אסימונים הקשורים למתמטיקה, שפה טבעית ונתוני קוד. הדגם השיג ציון מדהים של 51.7% ברמה תחרותית...

טכנולוגיית DeepSeek-R1 נחשפה: עקרונות הליבה של הנייר מפורקים והמפתח לביצועי מודל פורצי דרך נחשף

היום נשתף את DeepSeek R1, כותרת: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning: תמריץ את יכולת החשיבה של LLM באמצעות למידת חיזוק. מאמר זה מציג את הדור הראשון של דגמי החשיבה של DeepSeek, DeepSeek-R1-Zero ו-DeepSeek-R1. מודל DeepSeek-R1-Zero הוכשר באמצעות למידת חיזוק בקנה מידה גדול (RL) ללא כוונון עדין מפוקח (SFT) כצעד ראשוני,...