Támad a Google fapados modellje, a Gemini 2.0 széria: a nagy modellek költséghatékonyságáért egyre élesebb a harc

Támad a Google fapados modellje, a Gemini 2.0 sorozat: a nagy modellek költséghatékonyságáért folytatott harc egyre élesebb

A nagy mesterségesintelligencia-modellek használatának magas költsége a fő oka annak, hogy sok mesterségesintelligencia-alkalmazást még nem vezettek be és nem népszerűsítettek. Az extrém teljesítmény választása hatalmas számítási energiaköltséget jelent, ami olyan magas használati költségekhez vezet, amelyeket a hétköznapi felhasználók nem tudnak elfogadni. A nagy mesterséges intelligencia modellekért folyó verseny olyan, mint egy háború füst nélkül. Után…

A Gemini 2.0 uralja a listákat, míg az DeepSeek V3 sír az árában, és új, költséghatékony bajnok született!

A Gemini 2.0 uralja a listákat, míg az DeepSeek V3 sír az árában, és új, költséghatékony bajnok született!

Végre elkészült a Google Gemini 2.0 család! Megjelenésétől kezdve uralja a slágerlistákat. A Deepseek, a Qwen és az o3 üldözése és blokádjai közepette a Google ma kora reggel három modellt adott ki egyszerre: Gemini 2.0 Pro, Gemini 2.0 Flash és Gemini 2.0 Flash-Lite. A nagy modell LMSYS rangsorán a Gemini…

a16z párbeszéd a 27 éves vezérigazgatóval: Az AI Agent hatalmas kiegyenlítő hatással bír, és a hosszú távú árazás a munkaerőköltségekhez lesz kötve

a16z párbeszéd a 27 éves vezérigazgatóval: Az AI Agent hatalmas kiegyenlítő hatással bír, és a hosszú távú árazás a munkaerőköltségekhez lesz kötve

Főbb jellemzők Az AI-ügynök átformálja az ügyfélélményt Jesse Zhang: Hogyan épül fel valójában egy ügynök? Az a véleményünk, hogy idővel egyre inkább egy természetes nyelv alapú ügynökhöz fog hasonlítani, mert így képezik a nagy nyelvi modelleket (LLM). Hosszú távon, ha van egy szuper intelligens ügynöke, aki…

Cathie Wood: Az DeepSeek csak felgyorsítja a költségcsökkentési folyamatot; a nagy gazdasági világválsághoz hasonlítható extrém koncentrált piaci struktúra megváltozik

Fénypontok Az DeepSeek-vel folytatott verseny jót tesz az amerikai Cathie Woodnak: Szerintem ez azt mutatja, hogy az innováció költségei drámaian csökkennek, és ez a tendencia már elkezdődött. Például az DeepSeek előtt a mesterséges intelligencia képzésének költsége 75%-vel csökkent évente, és a következtetések költsége még 85%-vel is...

A Google egyszerre három új modellt adott ki: a Gemini-2.0-Pro ingyenes, kiemelkedő pontszámmal rendelkezik és első helyen áll, valamint alkalmas összetett promptok kódolására és feldolgozására!

A Gemini 2.0 története felgyorsul. A decemberi Flash Thinking Experimental verzió egy működő modellt hozott a fejlesztőknek alacsony késleltetéssel és nagy teljesítménnyel. Az év elején a 2.0 Flash Thinking Experimental frissítésre került a Google AI Stúdióban, hogy a Flash sebességét a továbbfejlesztett következtetési képességekkel kombinálva tovább javítsák a teljesítményt. A múlt héten,…

Ali Qwen2.5-Max megelőzi az DeepSeek-V3-at! Netizen: A kínai mesterséges intelligencia gyorsan csökkenti a különbséget

Most egy újabb hazai modell került fel a Big Model Arena listájára Alitól, a Qwen2.5-Max, amely megelőzte az DeepSeek-V3-at, és 1332 összpontszámmal a hetedik helyet szerezte meg az összesített rangsorban. Egyben megelőzte az olyan modelleket is, mint a Claude 3.5 Sonnet és a Llama 3.1 405B. Különösen a programozásban jeleskedik…

Friss hírek! Az DeepSeek kutatója online felfedi: az R1 képzése mindössze két-három hétig tartott, és az R1 nulla erőteljes fejlődését figyelték meg a kínai újév ünnepe alatt

Friss hírek! Az DeepSeek kutatója online felfedi: az R1 képzése mindössze két-három hétig tartott, és az R1 nulla erőteljes fejlődését figyelték meg a kínai újév ünnepe alatt

Friss hírek! Az DeepSeek kutatója online elárulta: az R1 képzése mindössze két-három hétig tartott, és az R1 nulla erőteljes fejlődését figyelték meg a kínai újév ünnepe alatt Épp most vettük észre, hogy az DeepSeek kutatója, Daya Guo válaszolt a netezők DeepSeek R1-vel és a cég terveivel kapcsolatos kérdéseire. megy előre. Csak azt mondhatjuk…

Az DeepSeek R1 lett az első a kreatív írásbeli tesztben, és az o3 mini még rosszabb volt, mint az o1 mini!

Az DeepSeek R1 lett az első a kreatív írásbeli tesztben, és az o3 mini még rosszabb volt, mint az o1 mini!

Az DeepSeek R1 nyerte a kreatív novellaírás benchmark tesztjének bajnokságát, sikeresen megelőzve a korábbi domináns játékost, Claude 3.5 Sonnet-t! Benchmark-teszt A Lech Mazur kutató által tervezett benchmark-teszt nem egy átlagos írásverseny. Minden mesterséges intelligenciamodellnek 500 novellát kellett befejeznie, és minden egyes történetbe ügyesen kellett beépíteni...

Hogyan jött létre az DeepSeek? Az DeepSeek növekedési történetének elemzése

Hogyan jött létre az DeepSeek? Az DeepSeek növekedési történetének elemzése

A jövőben egyre több és több hardcore innováció lesz. Lehet, hogy ezt most nem könnyű megérteni, mert az egész társadalmi csoportot tényekkel kell nevelni. Amikor ez a társadalom megengedi a hardcore innovációt folytató embereknek, hogy sikeresek legyenek, a kollektív gondolkodásmód meg fog változni. Csak egy csomó tényre és egy folyamatra van szükségünk.....

DeepSeek megcsinálta! Az OpenAI elismeri zárt forráskódú hibáját, az élvonalbeli előny egyre kisebb lesz

DeepSeek megcsinálta! Az OpenAI elismeri zárt forráskódú hibáját, az élvonalbeli előny egyre kisebb lesz

Miután az OpenAI kiadta az o3-mini modellt, Sam Altman vezérigazgató, Mark Chen kutatási igazgató, Kevin Weil termékigazgató, Srinivas Narayanan műszaki alelnök, Michelle Pokrass, az API-kutatás vezetője és Hongyu Ren, a kutatás vezetője online technikai kérdés-feleletet adott a reddit-en, a világ egyik legnagyobb átfogó fórumán. A fő témák...