Le modèle low cost de Google, la série Gemini 2.0, attaque : la bataille pour la rentabilité des grands modèles s'intensifie

Le modèle low cost de Google, la série Gemini 2.0, attaque : la bataille pour la rentabilité des grands modèles s'intensifie

Le coût élevé de l’utilisation de grands modèles d’IA est l’une des principales raisons pour lesquelles de nombreuses applications d’IA n’ont pas encore été mises en œuvre et promues. Le choix de performances extrêmes implique des coûts de puissance de calcul énormes, ce qui entraîne des coûts d’utilisation élevés que les utilisateurs ordinaires ne peuvent pas accepter. La compétition pour les grands modèles d’IA est comme une guerre sans fumée. Après…

Gemini 2.0 domine les charts, tandis que DeepSeek V3 pleure son prix, et un nouveau champion économique est né !

Gemini 2.0 domine les charts, tandis que DeepSeek V3 pleure son prix, et un nouveau champion économique est né !

La famille Google Gemini 2.0 est enfin au complet ! Elle domine les classements dès sa sortie. Au milieu de la poursuite et des blocages de Deepseek, Qwen et o3, Google a sorti trois modèles d'un coup tôt ce matin : Gemini 2.0 Pro, Gemini 2.0 Flash et Gemini 2.0 Flash-Lite. Dans le classement des grands modèles LMSYS, Gemini…

Dialogue d'a16z avec le PDG de 27 ans : l'agent IA a un effet de levier énorme et la tarification à long terme sera liée aux coûts de main-d'œuvre

Dialogue d'a16z avec le PDG de 27 ans : l'agent IA a un effet de levier énorme et la tarification à long terme sera liée aux coûts de main-d'œuvre

Points forts L'agent IA remodèle l'expérience client Jesse Zhang : Comment un agent est-il réellement construit ? Nous pensons qu'au fil du temps, il ressemblera de plus en plus à un agent basé sur le langage naturel, car c'est ainsi que les grands modèles de langage (LLM) sont formés. À long terme, si vous avez un agent super intelligent qui…

Cathie Wood : DeepSeek ne fait qu'accélérer le processus de réduction des coûts ; la structure de marché extrêmement concentrée comparable à celle de la Grande Dépression va changer

Points forts La concurrence avec DeepSeek est bonne pour les États-Unis Cathie Wood : Je pense que cela montre que le coût de l’innovation est en baisse spectaculaire et que cette tendance a déjà commencé. Par exemple, avant DeepSeek, le coût de la formation de l’intelligence artificielle a chuté de 75% par an, et le coût de l’inférence a même chuté de 85% pour atteindre 10 ...

Google a publié trois nouveaux modèles à la fois : Gemini-2.0-Pro est gratuit, a un score exceptionnel et se classe au premier rang, et convient au codage et au traitement d'invites complexes !

L'histoire de Gemini 2.0 s'accélère. La version Flash Thinking Experimental de décembre a apporté aux développeurs un modèle fonctionnel avec une faible latence et des performances élevées. Plus tôt cette année, Flash Thinking Experimental 2.0 a été mis à jour dans Google AI Studio pour améliorer encore les performances en combinant la vitesse de Flash avec des capacités d'inférence améliorées. La semaine dernière,…

Ali Qwen2.5-Max dépasse DeepSeek-V3 ! Un internaute : l'IA chinoise comble rapidement l'écart

Tout à l'heure, un autre modèle national a été ajouté à la liste Big Model Arena d'Ali, le Qwen2.5-Max, qui a surpassé le DeepSeek-V3 et s'est classé septième au classement général avec un score total de 1332. Il a également surpassé d'un seul coup des modèles tels que Claude 3.5 Sonnet et Llama 3.1 405B. En particulier, il excelle dans la programmation…

Dernières nouvelles ! Un chercheur de DeepSeek révèle en ligne : la formation de R1 n'a pris que deux à trois semaines, et une puissante évolution de R1 zéro a été observée pendant les vacances du Nouvel An chinois

Dernières nouvelles ! Un chercheur de DeepSeek révèle en ligne : la formation de R1 n'a pris que deux à trois semaines, et une puissante évolution de R1 zéro a été observée pendant les vacances du Nouvel An chinois

Dernières nouvelles ! Un chercheur de DeepSeek révèle en ligne : la formation de R1 n'a pris que deux à trois semaines, et une puissante évolution de R1 zéro a été observée pendant les vacances du Nouvel An chinois. Tout à l'heure, nous avons remarqué que Daya Guo, chercheur de DeepSeek, a répondu aux questions des internautes sur DeepSeek R1 et les projets futurs de l'entreprise. Nous ne pouvons que dire…

DeepSeek R1 est arrivé premier au test d'écriture créative, et o3 mini était encore pire que o1 mini !

DeepSeek R1 est arrivé premier au test d'écriture créative, et o3 mini était encore pire que o1 mini !

DeepSeek R1 a remporté le championnat du test de référence pour l'écriture créative de nouvelles, en dépassant le précédent joueur dominant, Claude 3.5 Sonnet ! Test de référence Le test de référence conçu par le chercheur Lech Mazur n'est pas un concours d'écriture ordinaire. Chaque modèle d'IA devait écrire 500 nouvelles, et chacune d'entre elles devait intégrer intelligemment...

Comment DeepSeek a-t-il été créé ? Une analyse de l'historique de la croissance de DeepSeek

Comment DeepSeek a-t-il été créé ? Une analyse de l'historique de la croissance de DeepSeek

À l'avenir, il y aura de plus en plus d'innovations radicales. Ce n'est peut-être pas facile à comprendre aujourd'hui, parce que l'ensemble du groupe social a besoin d'être éduqué par des faits. Lorsque cette société permettra aux personnes qui innovent de façon radicale de réussir, l'état d'esprit collectif changera. Nous avons juste besoin d'un ensemble de faits et d'un processus....

DeepSeek l'a fait ! OpenAI admet avoir commis une erreur en matière de sources fermées, l'avantage de la technologie de pointe s'amenuise

DeepSeek l'a fait ! OpenAI admet avoir commis une erreur en matière de sources fermées, l'avantage de la technologie de pointe s'amenuise

Après la sortie du modèle o3-mini d'OpenAI, son PDG Sam Altman, son directeur de la recherche Mark Chen, son directeur des produits Kevin Weil, le vice-président de l'ingénierie Srinivas Narayanan, la responsable de la recherche sur les API Michelle Pokrass et la responsable de la recherche Hongyu Ren ont mené une séance de questions-réponses techniques en ligne sur reddit, l'un des plus grands forums de discussion au monde. Les principaux sujets...