L'elevato costo dell'utilizzo di grandi modelli di IA è una delle ragioni principali per cui molte applicazioni di IA non sono ancora state implementate e promosse. La scelta di prestazioni estreme comporta enormi costi di potenza di calcolo, che portano a costi di utilizzo elevati che gli utenti comuni non possono accettare.
La competizione per i grandi modelli AI è come una guerra senza fumo. Dopo che DeepSeek ha rilasciato e reso open source l'ultimo modello R1 large, OpenAI ha rilasciato anche il suo ultimo modello o3 sotto pressione. Anche il player dei grandi modelli Google ha dovuto unirsi alla feroce competizione per i modelli a basso costo.
La nuova mossa di Google: svelati i nuovi membri della serie Gemini
Nella prima mattinata del 6 febbraio, Google ha lanciato una serie di nuove versioni del modello Gemini. Tra queste, la versione sperimentale di Gemelli 2.0 Pro e la versione di anteprima di Gemini 2.0 Flash – Lite hanno attirato molta attenzione e l'ultima versione di Gemini 2.0 Flash è stata ufficialmente rilasciata.
Come nuova variante, Google Gemelli 2.0 Flash – Lite ha un prezzo molto interessante, pari a soli 0,3 USD per milione di token, il che lo rende il modello più conveniente di Google fino ad oggi.
La versione sperimentale di Gemini 2.0 Pro, d'altro canto, è dotata di potenti funzionalità multimodali native in grado di convertire testo, audio e video.
La versione sperimentale di Gemini 2.0 Flash Thinking è gratuita e consente anche di accedere, estrarre e riassumere il contenuto dei video di YouTube.
Logan Kilpatrick, responsabile dei prodotti Google AI Studio, ha annunciato sulla piattaforma X che questi modelli sono "i modelli più potenti nella storia di Google" e sono disponibili per tutti gli sviluppatori.
Le prestazioni impressionanti dei nuovi modelli Gemini e i risultati in classifica
Nella classifica Chatbot Arena Large Model, Gemini 2.0 Flash Thinking Experimental Edition e Gemini 2.0 Pro Experimental Edition hanno ottenuto risultati eccezionali. Rispetto ai precedenti modelli Google large, Gemini 2.0 ha fatto grandi progressi e, cosa prevedibile, ha raggiunto con successo la vetta della classifica, con un punteggio combinato che supera ChatGPT-4o e DeepSeek-R1. Si tratta di un enorme miglioramento.
Questo risultato si basa su una valutazione completa delle capacità dei modelli di grandi dimensioni in vari ambiti, tra cui matematica, codifica ed elaborazione multilingue.
Prezzo e prestazioni: ogni variante di Gemini 2.0 ha i suoi vantaggi
Le diverse versioni di Gemini 2.0 hanno le loro caratteristiche in termini di prezzo e prestazioni. È stato raggiunto un equilibrio tra prestazioni e prezzo, dando agli utenti più scelta. Le API delle diverse versioni di Gemini 2.0 possono essere chiamate tramite Google AI Studio e Vertex AI. Sviluppatori e utenti possono scegliere la versione appropriata in base alle loro esigenze.
Gemini 2.0 ha fatto grandi progressi e sviluppi rispetto a Gemini 1.5. Sebbene le diverse versioni di Gemini 2.0 presentino delle differenze, sono state tutte migliorate nel complesso. In particolare, devi determinare lo scenario che stai utilizzando, e poi puoi scegliere meglio il modello Gemini più adatto a te.
In termini di prezzo, Gemini 2.0 Flash e Gemini 2.0 Flash – Lite si concentrano su un'implementazione leggera. Supportano fino a 1 milione di token nella lunghezza della finestra di contesto e, in termini di prezzo, la distinzione tra elaborazione di testo lungo e breve in Gemini 1.5 Flash è stata rimossa e il prezzo è unificato a un prezzo di token unitario.
Gemini 2.0 Flash costa 0,4 USD per milione di token per l'output di testo, ovvero la metà del prezzo di Gemini 1.5 Flash quando si elaborano testi lunghi.
Gemini 2.0 Flash – Lite è ancora migliore nell'ottimizzazione dei costi in scenari di output di testo su larga scala, con un prezzo di output di testo di 0,3 USD per milione di token. Anche il CEO di Google Sundar Pichai lo ha elogiato come "efficiente e potente".
In termini di miglioramento delle prestazioni, Gemini 2.0 Flash ha funzioni di interazione multimodale più complete rispetto alla versione Lite. È programmato per supportare l'output di immagini, nonché input e output bidirezionali in tempo reale a bassa latenza di modalità come testo, audio e video.
La versione sperimentale di Gemini 2.0 Pro eccelle in termini di prestazioni di codifica e prompt complessi. La sua finestra di contesto può raggiungere fino a 2 milioni di token e la sua capacità generale è aumentata da 75,8% a 79,1% rispetto alla generazione precedente, il che rappresenta una differenza significativa nella capacità di codifica e ragionamento con Gemini 2.0 Flash e Gemini 2.0 Flash – Lite.
Il team dell'applicazione Gemini ha affermato sulla piattaforma X che gli utenti di Gemini Advanced possono accedere alla versione sperimentale Gemini 2.0 Pro tramite il menu a discesa del modello, mentre la versione sperimentale Gemini 2.0 Flash Thinking è gratuita per gli utenti dell'applicazione Gemini e può essere utilizzata insieme a YouTube, Google Search e Google Maps.
Contrastare la concorrenza: il modello di Google per la concorrenza economica
In un momento in cui il costo dello sviluppo del modello è diventato un argomento scottante nel settore, il lancio del DeepSeek – R1, open source, economico e ad alte prestazioni, ha avuto un impatto sull'intero settore.
Durante la conference call successiva alla pubblicazione del rapporto finanziario di Google sul quarto trimestre del 2024, Pichai, pur riconoscendo i risultati ottenuti da DeepSeek, ha anche sottolineato che la serie di modelli Gemini è leader nell'equilibrio tra costi, prestazioni e latenza e che le sue prestazioni complessive sono migliori di quelle dei modelli V3 e R1 di DeepSeek.
Dal punto di vista della classifica del test di benchmark delle prestazioni del modello grande LiveBench creato da Yang Likun e dal suo team, la classifica generale di Gemini 2.0 Flash è superiore a quella di DeepSeek V3 e o1 – mini di OpenAI, ma è dietro a DeepSeek – R1 e o1 di OpenAI. Tuttavia, il lancio di Gemini 2.0 Flash – Lite da parte di Google è come una carta vincente. Google spera di rendere gli ultimi modelli grandi accessibili a più persone, ridurre i costi di utilizzo degli utenti e spera di occupare un posto nella competizione tra aziende per prezzo/prestazioni.
Dopo che Google ha rilasciato il ultimo Gemini 2.0, un netizen ha iniziato a provare ad analizzare Gemini 2.0 Flash e altri popolari modelli deepseek e openai GPT-4o da solo. Ha scoperto che la nuova versione di Gemini 2.0 Flash supera gli altri due modelli in termini di prestazioni e costi. Questo ci offre anche uno sguardo allo sviluppo e all'evoluzione di Google, ed è un buon inizio.
Nello specifico, Gemini 2.0 Flash costa 0,1 USD per milione di token per l'input e 0,4 USD per l'output, entrambi molto più bassi di DeepSeek V3. Si tratta di un enorme miglioramento e sviluppo. Il netizen ha anche sottolineato sulla piattaforma X: "La versione ufficiale di Gemini 2.0 Flash costa un terzo di GPT-4o-mini, mentre è tre volte più veloce".
Una nuova tendenza nel mercato dei modelli di grandi dimensioni: il rapporto qualità-prezzo è fondamentale
Oggi, il settore dei grandi modelli è intrappolato in una nuova guerra dei prezzi. In passato, l'elevato costo dell'utilizzo di grandi modelli ha creato una certa resistenza al loro utilizzo e alla loro promozione. L'impatto della guerra dei prezzi per i grandi modelli innescata da DeepSeek sul mercato estero dei grandi modelli continua ancora a fermentare. Allo stesso tempo, l'opzione open source ha anche consentito a più utenti di comprendere e utilizzare gli ultimi risultati della ricerca sui grandi modelli. La strategia open source + prezzi bassi ha anche messo sotto pressione molte aziende americane di grandi modelli.
Google ha lanciato Gemini 2.0 Flash-Lite e OpenAI ha reso la funzione di ricerca ChatGPT disponibile gratuitamente a tutti gli utenti, in modo che gli utenti possano utilizzare la funzione di ricerca per completare attività più diversificate. Il team interno di Meta sta inoltre intensificando la ricerca sulle strategie di riduzione dei prezzi dei modelli di grandi dimensioni, promuovendo al contempo l'ulteriore sviluppo dei modelli di grandi dimensioni open source di Meta.
In questo campo altamente competitivo, nessuna azienda può sedersi comodamente al primo posto. Le aziende stanno cercando di attrarre e trattenere gli utenti migliorando l'economicità. Questa tendenza aiuterà i grandi modelli a passare dallo sviluppo puramente tecnologico a un'applicazione più ampia, e il futuro mercato dei grandi modelli continuerà a evolversi e cambiare nella competizione per l'economicità.