← Torna alla home

Gratuito • Nessuna registrazione • Veloce

Calcolatore costi AI

Costo input

0,05 USD

Costo output

0,15 USD

Costo per richiesta

0,20 USD

Costo giornaliero

20,00 USD

Costo mensile

600,00 USD

Nota sui prezzi

I prezzi sono indicativi e basati sui listini pubblici per milione di token. I provider AI possono modificare i prezzi, applicare sconti a volume o usare tariffe diverse per token in cache, API batch o fatturazione regionale. Verifica sempre i prezzi aggiornati sul sito ufficiale del provider prima di prendere decisioni di produzione.

Strumenti utili collegati

  • Token Estimator Stima quanti token può usare una prompt, un testo o un payload JSON.
  • JSON Formatter Formatta payload API e risposte dei modelli prima di stimare o fare debug delle chiamate AI.
  • JWT Encoder / Decoder Decodifica o genera token JWT quando testi workflow AI e API autenticati.

Come funziona

Stima i costi API dei modelli AI di OpenAI, Anthropic e Google in base a token di input, token di output e numero di richieste giornaliere.

Esempi pratici

Stima il costo di un chatbot

Usa una media di token di input e output per conversazione e moltiplica per il numero di conversazioni giornaliere.

Confronta i modelli prima di rilasciare una feature

Cambia provider e modello per capire quanto la scelta del modello incide sul costo per richiesta, giornaliero e mensile.

Pianifica i costi AI di un prodotto SaaS

Stima quanto può costare una funzionalità quando viene usata centinaia o migliaia di volte al giorno.

Domande frequenti

Come viene calcolato il costo AI?

Il calcolatore moltiplica i token di input per il prezzo di input del modello e i token di output per il prezzo di output, usando il costo per un milione di token. Il risultato viene poi moltiplicato per il numero di richieste giornaliere per stimare costo giornaliero e costo mensile.

I prezzi sono sempre aggiornati?

No. I prezzi possono cambiare spesso e i provider possono applicare tariffe specifiche per token in cache, processi batch, contratti enterprise o fatturazione regionale. Considera il risultato come una stima e verifica sempre la pagina ufficiale dei prezzi.

Perché input e output hanno prezzi diversi?

Molti provider LLM applicano prezzi diversi ai token inviati al modello e ai token generati dal modello. I token di output sono spesso più costosi perché richiedono lavoro di generazione durante l'inferenza.

Posso usarlo insieme al Token Estimator?

Sì. Prima stima quanti token usa una prompt o un testo, poi usa quei valori qui per stimare il costo del workload su un modello AI.

Prova anche questi strumenti