I token ti aiutano a controllare come risponde ChatGPT. Ecco cosa sono e come usarli.
ChatGPT ha preso d'assalto il mondo tecnologico e non mancano progressi e aggiornamenti. Ma nonostante l'uso della tecnologia avanzata, ci sono alcuni fattori limitanti all'interno della versione attuale.
Uno di questi fattori è il sistema di token, che continua a interrompere il ciclo evolutivo, mettendo in ginocchio l'utilità dell'app. Se usi ChatGPT, potresti voler conoscere i token di ChatGPT e cosa fare quando finisci i token.
Facciamo un passo indietro e ti diamo un'idea di tutto ciò che c'è da sapere sui meccanismi di funzionamento alla base dell'app.
Cos'è un token ChatGPT?
Se segui la facciata dell'app, tutto ciò che vedi è un linguaggio informatico che obbedisce ai tuoi comandi e ti dà le risposte che cerchi. Tuttavia, il back-end è solo un sacco di codice, che impara ogni minuto e si aggiorna con le domande a cui risponde.
ChatGPT converte ogni parola in un token leggibile ogni volta che fai una domanda. Per scomporlo ulteriormente, i token sono frammenti di testo e ogni linguaggio di programmazione utilizza un diverso set di valori token per comprendere i requisiti.
Poiché i computer non comprendono direttamente i valori del testo, li scompongono in una combinazione di numeri, spesso chiamati incorporamenti. Puoi anche considerare incorporamenti come Liste di Python, che assomigliano a un elenco di numeri correlati, come [1.1,2.1,3.1,4.1…n].
Una volta che ChatGPT prende l'input iniziale, cerca di prevedere il prossimo input possibile in base alle informazioni precedenti. Seleziona l'intero elenco di token precedenti e, utilizzando la sua sintesi di codifica, tenta di anticipare l'input successivo da parte dell'utente. Utilizza e prevede un token alla volta per semplificare la comprensione dell'utilizzo da parte del linguaggio.
Per migliorare le previsioni e migliorare la precisione, raccoglie l'intero elenco di incorporamenti e lo passa attraverso i livelli di trasformazione per stabilire associazioni tra le parole. Ad esempio, quando fai una domanda come "Chi è Thomas Edison?", ChatGPT raccoglie le parole più preziose nell'elenco: Chi E Edison.
Gli strati del trasformatore hanno il loro ruolo da svolgere nell'intero processo. Questi livelli sono una forma di architettura di rete neurale addestrata a raccogliere le parole chiave più rilevanti da una stringa di parole. Tuttavia, il processo di addestramento non è così semplice come sembra, poiché richiede molto tempo per addestrare i livelli del trasformatore su gigabyte di dati.
Anche se ChatGPT prevede solo un token alla volta, la sua tecnologia di regressione automatica è programmata per prevedere e alimentare il modello primario per rilasciare l'output. Il modello è ottimizzato per essere eseguito solo una volta per ogni token, quindi il risultato viene stampato una parola alla volta. L'output si interrompe automaticamente quando l'applicazione incontra un comando stop token.
Ad esempio, se guardi il calcolatore di token sul sito Web di ChatGPT, puoi calcolare l'utilizzo del token in base alle tue domande.
Inseriamo un testo di esempio, ad esempio:
Come spiego l'uso dei token In Chat GPT?
Secondo la calcolatrice, ci sono 46 caratteri in questa stringa, che consumerà 13 token. Se lo scomponi in Token ID, è simile a questo:
[2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30]
Come per il Calcolatore di token OpenAI:
Una regola empirica utile è che un token generalmente corrisponde a ~4 caratteri di testo per il testo inglese comune. Questo si traduce in circa ¾ di una parola (quindi 100 token ~= 75 parole).
Gratuito vs. Token a pagamento
Per darti un'idea di cosa c'è all'interno dell'applicazione ChatGPT, OpenAI ti offre un abbonamento token limitato gratuito. Se desideri sperimentare l'API ChatGPT, utilizza il credito gratuito di $ 5, valido per tre mesi. Una volta esaurito il limite (o il periodo di prova è scaduto), puoi pagare in base al consumo, che aumenta la quota massima a $ 120.
ChatGPT Plus: vale la pena l'abbonamento a pagamento?
Per fare un salto di qualità, puoi persino iscriverti al Offerta ChatGPT Plus, che ti riporta indietro di $ 20 al mese. Dato l'ampio utilizzo e la popolarità dell'intero modello AI, ecco le caratteristiche principali del modello di abbonamento a pagamento:
- Accesso a ChatGPT, anche quando il sito Web sta subendo tempi di inattività a causa di un afflusso di utenti
- Tassi di risposta migliorati
- Accesso diretto a nuove funzionalità e versioni
Se ritieni che queste funzionalità valgano la pena e siano all'altezza, puoi iscriverti all'abbonamento a pagamento e trarne vantaggio immediatamente.
Struttura dei prezzi dei token ChatGPT
Sono disponibili diversi modelli di applicazione, che puoi scegliere in base alle tue esigenze:
Modello |
Prezzo per 1000 token (prompt) |
Prezzo per 1000 token (completamento) |
---|---|---|
Ada |
$0.0004 |
$0.0004 |
Babbage |
$0.0005 |
$0.0005 |
Curie |
$0.0020 |
$0.0020 |
Da Vinci |
$0.0200 |
$0.0200 |
ChatGPT |
$0.0020 |
$0.0020 |
Contesto GPT-4 8k |
$0.0300 |
$0.0600 |
Contesto GPT-4 32k |
$0.0600 |
$0.1200 |
Ada è il più veloce, mentre DaVinci è il modello più potente di questo elenco di modelli. Il prompt è la domanda, mentre il completamento si occupa delle risposte.
Limiti massimi dei token
Ogni modello consente di impostare il numero massimo di token all'interno di ciascuna query. Questo metodo controlla il numero massimo di token che l'applicazione genera in una singola chiamata, limitando l'output. La funzione max_token è piuttosto utile, soprattutto quando si desidera controllare la lunghezza dell'output evitando di utilizzare in modo eccessivo l'utilizzo e i crediti del token. La lunghezza predefinita è fissata a 2048 token, mentre il massimo può essere impostato a 4096 token.
Limitare l'utilizzo del token può comportare risposte brevi, che potrebbero limitare l'output e rovinare la tua esperienza di utilizzo.
ChatGPT3 ha un limite massimo di 4096; tuttavia, con l'introduzione di ChatGPT4, i limiti dei token sono aumentati, come segue:
Modello |
Prezzo per 1000 token (prompt) |
---|---|
Ada |
2048 |
Babbage |
2048 |
Curie |
2048 |
Da Vinci |
4096 |
ChatGPT |
4096 |
Contesto GPT-4 8k |
8192 |
Contesto GPT-4 32k |
32768 |
Se l'output viene troncato, devi aumentare il limite massimo specificato dalla tua dashboard. Ricorda, la somma del tuo prompt e dei token massimi dovrebbe essere sempre inferiore al limite massimo di token del modello.
Ad esempio, all'interno del modello ChatGPT, il prompt_token + max_token <= 4096 gettoni.
Impara a controllare il tuo ChatGPT richiede i migliori risultati
Non importa come utilizzi l'applicazione guidata dall'intelligenza artificiale, è probabile che dovrai escogitare modi per giocare in modo intelligente con le tue domande e frasi. A seconda dei tuoi modelli di utilizzo, probabilmente utilizzerai ampiamente ChatGPT per ogni attività.
Per ottenere i migliori risultati, devi imparare a lavorare con la metodologia dei token e migliorare le tue abilità per garantire che i tuoi limiti di utilizzo rimangano intatti, dandoti le migliori risposte possibili.