GPT-4 è qui e queste sono le nuove funzionalità che dovresti provare.

OpenAI ha finalmente lanciato il suo tanto atteso aggiornamento GPT, GPT-4. Il Large Language Model (LLM) viene fornito con alcune nuove potenti funzionalità e capacità che hanno già scioccato gli utenti di tutto il mondo.

Oltre ad essere significativamente migliore di GPT-3.5, l'attuale LLM che alimenta il chatbot virale ChatGPT di OpenAI, GPT-4 può comprendere input più complessi, ha un limite di input di caratteri molto più ampio, ha capacità multimodali e, secondo quanto riferito, è più sicuro utilizzo.

1. GPT-4 può comprendere input più complessi

Una delle più grandi nuove funzionalità di GPT-4 è la sua capacità di comprendere prompt più complessi e sfumati. Secondo OpenAI, GPT-4 "mostra prestazioni a livello umano su vari benchmark professionali e accademici".

Ciò è stato dimostrato sottoponendo GPT-4 a diversi esami a livello umano e test standardizzati, come SAT, BAR e GRE, senza una formazione specifica. Non solo GTP-4 ha compreso e risolto questi test con un punteggio relativamente alto su tutta la linea, ma ha anche battuto ogni volta il suo predecessore, GPT-3.5.

instagram viewer

Credito immagine: OpenAI

La capacità di comprendere richieste di input più sfumate è anche aiutata dal fatto che GPT-4 ha un limite di parole molto più ampio. Il nuovo modello può gestire richieste di input fino a 25.000 parole (per il contesto, GPT-3.5 era limitato a 8.000 parole). Ciò influenzerà direttamente i dettagli che gli utenti possono inserire nei loro prompt, fornendo quindi al modello molte più informazioni con cui lavorare e producendo output più lunghi.

GPT-4 supporta anche oltre 26 lingue, incluse lingue con poche risorse come lettone, gallese e swahili. Se confrontato con la precisione a tre colpi sul benchmark MMLU, GPT-4 ha battuto GPT-3.5 e altri importanti LLM come PaLM e Chinchilla in termini di prestazioni in lingua inglese in 24 lingue.

2. Capacità multimodali

La versione precedente di ChatGPT era limitato ai soli prompt di testo. Al contrario, una delle funzionalità più recenti di GPT-4 sono le sue capacità multimodali. Il modello può accettare messaggi di testo e immagini.

Ciò significa che l'intelligenza artificiale può accettare un'immagine come input e interpretarla e comprenderla proprio come un messaggio di testo. Questa funzionalità copre tutte le dimensioni e i tipi di immagini e testo, inclusi documenti che combinano i due, schizzi disegnati a mano e persino schermate.

Tuttavia, le capacità di lettura delle immagini di GPT-4 vanno oltre la semplice interpretazione. OpenAI lo ha mostrato nel suo flusso di sviluppatori (sopra), dove ha fornito a GPT-4 un mockup disegnato a mano di un sito Web di barzellette. Il modello è stato incaricato di scrivere codice HTML e JavaScript per trasformare il mockup in un sito Web sostituendo le battute con quelle reali.

GPT-4 ha scritto il codice utilizzando il layout specificato nel mockup. Dopo il test, il codice ha prodotto un sito funzionante con, come puoi intuire, battute reali. Significa I progressi dell'IA significheranno la fine della programmazione? Non proprio, ma è comunque una funzionalità che tornerà utile nell'assistere i programmatori.

Per quanto promettente possa sembrare questa funzione, è ancora in anteprima di ricerca e non disponibile al pubblico. Inoltre, il modello impiega molto tempo per elaborare gli input visivi, con la stessa OpenAI che afferma che potrebbe richiedere lavoro e tempo per essere più veloce.

3. Maggiore manovrabilità

OpenAI afferma inoltre che GPT-4 ha un alto grado di manovrabilità. Ha anche reso più difficile per l'IA rompere il personaggio, il che significa che è meno probabile che fallisca se implementato in un'app per interpretare un determinato personaggio.

Gli sviluppatori possono prescrivere lo stile e il compito della loro intelligenza artificiale descrivendo la direzione nel messaggio "sistema". Questi messaggi consentono agli utenti dell'API di personalizzare pesantemente l'esperienza utente entro determinati limiti. Poiché questi messaggi sono anche il modo più semplice per eseguire il "jailbreak" del modello, stanno anche lavorando per renderli più sicuri. La demo per GPT-4 ha centrato questo punto convincendo un utente a cercare di impedire a GPT-4 di essere un tutor socratico e rispondere alla sua domanda. Tuttavia, il modello ha rifiutato di rompere il personaggio.

4. Sicurezza

OpenAI ha trascorso sei mesi a realizzare GPT-4 più sicuro e allineato. L'azienda afferma che è l'82% in meno di probabilità di rispondere alle richieste di contenuti inappropriati o altrimenti vietati, il 29% in più di probabilità di rispondere rispondere in conformità con le politiche di OpenAI alle richieste sensibili e il 40% in più di probabilità di produrre risposte fattuali rispetto a GPT-3.5.

Non è perfetto e puoi ancora aspettarti che di tanto in tanto "abbia allucinazioni" e puoi sbagliare nelle sue previsioni. Certo, GPT-4 ha percezioni e potere di previsione migliori, ma non dovresti comunque fidarti ciecamente dell'IA.

5. Miglioramenti delle prestazioni

Oltre a valutare le prestazioni del modello sugli esami umani, OpenAI ha anche valutato il bot su benchmark tradizionali progettati per modelli di machine learning.

Afferma che GPT-4 "supera notevolmente" gli LLM esistenti e "la maggior parte dei modelli all'avanguardia". Questi parametri di riferimento includono il già citato MMLU, AI2 Reasoning Challenge (ARC), WinoGrande, HumanEval e Drop, che mettono tutti alla prova le capacità individuali.

Troverai risultati simili confrontando le prestazioni sui benchmark della visione accademica. I test eseguiti includono VQAv2, TextVQA, ChartQA, AI2 Diagram (AI2D), DocVQA, Infographic VQA, TVQA e LSMDC, tutti con GPT-4 in cima. Tuttavia, OpenAI ha affermato che i risultati di GPT-4 in questi test "non rappresentano appieno l'estensione delle sue capacità" poiché i ricercatori continuano a trovare cose nuove e più impegnative che il modello può affrontare.

Piccolo passo per GPT-4, passo da gigante per l'IA

Con maggiore precisione, sicurezza d'uso e funzionalità avanzate, GPT-4 è stato rilasciato al pubblico tramite il piano di abbonamento mensile ChatGPT+ che costa 20 al mese. Inoltre, OpenAI ha collaborato con diverse organizzazioni per iniziare a creare prodotti rivolti ai consumatori con GPT-4. Microsoft Bing, Duolingo, Stripe, Be My Eyes e Khan Academy, tra gli altri, hanno già implementato GPT-4 nei loro prodotti.

GPT-4 potrebbe essere un aggiornamento incrementale rispetto a GPT-3.5, ma è una grande vittoria per l'IA in generale. Man mano che il modello diventa più accessibile, sia per l'utente medio che per gli sviluppatori attraverso la sua API, sembra che rappresenterà un buon caso per le implementazioni LLM in tutti i campi.