LangChain LLM è il discorso caldo della città. Ottieni una panoramica di cos'è e come puoi iniziare a usarlo.

Con l'introduzione dei modelli di linguaggio di grandi dimensioni (LLM), l'elaborazione del linguaggio naturale ha fatto parlare di sé di Internet. Nuove applicazioni vengono sviluppate quotidianamente grazie a LLM come ChatGPT e LangChain.

LangChain è un framework Python open source che consente agli sviluppatori di sviluppare applicazioni basate su modelli di linguaggio di grandi dimensioni. Le sue applicazioni sono chatbot, sintesi, domande e risposte generative e molte altre.

Questo articolo fornirà un'introduzione a LangChain LLM. Tratterà i concetti di base, come si confronta con altri modelli linguistici e come iniziare con esso.

Comprensione del LangChain LLM

Prima di spiegare come funziona LangChain, devi prima capire come funzionano i modelli linguistici di grandi dimensioni. Un modello di linguaggio di grandi dimensioni è un tipo di intelligenza artificiale (AI) che utilizza l'apprendimento profondo

instagram viewer
per addestrare i modelli di machine learning su big data costituiti da dati testuali, numerici e di codice.

La grande quantità di dati consente al modello di apprendere i modelli esistenti e le relazioni tra parole, figure e simboli. Questa funzione consente al modello di eseguire una serie di attività, come:

  • Generazione di testo, traduzione in lingua, scrittura di contenuti creativi, tecnici e accademici e risposta a domande accurate e pertinenti.
  • Rilevamento di oggetti nelle immagini.
  • Riassunto di libri, articoli e documenti di ricerca.

Il limite più significativo degli LLM è che i modelli sono molto generali. Questa caratteristica significa che, nonostante la loro capacità di eseguire diverse attività in modo efficace, a volte possono fornire risposte generali a domande o suggerimenti che richiedono esperienza e una profonda conoscenza del dominio invece che specifiche risposte.

Sviluppato da Harrison Chase alla fine del 2022, il framework LangChain offre un approccio innovativo agli LLM. Il processo inizia preelaborando i testi del set di dati scomponendolo in parti più piccole o sommari. I riepiloghi vengono quindi incorporati in uno spazio vettoriale. Il modello riceve una domanda, cerca i riepiloghi e fornisce la risposta appropriata.

Il metodo di preelaborazione di LangChain è una caratteristica fondamentale che è inevitabile man mano che gli LLM diventano più potenti e ad alta intensità di dati. Questo metodo è utilizzato principalmente nei casi di ricerca semantica e di codice perché fornisce la raccolta e l'interazione in tempo reale con gli LLM.

LangChain LLM vs. Altri modelli linguistici

La seguente panoramica comparativa mira a evidenziare le caratteristiche e le capacità uniche che distinguono LangChain LLM dagli altri modelli linguistici esistenti sul mercato:

  • Memoria: Diversi LLM hanno una memoria corta, che di solito si traduce in una perdita di contesto se i prompt superano il limite di memoria. LangChain, tuttavia, fornisce i messaggi e le risposte della chat precedente, risolvendo il problema dei limiti di memoria. La cronologia dei messaggi consente a un utente di ripetere i messaggi precedenti al LLM per ricapitolare il contesto precedente.
  • Commutazione LLM: Rispetto ad altri LLM che bloccano il tuo software con l'API di un singolo modello, LangChain fornisce un'astrazione che semplifica il passaggio di LLM o l'integrazione di più LLM nella tua applicazione. Ciò è utile quando si desidera aggiornare le funzionalità del software utilizzando un modello compatto, come StableLM di Stability AI, ad esempio da GPT-3.5 di OpenAI.
  • Integrazione: Integrare LangChain nella tua applicazione è facile rispetto ad altri LLM. Fornisce flussi di lavoro della pipeline attraverso Catene E agenti, consentendoti di incorporare rapidamente LangChain nella tua applicazione. In termini di condutture lineari, le catene sono oggetti che essenzialmente collegano numerose parti. Gli agenti sono più avanzati e consentono di scegliere in che modo i componenti devono interagire utilizzando la logica aziendale. Ad esempio, potresti voler utilizzare la logica condizionale per determinare il prossimo corso di azione in base ai risultati di un LLM.
  • Passaggio dati: A causa della natura generale basata sul testo degli LLM, di solito è complicato passare i dati al modello. LangChain risolve questo problema utilizzando indici. Gli indici consentono a un'applicazione di importare dati in formati variabili e di archiviarli in modo da renderli disponibili riga per riga a un LLM.
  • Risposte: LangChain fornisce strumenti di parser di output per fornire risposte in un formato adatto rispetto ad altri LLM la cui risposta del modello è costituita da testo generale. Quando si utilizza l'intelligenza artificiale in un'applicazione, è preferibile disporre di una risposta strutturata su cui è possibile programmare.

Iniziare con LangChain LLM

Ora imparerai come implementare LangChain in uno scenario di caso d'uso reale per capire come funziona. Prima di iniziare lo sviluppo, è necessario configurare l'ambiente di sviluppo.

Configurazione dell'ambiente di sviluppo

Primo, creare un ambiente virtuale e installare le dipendenze di seguito:

  • OpenAI: Per integrare l'API GPT-3 nella tua applicazione.
  • LangChain: Per integrare LangChain nella tua applicazione.

Usando pip, esegui il comando seguente per installare le dipendenze:

 pipenv installa langchain openai

Il comando precedente installa i pacchetti e crea un ambiente virtuale.

Importa le dipendenze installate

Innanzitutto, importa le classi necessarie come LLMChain, OpenAI, ConversationChain, E PromptTemplate dal langchain pacchetto.

da langchain importare ConversationChain, OpenAI, PromptTemplate, LLMChain

da langchain.memory importare ConversationBufferWindowMemory

Le classi LangChain delineano ed eseguono le catene del modello di linguaggio.

Accedi alla chiave API OpenAI

Successivamente, ottieni la chiave API OpenAI. Per accedere alla chiave API di OpenAI, devi disporre di un account OpenAI, quindi passare a Piattaforma API OpenAI.

Nella dashboard, fai clic sull'icona Profilo. Quindi, fare clic su Visualizza le chiavi API pulsante.

Successivamente, fai clic su Crea una nuova chiave segreta pulsante per ottenere una nuova chiave API.

Immettere il nome richiesto della chiave API.

Riceverai un chiave segreta richiesta.

Copia e archivia la chiave API in un luogo sicuro per un uso futuro.

Sviluppo di un'applicazione utilizzando LangChain LLM

Procederai ora a sviluppare una semplice applicazione di chat come segue:

# Personalizza il modello LLM 
modello = Assistant è un modello di linguaggio di grandi dimensioni addestrato da OpenAI.

{storia}
Umano: {input_umano}
Assistente:

prompt = PromptTemplate (input_variables=["storia", "input_umano"], modello=modello)

Successivamente, caricherai la catena ChatGPT utilizzando la chiave API che hai memorizzato in precedenza.

chatgpt_chain = LLMChain(

llm=OpenAI(openai_api_key="OPENAI_API_KEY",temperatura=0),
prompt=richiesta,
verboso=VERO,
memory=ConversationBufferWindowMemory (k=2),

)
# Prevedi una frase usando la catena chatgpt
output = chatgpt_chain.predict(
input_umano="Cos'è MakeUseOf?"
)
# Mostra la risposta del modello
stampa (uscita)

Questo codice carica la catena LLM con la chiave API OpenAI e il modello di prompt. Viene quindi fornito l'input dell'utente e viene visualizzato il relativo output.

Sopra è l'output previsto.

La crescente influenza degli LLM

Il consumo di LLM sta crescendo rapidamente e sta cambiando il modo in cui gli esseri umani interagiscono con le macchine della conoscenza. Framework come LangChain sono in prima linea nel fornire agli sviluppatori un modo fluido e semplice per servire gli LLM alle applicazioni. Anche i modelli di intelligenza artificiale generativa come ChatGPT, Bard e Hugging Face non vengono lasciati indietro nell'avanzamento delle applicazioni LLM.