Mentre software proprietario come GPT e PaLM dominano il mercato, molti sviluppatori vedono invece valore nei modelli di linguaggio open source. Prendi Meta come esempio. Ha fatto notizia nel febbraio 2023 per aver rilasciato ufficialmente il modello di linguaggio di grandi dimensioni LLaMA come programma open source. Non sorprende che questa decisione abbia incontrato reazioni contrastanti.
Poiché i modelli di linguaggio open source hanno molti pro e contro e possono influenzare positivamente e negativamente il settore dell'intelligenza artificiale, abbiamo riassunto i punti chiave che dovresti conoscere e comprendere.
5 Impatti positivi dei modelli linguistici open source
I modelli di linguaggio open source favoriscono un approccio collaborativo. L'input, le revisioni e i casi d'uso degli sviluppatori di tutto il mondo li aiutano probabilmente ad avanzare più velocemente rispetto ai progetti chiusi.
1. Gli sviluppatori di intelligenza artificiale risparmiano risorse utilizzando modelli open source
Il lancio di modelli linguistici proprietari costa milioni, se non miliardi, di risorse. Prendi OpenAI come esempio. Business Insider riporta che la società ha dovuto raccogliere circa $ 30 miliardi per eseguire ChatGPT in modo efficiente. Acquisire così tanti finanziamenti è impossibile per la maggior parte delle aziende. Le startup tecnologiche nelle loro fasi iniziali sarebbero fortunate a raggiungere anche sette cifre.
Considerando l'elevato sovraccarico, molti sviluppatori utilizzano invece modelli di linguaggio open source. Risparmiano milioni utilizzando l'architettura, la struttura neurale, i dati di addestramento, l'algoritmo, l'implementazione del codice e i set di dati di addestramento di questi sistemi.
2. I modelli open source probabilmente avanzano più velocemente
Molti leader tecnologici sostengono che i modelli linguistici open source avanzano più velocemente rispetto alle controparti proprietarie. Apprezzano i contributi e la collaborazione della comunità. Milioni di sviluppatori esperti stanno lavorando su progetti aperti: potrebbero teoricamente ottenere un'iterazione sofisticata e priva di errori molto più velocemente.
Colmare le lacune di conoscenza è anche più veloce con l'IA open source. Invece di formare i team per trovare bug, testare gli aggiornamenti ed esplorare le implementazioni, le aziende possono analizzare i contributi della community. La condivisione delle conoscenze consente agli utenti di lavorare in modo più efficiente.
I contributi della community non sono sempre accurati. Gli sviluppatori dovrebbero comunque ricontrollare algoritmi e modelli prima di integrarli nei loro sistemi.
3. Gli sviluppatori individueranno le vulnerabilità più rapidamente
I modelli linguistici open source incoraggiano le revisioni tra pari e l'impegno attivo all'interno della sua comunità collaborativa. Gli sviluppatori possono accedere liberamente alle modifiche della base di codice. Con così tanti utenti che analizzano progetti aperti, probabilmente individueranno più rapidamente problemi di sicurezza, vulnerabilità e bug di sistema.
Allo stesso modo, anche la risoluzione dei bug è semplificata. Invece di risolvere manualmente i problemi di sistema, gli sviluppatori possono controllare il sistema di controllo della versione del progetto per le correzioni precedenti. Alcune voci potrebbero essere obsolete. Tuttavia, forniranno comunque ai ricercatori e ai formatori di intelligenza artificiale un utile punto di partenza.
4. I leader tecnologici di intelligenza artificiale imparano dai modelli open source
I modelli di linguaggio open source traggono vantaggio dal ciclo di feedback. Il ciclo di feedback positivo condivide algoritmi, set di dati e funzioni efficaci, incoraggiando gli sviluppatori a imitarli. Il processo consente loro di risparmiare molto tempo. Basta notare che potrebbero verificarsi errori con feedback positivi che gli utenti replicano a casaccio: gli errori tendono a essere trascurati.
Nel frattempo, il ciclo di feedback negativo si concentra sulle aree di miglioramento. Il processo prevede la condivisione di approfondimenti personali durante la risoluzione di bug, il test di nuove funzioni e la risoluzione di problemi di sistema.
5. Le piattaforme IA open source ottengono i primi vantaggi sui nuovi sistemi
Le aziende tecnologiche non condividono sistemi linguistici da miliardi di dollari per gentilezza. Sebbene le licenze open source concedano agli utenti di terze parti la libertà di modificare e vendere i sistemi, hanno dei limiti.
I distributori spesso creano condizioni che assicurano di mantenere una certa autorità. Troverai queste regole nei contratti di licenza dei programmi open source: gli utenti finali raramente ottengono il 100% di autorità.
Diciamo che Meta vuole il controllo sui prodotti alimentati da LLaMA. Il suo team legale potrebbe specificare che Meta si riserva il diritto di investire in qualsiasi nuovo sistema costruito sul suo modello linguistico.
Ma non fraintendere: sviluppatori e distributori di terze parti stipulano comunque accordi reciprocamente vantaggiosi. Quest'ultimo fornisce tecnologie e sistemi da miliardi di dollari. Nel frattempo, startup e sviluppatori indipendenti esplorano modi per implementarli in diverse applicazioni.
5 Impatti negativi dei modelli linguistici open source
I modelli di linguaggio open source sono intrinsecamente imparziali, ma gli umani no. Consumatori, sviluppatori e aziende con intenti dannosi potrebbero sfruttare la natura aperta di questi sistemi per guadagno personale.
1. Le aziende si stanno unendo a casaccio alla corsa all'IA
Le aziende stanno attualmente affrontando troppe pressioni per partecipare alla corsa all'IA. Con la diffusione dei sistemi di IA, molte aziende temono che diventeranno obsoleti se non adottano l'IA. Di conseguenza, i marchi saltano a casaccio sul carrozzone. Integrano modelli di linguaggio open source nei loro prodotti per vendere il prodotto e stare al passo con la concorrenza, anche se non offrono nulla di prezioso.
Sì, l'intelligenza artificiale è un mercato in rapida espansione. Ma il rilascio incauto di sistemi sofisticati ma insicuri danneggia l'industria e compromette la sicurezza dei consumatori. Gli sviluppatori dovrebbero utilizzare l'intelligenza artificiale per risolvere i problemi, non eseguire espedienti di marketing.
2. I consumatori ottengono l'accesso a tecnologie che capiscono a malapena
Troverai variazioni basate sull'intelligenza artificiale di vari strumenti tecnologici, da editor di immagini online A app per il monitoraggio della salute. E i marchi continueranno a introdurre nuovi sistemi man mano che l'IA si evolve. I modelli AI li aiutano a fornire iterazioni più personalizzate e incentrate sull'utente delle loro piattaforme esistenti.
Mentre l'industria tecnologica accoglie con favore le innovazioni, la rapida evoluzione dell'IA supera la formazione degli utenti. I consumatori stanno guadagnando l'accesso a tecnologie che comprendono a malapena. La mancanza di istruzione crea enormi lacune di conoscenza, che lasciano il pubblico soggetto a minacce alla sicurezza informatica e pratiche predatorie.
I marchi dovrebbero dare priorità alla formazione tanto quanto allo sviluppo del prodotto. Devono aiutare gli utenti a comprendere i modi sicuri e responsabili per utilizzare potenti strumenti basati sull'intelligenza artificiale.
3. Non tutti gli sviluppatori hanno buone intenzioni
Non tutti utilizzano gli strumenti di intelligenza artificiale per lo scopo previsto. Ad esempio, OpenAI ha sviluppato ChatGPT per rispondere a domande di conoscenza generale sicure sul lavoro e replicare l'output in linguaggio naturale, ma i criminali lo sfruttano per attività illecite. Ce ne sono stati diversi Truffe ChatGPT dal lancio del chatbot AI nel novembre 2022.
Anche se i laboratori di intelligenza artificiale impongono rigide restrizioni, i truffatori troveranno comunque il modo di aggirarle. Prendi di nuovo ChatGPT come esempio. Gli utenti aggirano i vincoli ed eseguono attività proibite utilizzando Richieste di jailbreak di ChatGPT.
Le conversazioni seguenti dimostrano queste vulnerabilità. ChatGPT ha set di dati limitati; quindi, non può fare previsioni su eventi instabili e non garantiti.
Nonostante i suoi limiti, ChatGPT ha eseguito la nostra richiesta e ha fornito previsioni infondate dopo il jailbreak.
4. Le istituzioni potrebbero avere problemi a regolamentare l'IA open-source
Gli organismi di regolamentazione stanno lottando per tenere il passo con l'intelligenza artificiale e la proliferazione di modelli open source rende solo più difficile il monitoraggio. I progressi dell'IA superano già i quadri normativi. Anche leader tecnologici globali come Elon Musk, Bill Gates e Sam Altman chiede una regolamentazione dell'IA più severa.
Sia il settore privato che quello governativo devono controllare questi sistemi. In caso contrario, gli individui malintenzionati continueranno a sfruttarli per violare le leggi sulla privacy dei dati, eseguire furto d'identitàe vittime di truffe, tra le altre attività illecite.
5. Abbassare le barriere all'ingresso ostacola la qualità
La proliferazione di modelli linguistici open source abbassa le barriere all'ingresso per entrare a far parte della corsa AI. Troverai online migliaia di strumenti basati sull'intelligenza artificiale.
Vedere le aziende adottare il machine e il deep learning potrebbe sembrare impressionante, ma poche forniscono un valore reale. La maggior parte si limita a copiare i propri concorrenti. Nel tempo, l'accessibilità di sofisticati modelli linguistici e set di dati di addestramento potrebbe mercificare piattaforme di intelligenza artificiale inutili.
L'impatto complessivo dei modelli linguistici open source sull'industria dell'IA
Sebbene i modelli linguistici open source rendano le tecnologie AI più accessibili, presentano anche diversi rischi per la sicurezza. Gli sviluppatori dovrebbero impostare restrizioni più severe. In caso contrario, i truffatori continueranno a sfruttare l'architettura trasparente di questi sistemi.
Detto questo, i consumatori non sono del tutto indifesi contro le truffe dell'IA. Acquisisci familiarità con i modi comuni in cui i truffatori sfruttano gli strumenti di intelligenza artificiale generativa e studia i segnali di allarme degli attacchi. Puoi combattere la maggior parte dei crimini informatici rimanendo vigile.