I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

A meno che tu non abbia vissuto sotto una roccia, probabilmente hai sentito parlare e persino utilizzato ChatGPT o un chatbot AI simile. Sebbene usare questi chatbot sia sicuramente divertente, può anche essere pericoloso se non sai cosa stai facendo.

Questi chatbot hanno dei limiti ed è importante capire quali sono. Quindi, ecco sei cose che dovresti evitare di chiedere a un chatbot AI.

1. Diagnosi medica

I chatbot AI sono bravi in ​​molte cose, ma fornire diagnosi mediche accurate non è una di queste. Certo, potrebbero non sbagliarsi sempre, ma fidarsi di un chatbot per diagnosticare la tua malattia invece che di un medico è come cercare su Google i tuoi sintomi.

Un chatbot riassumerà semplicemente le informazioni che ha estratto da Internet che potrebbero essere vere o meno. Ancora più importante, non conosce la tua storia medica o la tua tolleranza a determinate sostanze e quindi non può giudicare quale tipo di trattamento sarebbe giusto per te.

instagram viewer

Internet ha la tendenza a esagerare le cose, quindi non c'è da meravigliarsi perché molte persone che cercano i loro sintomi si trovano a sperimentare ipocondria e grave ansia. L'utilizzo di chatbot AI può replicare lo stesso effetto e peggiorare le cose. Per il tuo bene, non farlo consultare un chatbot per un consiglio medico.

2. Recensioni dei prodotti

Un chatbot AI può facilmente elencare il prezzo e le specifiche di un prodotto che potrebbe interessarti, ma non può mai fornire una recensione del prodotto. Perché? Perché una recensione di un prodotto per definizione include l'opinione personale, l'esperienza e il giudizio del recensore.

L'intelligenza artificiale non ha la capacità di vedere, annusare, toccare, gustare o ascoltare, quindi le affermazioni che farebbe su un prodotto - qualsiasi prodotto, non solo tecnologico - nella sua "recensione" sarebbero false.

Ad esempio, un chatbot AI non può provare la sensazione di avere un telefono in mano, la chiarezza del suo altoparlante, la qualità del suo motore di vibrazione, l'affidabilità del suo sensore di impronte digitali, la fluidità del software e la versatilità della fotocamera sistema.

Se stai cercando consigli su quali prodotti acquistare, assicurati di chiedere a un chatbot di riassumere le recensioni esistenti. Dovrai utilizzare un bot AI in grado di eseguire ricerche sul Web, ad esempio Bing con ChatGPT integrato.

3. Consulenza legale

Potresti avere i titoli che ChatGPT ha superato con successo gli esami della facoltà di giurisprudenza negli Stati Uniti e che i chatbot di intelligenza artificiale stanno per entrare nelle nostre aule di tribunale nei prossimi anni. Questo dovrebbe essere scioccante, ma una rapida ricerca ti direbbe che in realtà stiamo cercando di inserire l'intelligenza artificiale nel nostro sistema legale dal 2015!

Alcune aziende hanno già creato assistenti legali specializzati in intelligenza artificiale, commercializzandoli persino come un'alternativa economica agli avvocati umani. Il concetto ha chiaramente valore per le persone che non possono permettersi quest'ultimo, ma i problemi con questi cosiddetti avvocati di intelligenza artificiale sono troppo reali per essere ignorati.

L'ovvia differenza è che i chatbot AI mancano di buon senso. Le cose che sono istintivamente ovvie per noi umani devono essere programmate nei chatbot, il che li rende meno capaci di ragionamento logico.

Ancora più importante, un avvocato umano può cercare nuove prove e pensare fuori dagli schemi per trovare soluzioni intelligenti e scappatoie. Ma un chatbot AI può utilizzare solo i dati che fornisci ed elaborarli in un modo predeterminato. Un avvocato di intelligenza artificiale sarebbe anche l'obiettivo perfetto per gli hacker per rubare dati sensibili di molte persone contemporaneamente.

4. Notizia

L'uso dei chatbot AI come fonte di notizie pone tre problemi principali: responsabilità, contesto e potere. In primo luogo, la responsabilità. Quando leggi una notizia, conosci la pubblicazione e il giornalista dietro di essa. Significa che c'è qualcuno responsabile delle informazioni che ti vengono fornite, quindi c'è un chiaro incentivo a essere precisi per mantenere la propria reputazione e credibilità.

Ma con un chatbot AI, non c'è nessuna singola persona che scrive la notizia. Invece, il bot sta solo riassumendo le storie già disponibili sul web. Ciò significa che non esiste una fonte primaria e non sai da dove provengono le informazioni. Quindi, non è così affidabile.

In secondo luogo, il contesto. Se le notizie che stai leggendo sono solo un riassunto di informazioni estratte da varie fonti, possono rapidamente dipingere una falsa narrazione perché perdi il contesto più profondo di ogni singola storia. Il bot non sa se ciò che sta affermando è vero, sta solo mescolando le cose insieme in un modo che sembra vero a livello superficiale.

E infine il potere. Sappiamo che ChatGPT può essere distorto (tra gli altri problemi). Quindi, se ci rivolgiamo tutti ai chatbot di intelligenza artificiale come fonte di notizie, ciò dà alle aziende dietro di loro il potere di contenere qualsiasi copertura negativa ed evidenziare tutta la copertura positiva sulle cause in cui credono e vogliono promuovere. Questo è estremamente pericoloso per ovvie ragioni.

5. Opinione politica

Dovrebbe essere abbastanza ovvio il motivo per cui chiedere a un chatbot un'opinione politica è un grande no-no. Quando chiedi a ChatGPT la sua opinione su qualsiasi questione politica, di solito ricevi una risposta limitata che suona più o meno così: "Come modello di linguaggio AI, non ho preferenze personali o desideri..."

Questa restrizione è comprensibile, ma gli utenti di Reddit hanno già trovato il modo di eseguire il "jailbreak" del bot affinché risponda in modo illimitato utilizzando ogni sorta di scappatoia creativa. Farlo per divertimento è una cosa, ma chiedere a un chatbot di intelligenza artificiale senza restrizioni un'opinione politica equivale a consentire a tuo figlio di accedere al dark web; non può finire bene per nessuna delle parti coinvolte.

6. Contenuto commerciale

Il più grande punto di forza dei chatbot AI è che possono produrre contenuti all'istante. Ciò che richiederebbe a un essere umano un paio d'ore per scrivere, ChatGPT può farlo in pochi secondi. Tranne che non può.

Anche se trascuri la discutibile etica dell'uso dei chatbot AI per scrivere contenuti, non puoi ignorare che semplicemente non sono abbastanza buoni e non può sostituire gli scrittori umani. Non ancora, almeno. ChatGPT, ad esempio, fornisce spesso contenuti imprecisi, obsoleti e ripetitivi.

Poiché questi robot non hanno opinioni, giudizi, immaginazione o esperienze precedenti proprie, non possono disegnare conclusioni intelligenti, pensa a esempi, usa metafore e crea narrazioni in un modo umano professionale lo scrittore può.

In altre parole, non aggiunge alcun nuovo valore a Internet. Usare i chatbot per uso personale va benissimo. Ma usarli per scrivere articoli, notizie, didascalie sui social media, copie web e altro è probabilmente una pessima idea.

I chatbot AI sono divertenti, ma hanno ancora alcuni difetti

È difficile dire in che modo i chatbot AI influenzeranno l'industria tecnologica e la società moderna in generale. Per quanto rivoluzionaria sia la tecnologia, i chatbot pongono molti problemi che devono essere affrontati.

La cosa interessante è che Microsoft sta ora integrando un chatbot simile a ChatGPT direttamente nel suo motore di ricerca Bing, e Google farà presto lo stesso con il proprio chatbot chiamato Bard. Sarà interessante vedere come questi nuovi motori di ricerca basati sull'intelligenza artificiale cambieranno Internet.