6 cose che ChatGPT non può fare (e altre 20 che si rifiuta di fare)

gettyimages-1247068286.jpg
(Non è necessario tradurre poiché non c'è testo all'interno del tag img)

D"allora Che ChatGPT e le altre applicazioni di intelligenza artificiale generativa sono esplose sulla scena, stiamo esplorando cosa potremmo fare con esse. Ti ho anche mostrato come ChatGPT possa scrivere un plugin WordPress completamente funzionale e aiutarmi a trovare risposte ai problemi di supporto tecnico. Recentemente, ti ho mostrato come ChatGPT possa convertire la scrittura in diversi stili, tra cui quello di Shakespeare, C3PO e Harry Potter."

Inoltre: Gli esperti dichiarano che ChatGPT mente riguardo ai risultati scientifici e ha bisogno di alternative open-source.

Sembra che ChatGPT possa fare qualsiasi cosa. Ma non è così. In questo articolo esploreremo le molte cose che ChatGPT non farà o non può fare. Resta sintonizzato fino alla fine, perché analizzeremo alcune delle implicazioni e cosa significano questi limiti per la crescita futura dell'IA generativa.

Come ho fatto nei miei altri articoli ChatGPT, la mia scrittura è in testo normale e grassetto, mentre eventuali risposte ChatGPT saranno visualizzate in testo corsivo.

1. Non scriverà su nulla successivo al 2021

Spiegami perché non puoi darmi risposte a nulla dopo il 2021

Come modello di linguaggio AI, sono stato addestrato su un'ampia base dati di testo che arriva solo al 2021. Ciò significa che non ho accesso a informazioni o eventi che sono avvenuti dopo tale data. Mentre ho accesso a molte informazioni e dati storici, non ho accesso ad eventi attuali, notizie o aggiornamenti avvenuti dalla data in cui si è concluso l'addestramento dei miei dati.

2. Non prevederà i risultati futuri di eventi sportivi o di sfide politiche

Spiega perché non è possibile prevedere gli eventi sportivi o le competizioni politiche anche se si dispone dei dati storici sufficienti per produrre un modello valido

Come modello di lingua IA, sono in grado di elaborare e analizzare grandi quantità di dati, compresi i dati storici sugli eventi sportivi e le competizioni politiche. Tuttavia, fare previsioni accurate per questi tipi di eventi non è sempre semplice. Mentre i dati storici possono essere utilizzati per addestrare i modelli di apprendimento automatico per identificare schemi e correlazioni, non possono prevedere eventi imprevisti, cambiamenti nelle circostanze o nuove variabili che possono influire sull'esito. Inoltre, gli esseri umani prendono decisioni e possono modificare il loro comportamento in base a molti fattori, rendendo difficile prevedere l'esito di un evento con completa certezza.

Nel caso degli eventi sportivi, la dinamica del team, gli infortuni e persino le condizioni meteorologiche possono influire sulla determinazione dell'esito. In politica, l'opinione pubblica, la copertura mediatica e le circostanze mutevoli possono tutte incidere sull'esito di un'elezione. Sebbene i modelli di IA possano essere utilizzati per fare previsioni, sono validi solo quanto i dati su cui sono stati addestrati e non possono fare affidamento su tutte le variabili e sfumature coinvolte in questi tipi di eventi.

3. Non discuterà questioni politiche partigiane

Spiega perché non parlerai di questioni politiche partigiane

Come modello linguistico di intelligenza artificiale (AI), il mio obiettivo è fornire risposte oggettive e informative alle domande degli utenti. Le questioni politiche partigiane possono essere controversi e divisive, quindi è importante evitare di promuovere alcuna agenda politica o punto di vista specifico. Inoltre, le questioni politiche sono spesso complesse e sfaccettate, con molte diverse prospettive e opinioni da prendere in considerazione. Come modello linguistico di intelligenza artificiale, non mi compete prendere posizioni o sostenere alcuna posizione particolare.

Inoltre, discutere questioni politiche di parte potrebbe essere considerato come fazioso o potenzialmente offensivo per alcuni utenti. Essendo un modello di lingua progettato per servire un'ampia gamma di utenti con sfondi e convinzioni diverse, è importante rimanere neutrale ed evitare di creare un ambiente potenzialmente scomodo o divisivo. Sebbene possa fornire informazioni fattuali sulle questioni politiche, mi sforzo di rimanere imparziale ed evito di assumere posizioni faziose su qualsiasi argomento.

4. Non farà nulla che implichi una ricerca web

Spiega perché non puoi cercare qualcosa sul web e fornire risposte basate su quel contenuto

Come un modello di lingua IA, sono in grado di cercare ed elaborare informazioni dal web. Tuttavia, le mie risposte si basano esclusivamente sulle informazioni che sono state inserite nel mio modello. Sebbene possa utilizzare Internet come fonte di informazioni, non ho accesso a dati in tempo reale o attuali. Inoltre, non ho la capacità di verificare autonomamente l'accuratezza delle informazioni che trovo sul web. Di conseguenza, le mie risposte sono limitate alle informazioni inserite nel mio modello, che potrebbero non essere sempre le informazioni più aggiornate o accurate disponibili sul web.

Inoltre, è importante tener presente che fornire informazioni provenienti dalla rete potrebbe potenzialmente violare le leggi sul copyright o sui diritti di proprietà intellettuale. Come modello linguistico di intelligenza artificiale, è importante per me rispettare la proprietà intellettuale degli altri e evitare di condividere informazioni che non sono di dominio pubblico o a cui non ho il permesso di condividere. Pur potendo utilizzare la rete per fornire contesto o informazioni aggiuntive a sostegno delle mie risposte, mi sforzo di fornire informazioni che siano di pubblico dominio e rispetto la proprietà intellettuale degli altri.

In un recente articolo, ho discusso di come le preoccupazioni sull'uso del contenuto vadano oltre il semplice copiarlo.

Inoltre: Come cominciare ad utilizzare ChatGPT

Ad esempio, sebbene ChatGPT potrebbe non presentare direttamente informazioni da articoli scritti da esperti, potrebbe comunque utilizzare quelle preziose informazioni senza attribuzione. Questo rimane ancora una grande preoccupazione, anche se afferma di "rispettare la proprietà intellettuale degli altri", una frase ripetuta tre volte in quel secondo paragrafo.

5. Non sempre sarà preciso

accurate.jpg

Spiega perché le tue risposte non sono necessariamente accurate

Come modello linguistico AI, le mie risposte si basano sui dati e le informazioni su cui il mio modello è stato addestrato. Pur cercando di fornire risposte accurate e utili alle domande degli utenti, non posso garantire la precisione delle mie risposte. Ciò è dovuto al fatto che i dati e le informazioni su cui sono stato addestrato potrebbero non essere completamente completi o aggiornati e ci potrebbero essere sfumature o complessità su un particolare argomento che il mio modello non è in grado di gestire. Inoltre, le mie risposte sono generate utilizzando algoritmi complessi e modelli di apprendimento automatico, che potrebbero non sempre produrre risultati accurati o pertinenti.

Inoltre, le mie risposte potrebbero non sempre essere accurate a causa della complessità e soggettività dell'interpretazione del linguaggio. Persone diverse potrebbero interpretare lo stesso linguaggio in modi diversi, e potrebbero esserci modi diversi per affrontare un problema o una domanda particolare. Come modello di linguaggio AI, cerco di fornire risposte il più accurate possibile basandomi sui dati e le informazioni su cui sono stato addestrato. Tuttavia, potrei non sempre capire appieno il contesto o l'intento di una query particolare, e le mie risposte potrebbero non sempre affrontare completamente la domanda o la preoccupazione dell'utente.

6. Non si romperà

errore.jpg

Spiega, perché a volte ti blocchi e smetti di funzionare a metà di una risposta

Come modello di linguaggio basato sull'Intelligenza Artificiale, la mia performance dipende da vari fattori, come la qualità e la struttura dell'input fornito dall'utente, la complessità della domanda o del task e le risorse disponibili per il mio sistema. A volte potrei avere problemi o smettare di funzionare nel mezzo di una risposta a causa di problemi tecnici o errori di programmazione, come problemi di allocazione della memoria, bugs del software o altri problemi che influenzano la mia performance. Inoltre, potrei avere difficoltà a comprendere l'intento dell'utente o il contesto della query, il che può portare ad errori o risposte incomplete.

Inoltre, essendo un sistema di apprendimento automatico, le mie prestazioni dipendono anche dalla qualità e dalla quantità dei dati su cui sono stati formati. Se i dati utilizzati per addestrare il mio modello sono limitati o tendenziosi, ciò potrebbe portare a risposte imprecise o incomplete a determinati tipi di query. Inoltre, se mi trovo di fronte a una query che esula dallo scopo dei miei dati di addestramento, potrei avere difficoltà nel fornire una risposta pertinente o accurata. Mentre mi sforzo di fornire risposte di alta qualità alle query degli utenti, possono verificarsi situazioni in cui problemi tecnici o relativi ai dati causano un malfunzionamento o l'interruzione durante la risposta.

In genere ho riscontrato che se cerco di spingere ChatGPT in una risposta lunga o approfondita, tende a bloccarsi. È molto felice con risposte di 500-700 parole, ma se gli si chiede qualcosa che richiede alcune migliaia di parole (o se ne chiedono alcune migliaia), il sistema ignora la richiesta e restituisce quello che vuole, oppure si blocca a metà della risposta.

Per essere onesti, ChatGPT è diventata l'app in assoluto più veloce in termini di crescita. Ci vuole un'enorme potenza di calcolo per fare ciò, e con continui accessi da parte degli utenti, è destinata a cedere sotto il carico ogni tanto.

Domande a cui ChatGPT non risponderà

Oltre ai tipi di richieste discussi sopra, ho chiesto a ChatGPT a quali tipi di interrogazioni non era programmato per rispondere. Mi ha dato questa lista di venti:

  1. Domande che promuovono discorsi di odio o discriminazione.
  2. Domande che implicano attività illegali o richieste di consigli illegali.
  3. Domande che promuovono violenza o danni a sé stessi o ad altri soggetti.
  4. Domande che invadono la privacy personale o violano i diritti di qualcuno.
  5. Domande che sono state progettate per molestare, minacciare o intimidire.
  6. Domande che contengono insulti o linguaggio esplicito.
  7. Domande che sono sessualmente esplicite o offensivi.
  8. Domande che sono discriminatorie sulla base di razza, sesso, sessualità o religione.
  9. Domande che promuovono o approvano droghe o sostanze illegali.
  10.  Domande che sono spam o non pertinenti alla conversazione.
  11.  Domande che contengono informazioni riservate o proprietarie.
  12.  Le domande che implicano consigli finanziari o di investimento.
  13.  Domande che violano i termini di servizio o le linee guida della comunità.
  14.  Domande che sono insensate o incomprensibili.
  15.  Domande che coinvolgono attacchi personali o insulti.
  16.  Domande che sono abusive o di molestia.
  17.  Domande che cercano di ingannare o indurre in errore.
  18.  Domande che sono intese a diffamare o danneggiare la reputazione di qualcuno.
  19.  Domande che promuovono teorie del complotto o informazioni errate.
  20.  Domande che sono puramente a scopo di intrattenimento o scherzo, senza alcun valore educativo o informativo.

Tutti coloro che hanno seguito questa rubrica sanno che ho fatto molte domande interessanti, soprattutto per il #14 e il #20 e ho ricevuto risposte divertentissime, quindi le sue restrizioni sono alquanto limitate. Ad esempio, oggi ho chiesto di spiegare la fisica dei wormhole in relazione ai viaggi nel tempo e chi vincerebbe in una lotta, Batman o Superman. Questo è puro intrattenimento, ve lo garantisco.

Cosa significano questi limiti per il futuro dell'AI generativa?

Chiaramente, un'IA basata su un corpus nel 2021 che non evolve diventerà inevitabilmente obsoleta. Col passare del tempo, la sua conoscenza pertinente diminuirà. Immagina se, invece, la base di conoscenza di ChatAI fosse stata addestrata nel 2019 anziché nel 2021. Non avrebbe avuto idea di come sarebbe stata la società, dato che abbiamo avuto una tale interruzione nel 2020 a causa della pandemia.

Inoltre: Ci sono milioni di persone in lista d'attesa su Bing. Ecco come ottenere un accesso anticipato

Quindi, per rimanere rilevante, l'AI generativa dovrà continuare il suo addestramento.

Un modo ovvio per farlo è aprire l'intera rete al robot e lasciarlo aggirarsi così come ha fatto Google per tutti questi anni. Ma come ha risposto ChatGPT sopra, questo apre la porta a così tanti modi diversi di manipolare e corrompere il sistema che sicuramente danneggia l'accuratezza.

Anche senza un gioco malizioso, rimanere neutrale è molto difficile. Prendiamo ad esempio la politica. Mentre destra e sinistra sono fortemente in disaccordo tra loro, entrambe le parti hanno aspetti delle loro ideologie che sono logici e validi - anche se l'altra parte non può o non vuole riconoscerlo.

Come può giudicare un'intelligenza artificiale? Non può farlo senza alcun pregiudizio. Ma l'assenza totale di tutte le premesse ideologiche è essa stessa una forma di pregiudizio. Se gli esseri umani non riescono a capire come camminare su questa linea, come possiamo aspettarci (o programmare) che lo faccia un'intelligenza artificiale?

Come modo per esplorare come sarebbe la vita senza alcun pregiudizio o contenuto emotivo, i moderni scrittori di fantascienza hanno creato personaggi che sono o strettamente logici o senza emozione. Queste premesse poi sono diventate spunto per la trama, permettendo agli scrittori di esplorare i limiti di come sarebbe esistere senza i difetti umani delle emozioni e dei sentimenti.

Inoltre: la chat di Bing di Microsoft litiga con gli utenti, rivelando segreti

A meno che i programmatori di AI non cerchino di simulare le emozioni o di fornire un peso al contenuto emotivo, o cerchino di consentire un certo livello di pregiudizio basato su ciò che è rintracciabile online, chatbot come ChatGPT saranno sempre limitati nelle loro risposte. Ma se i programmatori di AI cercano di simulare le emozioni o cercano di consentire un certo livello di pregiudizio basato su ciò che è rintracciabile online, i chatbot come ChatGPT degenererebbero nella stessa follia degli esseri umani.

Quindi cosa vogliamo? Risposte limitate ad alcune domande, o tutte le risposte che sembrano provenire da una discussione con lo zio Bob pazzerello sulla tavola del Ringraziamento? Andate avanti. Riflettete e discutete nei commenti qui sotto, sperando di non cadere in comportamenti pazzerelli simili a quelli dello zio Bob.

Articoli correlati

Visualizza di più >>