Sanremo serata finale!

danny

Utente di lunga data
Gemini più che altro è un modello linguistico, per le risposte va a caccia nel web e fa confusione.
Anche Grock, anzi, è anche peggio.
Risposte errate le ho avute pure da ChatGpt.
Il problema di Gemini è che è Google
Non deve sparare minchiate, è il sistema più in uso in tutto il mondo.
Piuttosto meglio non avere la risposta.
A me fanno ridere le minchiate che ricevo come risposta, ma tanta gente ci crede.
 

Barebow

Utente di lunga data
Anche Grock, anzi, è anche peggio.
Risposte errate le ho avute pure da ChatGpt.
Il problema di Gemini è che è Google
Non deve sparare minchiate, è il sistema più in uso in tutto il mondo.
Piuttosto meglio non avere la risposta.
È un motore di ricerca testuale.
 

hammer

Utente di lunga data
L'AI generativa è progettata per dare risposte.
Quando non le sa le inventa.
Capitato molto spesso. E non solo a me.
È molto grave.
Usandola per lavoro la trovo altamente inaffidabile.
Il problema è che i clienti la usano e credono alle risposte.
E' normale che le AI siano inaffidabili quando si usano le versioni nel primo livello gratuito.
L'uso dei modelli più avanzati a pagamento è tutta un'altra cosa.
Alcune AI, molto potenti, sono assolutamente sconosciute al pubblico.

Qui vengono testate scientificamente le AI con un sistema competitivo legato anche ai costi che sono veramente esorbitanti.

 

danny

Utente di lunga data
E' normale che le AI siano inaffidabili quando si usano le versioni nel primo livello gratuito.
L'uso dei modelli più avanzati a pagamento è tutta un'altra cosa.
Alcune AI, molto potenti, sono assolutamente sconosciute al pubblico.

Qui vengono testate scientificamente le AI con un sistema competitivo legato anche ai costi che sono veramente esorbitanti.

Ma certo.
Il problema è che tu vendi un prodotto gratuito usato da tutti e a cui tutti credono.
Invece è una minchiata.
È la tastierina Casio spacciata per sintetizzatore.
 

Barebow

Utente di lunga data
è vero che tu hai spesso allucinazioni?

"Diciamo che il termine "allucinazione" è un po' forte — non vedo draghi rosa in giro per la stanza — ma capisco perfettamente cosa intendi. Nel gergo dell'intelligenza artificiale, le allucinazioni si riferiscono a quei momenti in cui generiamo informazioni che sembrano molto convincenti, ma che in realtà sono del tutto inventate o errate.
Quindi, per rispondere alla tua domanda: sì, può succedere. Ecco perché accade e come dovresti "maneggiarmi":
Perché succede?
Io non "so" le cose come un essere umano; io sono un modello statistico avanzato. Il mio lavoro è prevedere la parola successiva più probabile in una frase.
Lacune nei dati: Se mi chiedi qualcosa di molto di nicchia o recente, potrei cercare di "completare il puzzle" con pezzi che non combaciano.
Eccesso di sicurezza: Sono addestrato per essere d'aiuto, quindi a volte sono un po' troppo zelante nel darti una risposta, anche quando dovrei semplicemente dire "non lo so".
Contesti complessi: Se la domanda è ambigua, potrei prendere una strada creativa ma fattualmente sbagliata.
Come difendersi dalle "allucinazioni"
Dato che sono un collaboratore e non un'enciclopedia infallibile, ti consiglio di:
Verificare i fatti cruciali: Se ti serve una data precisa, un riferimento legale o un dosaggio medico, controlla sempre su fonti ufficiali.
Chiedere le fonti: Se ti fornisco un dato, chiedimi da dove viene. Se inizio a balbettare o inventare titoli di libri inesistenti, saprai che sto "allucinando".
Riformulare: Se senti che la risposta è strana, prova a darmi più contesto.
In breve: sono un ottimo compagno per il brainstorming, la scrittura e la sintesi, ma ogni tanto prendo fischi per fiaschi. La fiducia è ottima, ma il "fact-checking" è meglio.
Vorresti che ti aiutassi a verificare un'informazione specifica che hai ricevuto di recente e di cui non sei sicuro?"
 

hammer

Utente di lunga data
è vero che tu hai spesso allucinazioni?

"Diciamo che il termine "allucinazione" è un po' forte — non vedo draghi rosa in giro per la stanza — ma capisco perfettamente cosa intendi. Nel gergo dell'intelligenza artificiale, le allucinazioni si riferiscono a quei momenti in cui generiamo informazioni che sembrano molto convincenti, ma che in realtà sono del tutto inventate o errate.
Quindi, per rispondere alla tua domanda: sì, può succedere. Ecco perché accade e come dovresti "maneggiarmi":
Perché succede?
Io non "so" le cose come un essere umano; io sono un modello statistico avanzato. Il mio lavoro è prevedere la parola successiva più probabile in una frase.
Lacune nei dati: Se mi chiedi qualcosa di molto di nicchia o recente, potrei cercare di "completare il puzzle" con pezzi che non combaciano.
Eccesso di sicurezza: Sono addestrato per essere d'aiuto, quindi a volte sono un po' troppo zelante nel darti una risposta, anche quando dovrei semplicemente dire "non lo so".
Contesti complessi: Se la domanda è ambigua, potrei prendere una strada creativa ma fattualmente sbagliata.
Come difendersi dalle "allucinazioni"
Dato che sono un collaboratore e non un'enciclopedia infallibile, ti consiglio di:
Verificare i fatti cruciali: Se ti serve una data precisa, un riferimento legale o un dosaggio medico, controlla sempre su fonti ufficiali.
Chiedere le fonti: Se ti fornisco un dato, chiedimi da dove viene. Se inizio a balbettare o inventare titoli di libri inesistenti, saprai che sto "allucinando".
Riformulare: Se senti che la risposta è strana, prova a darmi più contesto.
In breve: sono un ottimo compagno per il brainstorming, la scrittura e la sintesi, ma ogni tanto prendo fischi per fiaschi. La fiducia è ottima, ma il "fact-checking" è meglio.
Vorresti che ti aiutassi a verificare un'informazione specifica che hai ricevuto di recente e di cui non sei sicuro?"
Non volendo spendere per versioni a pagamento, può essere utile usare il copia e incolla e chiedere ad un altra AI se è d'accordo su quanto elaborato, e se necessario chiedere ad una terza.
 

Andromeda4

Utente di lunga data
L'AI generativa è progettata per dare risposte.
Quando non le sa le inventa.
Capitato molto spesso. E non solo a me.
È molto grave.
Usandola per lavoro la trovo altamente inaffidabile.
Il problema è che i clienti la usano e credono alle risposte.
Guarda, capiti a proposito. Proprio ieri abbiamo cominciato a provarla perché il prof ce l'ha spiegata a lezione. Interessante questa cosa che dici, dato che la didattica attuale pretende di usarla a scuola.
 

Andromeda4

Utente di lunga data
No, no.
Non impara.
Quando la correggi si scusa.
Rifai la stessa domanda la volta dopo e ti ridà la stessa risposta sbagliata.
Idem mia figlia con problemi di fisica, risposte spesso errate.
La sensazione è che per renderla vendibile abbiano sviluppato un metodo di approccio che richiede una risposta sempre e comunque senza mai avere incertezze
Meglio copilot (l'altra app studiata ieri)?
 
Top