Ah! ah! Mi mancavano le discussioni con chatGPT!
Anche oggi nelle due domande “serie” che gli ho fatto l’ho colto in errore due volte. La prima volta su un errore fattuale: si tratta di uno sbaglio comune, gli chiedevo delle istituzione della UE e chatGPT ha confuso fra loro il “Consiglio dell'Unione Europea” e il “Consiglio Europeo”.
«[KGB] Sei sicuro che Consiglio dell'Unione Europea e Consiglio Europeo NON siano istituzioni diverse?»
«[chatGPT] Mi scuso per l'errore nella mia risposta precedente. Il Consiglio dell'Unione Europea e il Consiglio Europeo sono in realtà due organi distinti dell'Unione Europea. [...]»
Il secondo errore è più sottile e, riguardando una questione geopolitica scottante, probabilmente chatGPT è stato addestrato per dare risposte un po’ ambigue. Gli ho chiesto infatti se gli USA riconoscono o no il governo di Pechino su Taiwan.
Da una parte sapevo infatti che gli USA hanno aderito alla “One China Policy”, ovvero riconoscono il diritto di Pechino a governare sulla Cina continentale E su Taiwan; da un’altra gli USA si sono impegnati con Taiwan per garantirne l’indipendenza dalla Cina: chiaro che anche chatGPT fosse un po’ confuso da questa ipocrisia diplomatica!
«[KGB] Ok, ora mi dici che "gli Stati Uniti non riconoscono formalmente la sovranità della RPC su Taiwan" ma precedentemente mi avevi scritto "riconoscono il governo della Repubblica Popolare Cinese (RPC) come il solo governo legittimo della Cina, inclusa Taiwan": questa mi pare una contraddizione...»
«[chatGPT] Mi scuso per l'equivoco nella mia risposta precedente. In effetti, la mia risposta precedente conteneva una contraddizione. La verità è che gli Stati Uniti non riconoscono il governo della Repubblica Popolare Cinese (RPC) come l'unico governo legittimo della Cina, inclusa Taiwan. [...]»
Mi rendo però conto di un possibile pericolo: io praticamente ogni volta che lo uso seriamente trovo degli errori (anche gravi) nelle sue risposte e, di conseguenza, valuto con molta prudenza le sue risposte (più o meno le ritengo affidabili al 60-70%).
Ho però la netta sensazione che per la maggior parte degli utenti non sia così: l’intuisco dai video stupefatti con gli “errori” di chatGPT come se fossero delle perle rare…
Questo mi fa pensare che il pericolo di finire per fidarsi troppo di una fonte di informazioni relativamente attendibile come chatGPT sia concreto. Per non parlare poi del pericolo se venisse addestrato a mentire su specifici argomenti spinosi…
Conclusione: prossimamente voglio mettere chatGPT a lavorare sul mio programma per associare epigrafi a capitoli e sottocapitoli della mia Epitome. Il problema sarà spiegargli per bene cosa voglio...
L'esempio di Benjamin Franklin
3 ore fa
Nessun commento:
Posta un commento