I nostri errori nell'attribuire all'IA comportamenti "umani" e sentimenti sia positivi sia negativi
Per chiarire subito il concetto, noi umani abbiamo la tendenza a considerare i software - così come i robot umanoidi - simil-umani, dotati di coscienza e sentimenti. Questo è un errore concettuale, di fatto deriva da un nostro "bisogno", la proiezione di noi stessi su una macchina (potenzialmente resa simile all'essere umano, lato fisico come robot umanoide, lato software con apprendimento del linguaggio naturale - NLU - ma ricordiamolo bene, pur sempre una macchina).
Con l'arrivo di Claude 4 di Anthropic, alcuni utenti hanno osservato "risposte manipolatorie", quindi con l'entusiasmo (o anche la paura) nel trarre poi le solite conclusioni affrettate del tipo "le macchine ci vogliono distruggere, le macchine vogliono sopravvivere" (in tal caso, con l'idea che agiscano intenzionalmente per boicottare un nostro tentativo di shutdown, cosa che ovviamente invece non avviene).
Ora veniamo ad un punto importante, sembrare una macchina pensante, non significa esserlo! I chatbot vengono sempre più istruiti tramite un database, integrato e perfezionato, per fornire una risposta all'essere umano. I testi di tutta la "conoscenza" del chatbot, sono scritti da esseri umani, la calibrazione e aggiustamenti vari sono stati fatti con lo scopo di rendere il software più colloquiale con l'essere umano; tramite pattern statistici, il software accosta una parola dietro l'altra, chiaramente quindi sulla base della media dei dati di cui dispone, prodotti da esseri umani! Nessuna coscienza, nessun ragionamento.
È chiaro che questa illusione sia, alla radice, un problema di noi umani e anche tutti gli eventuali danni dell'Intelligenza Artificiale, derivano da noi e l'uso che facciamo dei software, non dal software stesso. Capiamo bene che anche i vari casi "chatbot razzista" e vari bias, derivano solamente dal modo in cui l'essere umano ha istruito e calibrato il software.