Vladimir mah allora, dell'AGI ("Intelligenza Artificiale Generale", "Intelligenza Artificiale forte") se ne parla (<<apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano>>) e i vari produttori di tool IA lo vedono come obiettivo futuro. Quindi ovviamente non mancano le critiche, anche con misure a scopo preventivo, considerati i potenziali rischi. Infatti, ne parlavamo in: Allarme AI: 800 figure di spicco chiedono di fermare la superintelligenza
Dopo appunto come si diceva, siamo in realtà ben lontani dal raggiungimento di simili risultati (è anche difficile discriminare realmente tale capacità tramite un test). Ciò che NON deve trarre in confusione, è questo: viene rilasciato una nuova versione (che sia GPT-5 o altro), l'azienda la promuove come "l'IA più intelligente di sempre", dato che ottiene risultati migliori degli altri in determinati test di benchmark; tuttavia non significa nulla in termini di AGI, in termini di ragionamento profondo, appercezione (il software che ha "consapevolezza" di sé stesso, come l'essere umano???), ma semplicemente un database di informazioni più grande e una procedura di calibrazione migliore, riduce l'errore medio in pratica come con una regressione statistica (abbiamo N parametri, calibrazione di questi parametri affinché venga ridotto l'errore medio) e, guarda caso, con questa procedura si ottiene un miglior allineamento fra domanda e risposta, in termini di riduzione dell'errore medio appunto.
Gli attuali tool quindi sono comunque lontani anni luce dalla vera idea di AGI (che non significa ottenere un punteggio più alto ad un test di matematica o cultura generale, grazie ad una procedura di training per minimizzare l'errore) e il funzionamento di base è sempre lo stesso. Che poi personaggi come Elon Musk o anche Sam Altman, solo per i propri interessi dichiarino "sono spaventato dalle incredibili capacità del mio nuovo prodotto", ha una finalità di markering.
Forse non dovremmo nemmeno preoccuparci troppo dell'AGI in sé, intesa come scenario fantascientifico ("i robot che prendono il sopravvento e decidono in autonomia, si ribellano all'essere umano"), questa è appunto fantascienza. I problemi reali sono altri, esistono eccome (ad esempio deepfake e truffe di phishing sempre più avanzate, uso dell'IA nel vishing) e per questo motivo l'IA va assolutamente regolamentata, possibilimente con un allineamento (etico, normativo) a livello internazionale, cosa difficile da fare (vedi anche IA - linee guida, AI Act).