Vladimir la regolamentazione di tutto il settore IA è un tema complesso, delicato, difficile da delineare. Non solo per l'ImageAI ma in generale, il tool per produrre il risultato deve attingere ad un certo database (già predefinito oppure online tramite web-scraping, che sia). in ogni caso, allo stato attuale una sentenza emessa negli USA ha stabilito questo:
un'opera (di qualunque tipo, formato) generata dall'IA NON è soggetta a copyright, diritto d'autore.
Questo vale in generale. Per la questione <<Uso dei dati senza pagare i diritti d’autore>> invece occorre ricordare che se nel training del modello viene fatto uso di materiale protetto da copyright, senza averne la licenza e autorizzazione legale, questo non sarebbe consentito. Chiaro che Google, OpenAI, Meta ecc faranno di tutto per negare la cosa, rifiutandosi di pagare sanzioni per i precedenti usi e, per il futuro, di pagare le varie licenze. Fare causa a dei colossi del genere non è mai facile, è bene però precisare questa differenza:
- dati usati per addestrare il modello: occorre averne l'autorizzazione legale all'uso
- risultato prodotto dal tool di IA: è libero, non è soggetto a copyright
Aggiungo un approfondimento interessante, di ai4business.it:
I modelli di AI generativa possono dimenticare selettivamente i dati dopo il training
Significa che, per varie ragioni, se opportuno, è possibile intervenire sui singoli dati (eliminare le singole informazioni, token che eventualmente presentano problemi legali come quanto detto in relazione al copyright), anziché rendere problematico l'intero modello. Un caso di studio con il modello Llama2 - 7b (ovvero la versione del modello Llama2 con 7 miliardi di parametri) ha reso possibile dimenticare la storia di Harry Potter, identificando ed eliminando i token basati su tale contenuto. Questo è un risultato molto interessante, perché in caso di problemi, controversie, consente di intervenire con piccoli aggiustamenti sul caso specifico anziché mettere a rischio la validità legale di un progetto enorme. Vediamo l'esempio del risultato di questo caso di studio: le risposte dopo l'eliminazione dei contenuti, indicano "allucinazioni" ovvero in parole semplici, quando il modello non ha modo di trovare un riferimento sensato e "spara a caso" la risposta.
