• CyberNews
  • Filigrana (watermark) per riconoscere ImageAI: favorevoli o contrari?

La questione è molto complessa, evidentemente. Da un lato potremmo voler contrastare il fenomeno del deepfake, disinformazione, con tutti i danni connessi, quindi rendere obbligatoria l'etichettatura del tipo "immagine realizzata con il tool ImageAI dell'azienda XYZ". Dall'altro lato siamo ben consapevoli che esistono già servizi del tipo "watermark remover" (e figuriamoci se venisse introdotto un tale obbligo che verrebbe visto in termini di "proibizionismo"); inoltre è sicuro che, pur imponendo limiti alle aziende e tool principali (Bing Image Creator, DALL-E, NightCafe Creator, Midjourney, ecc), ne nascerebbero di nuovi che se ne fregano di queste regole. Tuttavia, questo sarebbe un po' come dire: "non mettiamo le regole perché ci sarà sempre qualcuno che non le rispetta". La cosa non riguarda invece il concetto di "qualità", analogamente ai contenuti testuali, ricoriamo che ciò che conta in questo caso NON è "come è stato ottenuto il risultato" bensì se il risultato soddisfa o meno i bisogni dell'utente, punto. Vedi infatti Guida ai contenuti SEO che piacciono a Google (e non solo)

Ho spiegato pro e contro delle due opzioni, non voglio influenzare la scelta. Vi chiedo per favore di votare in base a ciò "che sentite", anche se non è semplice (è stato difficile anche per me!), la soluzione che vi sembri "più giusta" da adottare nella pratica, ovvero favorevole ad una filigrana, segno distintivo su tutte le immagini create tramite IA oppure contrario.

Approfondimenti:
cnn.com
nature.com
wired.com

Filigrana per riconoscere ImageAI: favorevoli o contrari?

Favorevole: etica, trasparenza, i tool delle aziende principali potrebbero adeguarsi
Contario: ci sarebbero troppe scappatoie, non risolve comunque il problema
Questo sondaggio è terminato.

    Giulio_M Bisogna tenere conto che al giorno d'oggi mettere delle filigrane su immagini è una cosa impensabile, vedi ad esempio questo sito che funziona a sua volta con l'AI per rimuoverle.
    Forse si salvano i video se le filigrane sono abbastanza grandi e non semitrasparenti.
    Sicuramente i modi per aggirarle sono infiniti ma a livello etico hai ragione, soprattutto per chi ha un immagine lavorativa in questo ambito: grafici, designers ecc...
    In conclusione sono dell'idea che ci sarebbero troppe scappatoie, non costerebbe nulla ma non ne varrebbe la pena.

    2 mesi dopo

    Vediamo un aggiornamento: dopo l'effettiva approvazione dell'AI Act in seguito al precedente accordo tra Italia, Francia e Germania sull'AI Act , ora occorre prestare attenzione. Non a caso condivido l'aggiornamento in questo thread, per il semplice fatto (cito ainews.it):

    Tra i punti inclusi nell’accordo anche l’obbligo per le aziende e per gli altri utilizzatori di indicare se i contenuti sono generati dall’intelligenza artificiale.

    Fra i vari obiettivi, questo rientra nel punto "trasparenza" e, in un modo o nell'altro (watermark, didascalia, ecc), proprio per una questione di trasparenza, gli utenti devono poter sapere se il contenuto sia stato generato da IA oppure no (immagini, testo o altro che sia), per evitare problemi relativi al Deepfake. Dal punto di vista pratico, non è ben chiaro se e come potranno essere provate (e/o sanzionate) eventuali violazioni, i dettagli sono ancora da definire con esattezza e la legge entrerà in vigore due anni dopo l'approvazione (salvo eccezioni specifiche).

    In ogni caso è un aspetto di cruciale importanza e, giusto o sbagliato che sia, specialmente un'azienda dovrebbe valutarlo con attenzione, cercare di essere in regola e quindi anche tutelarsi da incomprensioni e/o usi impropri.

    2 mesi dopo

    Meta favorevole al watermark per ImageAI. Meta ha annunciato che nel suo ecosistema (Facebook, Instagram, Threads) aggiungerà un'etichetta specifica che riconosce la creazione di immagini tramite intelligenza artficiale, anche per software di terze parti (il tool Imagine with Meta ha già l'apposita etichetta). Tutto questo ovviamente in ottica di trasparenza, evitare Deepfake.

    Da precisare che il watermark non dev'essere necessariamente visibile all'utente (viene quindi comunque riconosciuto uno schema), Meta ha ideato una tecnologia chiamata Stable Signature (ai.meta.com) che, in breve, tramite gli standard C2PA e IPTC integra il watermark durante la generazione dell'immagine quindi non è rimovibile.

    Powered by: FreeFlarum.
    (remove this footer)