Vladimir diciamo che la cosa può avere effetti benefici o meno, a seconda dello scopo per cui viene impiegato.
- tramite steganografia (con varie tecniche, nascondere un certo messaggio che può avere vari formati quindi all'interno di un file testo, immagine, audio o video), ne abbiamo accennato qui:
- PNGLoad: malware che fa uso della steganografia per iniettare contenuto malevolo aggiuntivo in quella che sembra essere una semplice immagine .png
- Steghide: già dal nome, un tool che può essere usato per applicare la stenografia (ad immagini o file audio) e quindi nascondere informazioni all'intenro del file; può essere usato anche in modo inverso, quindi per "reverse engineering"
- nascondere l'algoritmo di un LLM: di fatto è un ragionamento codificato e ci può stare; un'azienda come Google, OpenAI ha il diritto di proteggere almeno in parte il proprio algoritmo (altrimenti se si nota una forte ricorrenza di termini, struttura identica, una persona esterna o anche azienda competitor può conoscere l'algoritmo, che l'azienda vorrebbe invece tenere per sé). Quindi il ragionamento codificato funziona così: è un sistema di codifica-decodifica che avviene in più fasi, una rielaborazione della bozza di risposta (senza che la veda l'utente) per mostrare poi un risultato un po' differente, in genere rielaborato, ricontrollato e quindi anche di qualità superiore, cosa che di fatto migliora la qualità complessiva del modello LLM (Large Language Model). Riguardo a questo, occorre solo una precisazione: secondo quanto già detto in AI Act : ancora nessun accordo in Europa, la Corte di Cassazione ha stabilito che lo schema esecutivo, struttura principale dell'algoritmo deve essere reso pubblico, mentre le singole operazioni matematiche (ottimizzazione, ecc) può far parte del segreto aziendale; quindi anche su "cosa" e "come" nascondere, l'azienda che sviluppa il software deve prestare attenzione