LinkedIn addestra i propri modelli IA con i dati degli utenti
Da quanto pubblicato su theverge.com, leggiamo questa recente notizia. Nulla di strano in realtà vedi il vecchio caso Google Bard (* ora Gemini) usa i dati degli utenti per il training IA.
Dobbiamo essere consapevoli che il concetto di privacy, trattamento dei dati personali è anacronistico, per come lo si intende, per l'uso che poi facciamo di questi servizi. Insomma, si vuole lo strumento perfetto, il chatbot perfetto, senza consentire che i propri dati derivanti dall'utilizzo possano essere usati dall'azienda che sviluppa e accresce questi servizi? Follia.
La pagina ufficiale linkedin.com/legal/privacy-policy è stata aggiornata di recente e viene indicato quanto segue:
We may use your personal data to improve, develop, and provide products and Services, develop and train artificial intelligence (AI) models, develop, provide, and personalize our Services, and gain insights with the help of AI, automated systems, and inferences, so that our Services can be more relevant and useful to you and others.
Tuttavia una pagina di help (linkedin.com/help) spiega che l'IA generativa viene usata per scrittura e funzioni di assistenza. Viene precisato che è comunque possibile revocare l'autorizzazione dalle impostazioni dell'account, "privacy dei dati" e disattivare "Dati per il miglioramento dell’AI generativa".
Il dilemma, come scritto da TheVerge, è fondamentalmente questo:
LinkedIn introduced the new privacy setting and opt-out form before rolling out an updated privacy policy saying that data from the platform is being used to train AI models.
Quindi il dibattito legale (oggi non si sa fare altro) riguarda se la privacy-policy sia stata aggiornata prima o dopo aver cambiato le impostazioni. Follia insomma, inutile dire che dovremmo concentrarci su altro, con una spinta costruttiva all'innovazione.