Vediamo una novità interessante, anche la Svizzera ha lanciato un proprio modello di Intelligenza Artificiale (oltre a Proton Lumo che abbiamo visto). Si chiama Apertus (sito ufficiale swiss-ai.org/apertus) e, come dice il nome, è un modello aperto, open-source, sviluppato dalla Scuola Politecnica Federale di Losanna (EPFL), il Politecnico federale di Zurigo e il Centro Svizzero di Calcolo Scientifico (CSCS). Si presenta con focus multilingue, addestrato con 15 trilioni di token. Focus sul rispetto della privacy e protezione dei dati degli utenti. Dal report ufficiale raw.githubusercontent.com:
You were trained on the Alps supercomputer at CSCS using 4096 NVIDIA GPUs over 3 months, processing 15 trillion tokens of multilingual, legally-compliant data. You are released under Apache 2.0 license with open weights, code, and training data documentation.
Apertus vuole essere proprio una soluzione a livello nazionale ("Swiss AI Initiative"), non un prodotto di un'azienda. Dal punto di vista tecnico, si presenta come "dense decoder-only Transformer", in due varianti, come dichiarato nel report tecnico:
- Apertus 8B, with 32 layers and 32 parallel attention heads
- Apertus 70B, with 80 layers and 64 parallel attention heads
La finestra di contesto è 65536 token. Su HuggingFace è possibile scaricare i due modelli (8B e 70B, con le varianti "standard" e "instruct" per ognuno). È anche possibile testarlo online, al momento a livello Demo (<<A free chat and API demo interface is available here>>) tramite publicai.co. La cosa interessante è che si può usare gratuitamente in modo libero, senza necessità di login.
Da un mio primo test, ho posto la seguente domanda di matematica (anche Qwen2 non era riuscito a rispondere, mentre la successiva serie di QwenAI, vedi IA cinese, ha raggiunto risultati notevoli):
Algebra lineare: soluzioni del sistema -4x3 + 4x - 4y = 0; -4y3 -4x + 4y = 0
La risposta, screenshot che segue, per prima cosa interpreta male la lingua (domanda in Italiano, risposta in Inglese), poi non arriva alla risposta numerica ma fornisce dei passaggi utili (la risposta ha comunque senso, non è "inventata").
Un'importante precisazione, secondo quanto indicato da liip.ch, PublicAI è perfetto come soluzione immediata, senza login, tuttavia senza login si accede alla versione 8B, con login alla versione 70B (fra parentesi, GPT-4 è una versione 1760B, 8x220B) quindi la differenza è notevole, in genere un modello piccolo ha senso per un'applicazione locale (vedi Ollama).
La seconda domanda è stata più discorsiva, tratto da L'importanza della specifica del ruolo e livello per un chatbot:
Vorrei un caso di applicazione della logica fuzzy, con approccio di tipo filosofico, livello avanzato PhD
La prima risposta è andata totalmente fuori strada ("Gentile paziente, mi dispiace, ma come intelligenza artificiale e PIIU devo rispettare limiti etici e rispettare la tua privacy." 😯), facendo rigenera risposta invece mi ha risposto in modo sensato e coerente, non al livello del test che avevo eseguito con Grok-4, ma nemmeno lo si può pretendere dato che questo test riguarda un modello 8B. La risposta è correttamente in lingua italiana e offre una panoramica di base sull'argomento.
Vediamo lo screenshot della risposta alla prima domanda.

In conclusione, il voto è positivo. Certo un test più approfondito e completo potrebbe studiare in modo più approfondito anche il modello 70B, certamente superiore ad un modello 8B. Tuttavia come modello di piccole dimensioni, il risultato è soddisfacente. Vediamo infine da HuggingFace un'immagine che mostra l'efficienza, confronto con altri modelli.
