Schweizer KI-Innovation: Apertus bringt Transparenz und Sprachvielfalt in die KI-Welt
Ein offenes System als strategische Antwort auf globale Monopole
Mit Apertus startet die Schweiz eine transparente und mehrsprachige Alternative zu bestehenden Künstlichen Intelligenz-Systemen. Entwickelt von der ETH Zürich, der EPFL Lausanne und dem Swiss National Supercomputing Centre (CSCS) in Lugano, setzt das System konsequent auf Offenheit: Architektur, Trainingsdaten und Gewichtungen sind vollständig dokumentiert.
Besonders hervorzuheben ist die multilinguale Kompetenz des Modells. Es verarbeitet über 1000 verschiedene Sprachen, darunter auch Schweizerdeutsch und Rätoromanisch. Dass mehr als 40 Prozent des Trainingsmaterials aus nicht-englischen Quellen stammen, zeigt den klaren Fokus auf sprachliche Diversität und Datenethik.
Praxistest: Sprachdominanz stark – logische Präzision schwankt
Im praktischen Einsatz bestätigen sich viele der sprachlichen Versprechen. Texte im Schwiizerdütsch-Modus zeigen erfreuliche Qualität. Dennoch offenbaren sich Schwächen bei komplexeren Aufgaben wie:
- logischem Schliessen
- mehrgliedriger Argumentationsverarbeitung
- Übersetzungen ins Rätoromanische
Letztere führten zu inkonsistentem Sprachgebrauch und grammatikalischen Fehlern. Lehrpersonen aus dem Engadin stuften die Ergebnisse als „praktisch unbrauchbar“ ein. Auch wenn GPT-5 in diesen Bereichen ebenfalls nicht perfekt ist, wirkt es im Vergleich robuster.
Technologie mit Weitblick: Datenschutz und Trainingsethik als Alleinstellungsmerkmal
Apertus wurde mit rund 15 Billionen Tokens trainiert – ausschliesslich aus öffentlichen Quellen. Dadurch erfüllt es die strengen Anforderungen des Schweizer Datenschutzgesetzes sowie zentrale Standards des EU AI Acts. Dieses ethisch einwandfreie Vorgehen bietet klare Vorteile für:
- öffentliche Institutionen
- Organisationen mit Datenschutz-Anforderungen
- Anwendungen mit regulatorischer Verantwortung
Modellvielfalt und technische Infrastruktur: Schweizer Präzision trifft Leistung
Zur Verfügung stehen zwei Modellgrössen:
- 8 Milliarden Parameter – kompakter und öffentlich zugänglich
- 70 Milliarden Parameter – leistungsstärker, Registrierung erforderlich
Im Vergleich zu GPT-5 mit mehreren Dutzend Billionen Parametern relativiert sich die Grösse, doch für viele Anwendungsfälle ist dies bereits ausreichend. Die Trainingsinfrastruktur wurde auf dem Supercomputer „Alps“ des CSCS realisiert, unterstützt durch über 10 Millionen GPU-Stunden und Cloud-Infrastruktur von Swisscom.
Von Forschung zur Anwendung: Zugang für Entwickler und Institutionen
Apertus richtet sich primär an eine technikaffine Zielgruppe:
- Entwickelnde
- Forschende
- Institutionen
Während die 8B-Variante öffentlich zugänglich ist, erfordert der Zugriff auf die 70B-Version eine Anmeldung. Der Fokus liegt auf dem Aufbau einer modularen europäischen KI-Plattform. Künftige Erweiterungen sind etwa geplant für:
- Rechtswesen
- medizinische Dokumentation
- Bildung
Fazit: Ambitioniert, transparent – aber noch nicht auf Augenhöhe
Apertus schafft eine Grundlage für europäische, offene KI-Systeme, die Datenschutz, Mehrsprachigkeit und Transparenz ernst nehmen. Besonders punkten kann das Modell im Bereich der interkulturellen Zugänglichkeit.
Technologisch bleibt Potenzial für Verbesserungen – insbesondere im Hinblick auf logisches Denken und komplexe sprachliche Strukturen. Dennoch zeigt sich die Plattform als vielversprechend, flexibel und einzigartig in ihrer Ausrichtung. Mit weiterem Feinschliff könnte Apertus zur europäischen KI-Schlüsseltechnologie werden – ganz im Sinne Schweizer Präzision und Verantwortung.