Schweizer KI-Innovation: Apertus bringt Transparenz und Sprachvielfalt in die KI-Welt

0
30

Schweizer KI-Innovation: Apertus bringt Transparenz und Sprachvielfalt in die KI-Welt

Ein offenes System als strategische Antwort auf globale Monopole

Mit Apertus startet die Schweiz eine transparente und mehrsprachige Alternative zu bestehenden Künstlichen Intelligenz-Systemen. Entwickelt von der ETH Zürich, der EPFL Lausanne und dem Swiss National Supercomputing Centre (CSCS) in Lugano, setzt das System konsequent auf Offenheit: Architektur, Trainingsdaten und Gewichtungen sind vollständig dokumentiert.

Besonders hervorzuheben ist die multilinguale Kompetenz des Modells. Es verarbeitet über 1000 verschiedene Sprachen, darunter auch Schweizerdeutsch und Rätoromanisch. Dass mehr als 40 Prozent des Trainingsmaterials aus nicht-englischen Quellen stammen, zeigt den klaren Fokus auf sprachliche Diversität und Datenethik.

Praxistest: Sprachdominanz stark – logische Präzision schwankt

Im praktischen Einsatz bestätigen sich viele der sprachlichen Versprechen. Texte im Schwiizerdütsch-Modus zeigen erfreuliche Qualität. Dennoch offenbaren sich Schwächen bei komplexeren Aufgaben wie:

  • logischem Schliessen
  • mehrgliedriger Argumentationsverarbeitung
  • Übersetzungen ins Rätoromanische

Letztere führten zu inkonsistentem Sprachgebrauch und grammatikalischen Fehlern. Lehrpersonen aus dem Engadin stuften die Ergebnisse als „praktisch unbrauchbar“ ein. Auch wenn GPT-5 in diesen Bereichen ebenfalls nicht perfekt ist, wirkt es im Vergleich robuster.

Technologie mit Weitblick: Datenschutz und Trainingsethik als Alleinstellungsmerkmal

Apertus wurde mit rund 15 Billionen Tokens trainiert – ausschliesslich aus öffentlichen Quellen. Dadurch erfüllt es die strengen Anforderungen des Schweizer Datenschutzgesetzes sowie zentrale Standards des EU AI Acts. Dieses ethisch einwandfreie Vorgehen bietet klare Vorteile für:

  • öffentliche Institutionen
  • Organisationen mit Datenschutz-Anforderungen
  • Anwendungen mit regulatorischer Verantwortung

Modellvielfalt und technische Infrastruktur: Schweizer Präzision trifft Leistung

Zur Verfügung stehen zwei Modellgrössen:

  1. 8 Milliarden Parameter – kompakter und öffentlich zugänglich
  2. 70 Milliarden Parameter – leistungsstärker, Registrierung erforderlich

Im Vergleich zu GPT-5 mit mehreren Dutzend Billionen Parametern relativiert sich die Grösse, doch für viele Anwendungsfälle ist dies bereits ausreichend. Die Trainingsinfrastruktur wurde auf dem Supercomputer „Alps“ des CSCS realisiert, unterstützt durch über 10 Millionen GPU-Stunden und Cloud-Infrastruktur von Swisscom.

Von Forschung zur Anwendung: Zugang für Entwickler und Institutionen

Apertus richtet sich primär an eine technikaffine Zielgruppe:

  • Entwickelnde
  • Forschende
  • Institutionen

Während die 8B-Variante öffentlich zugänglich ist, erfordert der Zugriff auf die 70B-Version eine Anmeldung. Der Fokus liegt auf dem Aufbau einer modularen europäischen KI-Plattform. Künftige Erweiterungen sind etwa geplant für:

  • Rechtswesen
  • medizinische Dokumentation
  • Bildung

Fazit: Ambitioniert, transparent – aber noch nicht auf Augenhöhe

Apertus schafft eine Grundlage für europäische, offene KI-Systeme, die Datenschutz, Mehrsprachigkeit und Transparenz ernst nehmen. Besonders punkten kann das Modell im Bereich der interkulturellen Zugänglichkeit.

Technologisch bleibt Potenzial für Verbesserungen – insbesondere im Hinblick auf logisches Denken und komplexe sprachliche Strukturen. Dennoch zeigt sich die Plattform als vielversprechend, flexibel und einzigartig in ihrer Ausrichtung. Mit weiterem Feinschliff könnte Apertus zur europäischen KI-Schlüsseltechnologie werden – ganz im Sinne Schweizer Präzision und Verantwortung.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein