Nr. 26-2 aktualisiert 2026-04-24 Lesedauer: min

Apertus – KI aus der Schweiz: Offene Türen in die KI-Welt

Zwischen den KI-Hotspots USA und China liegt ein kleines Land, welches mit «Apertus» weltweit eine Spitzenposition einnimmt. Warum die Schweiz dank der ETH und der EPFL international mithalten kann, erklärt Dr. Imanol Schlág im Interview.

Imanol Schlag: «Wir legen alle Daten und Entscheidungen offen. Im Gegensatz zu US- oder chinesischen Anbietern.» (Bild: Computerworld)

Einmal mehr lässt die Schweiz die intellektuellen Muskeln spielen. Entwickelt von Wissenschaftlern der ETH und der EPFL, ist «Apertus» ein Open-Source-Modell für Künstliche Intelligenz, welches weltweit zu den besten seiner Art gehört. Wir haben mit Dr. Imanol Schlág über die Hintergründe gesprochen.

Computerworld: KI-Modelle haben sich in den letzten 10 Jahren stark verändert. Wo liegt heute der Benchmark für ein Modell, das «State of the Art» ist?

Imanol Schlág: Vor zehn Jahren ging es primär um Bildklassifikation und einfache Sprachverarbeitung. Heute definiert sich «State of the Art» über fortgeschrittenes Reasoning, also mehrstufiges, logisches Schlussfolgern, native Multimodalität agentische Werkzeugnutzung, starke Code-Generierung und Kontextfenster von bis zu einer Million Tokens. Klassische Benchmarks wie MMLU sind dabei weitgehend gesättigt, weshalb die Forschung auf schwierigere Evaluationen wie GPQA Diamond (Wissenschaft auf Doktoratsniveau) oder SWE-bench (reales Software-Engineering) umgestiegen ist.

CW: Ist Apertus die Schweizer Antwort auf diese Entwicklung? Welche Eigenschaften zeichnen Ihr Modell aus?

Schlág: Apertus ist weniger eine direkte Antwort auf das Frontier-Rennen als vielmehr eine bewusste Grundlage für die eigenständige, transparente KI-Entwicklung in der Schweiz und darüber hinaus. Das Modell zeichnet sich durch vollständige Offenheit aus: Gewichte, Trainingsdaten, Code und Rezepte unter Apache-2.0-Lizenz, Training auf über 1000 Sprachen und – das ist uns besonders wichtig – die konsequente Einhaltung des EU AI Act. Apertus ist kein fertiges Produkt wie ChatGPT, sondern ein Fundament, auf dem Forschung, Verwaltung und Industrie eigene Anwendungen aufbauen können.

CW: Die KI-Heatmap hat zwei Hotspots: USA und China. Ist die Schweiz als neutrales Land prädestiniert, ein objektives, unvoreingenommenes KI-Modell zu entwickeln? 

Schlág: Kein Sprachmodell ist vollständig unvoreingenommen, denn jedes Modell reflektiert die Daten, auf denen es trainiert wurde. Was die Schweiz auszeichnet, ist die Kombination aus politischer Unabhängigkeit, erstklassiger Forschungsinfrastruktur und einer starken Tradition öffentlicher Institutionen. Wir orientieren uns an der Swiss AI Charter, legen sämtliche Trainingsdaten und -entscheidungen offen und ermöglichen so eine gesellschaftliche Überprüfbarkeit, die bei US- oder chinesischen Anbietern nicht gegeben ist.

CW: Ergänzend dazu: Was war der Impuls, Apertus zu entwickeln?

Schlág: Die leistungsfähigsten Modelle sind heute entweder geschlossen oder nur teilweise offen und werden von grossen Technologiekonzernen in den USA und China entwickelt, deren langfristige Absichten und Übereinstimmung mit dem öffentlichen Interesse unklar bleiben. Gleichzeitig verfügt die Schweiz mit dem Alps-Supercomputer und unseren technischen Universitäten über die nötige Infrastruktur und Expertise. Der Impuls war, diese Ressourcen zu bündeln, um ein Modell zu schaffen, das schweizerischen und europäischen Werten entspricht, unsere Landessprachen einschliesst und als transparente Grundlage für Forschung und Wirtschaft frei verfügbar ist.

CW: Was unterscheidet Apertus technisch und konzeptionell von bestehenden Large Language Models wie GPT oder Gemini?

Schlág: Der wichtigste konzeptionelle Unterschied ist Transparenz und Compliance: Wir veröffentlichen Gewichte, Trainingsdaten, Code und Rezepte, schliessen illegale und raubkopierte Daten konsequent aus und verhindern die Memorisierung von Trainingsdaten durch kontrollierte Experimente in grossem Massstab, die wir unter Peer-Review publiziert haben. Ein wesentlicher Unterschied ist auch der Massstab der Entwicklung: Hinter Frontier-Modellen stehen tausende Ingenieure und Milliarden-Budgets, die eine Vielzahl von Fähigkeiten ermöglichen. Des Weiteren ist Apertus 1 bewusst kompakter dimensioniert (8B und 70B Parameter). Zum Schluss ist der Vergleich mit ChatGPT oder Gemini ein Kategorienfehler: Das sind vollständige KI-Systeme, während Apertus ein KI-Modell ist, also das Kernstück, welches solche Systeme nutzen können. Ein Beispiel für KI System, welches Apertus verwendet, ist vor unserer Haustüre: oss.zuericitygpt.ch.

CW: Welche Rolle spielen Offenheit und Transparenz im Projekt – wird Apertus ein echtes Open-Source-Modell sein?

Schlág: Apertus ist unter der Apache-2.0-Lizenz veröffentlicht, was uneingeschränkte kommerzielle Nutzung erlaubt. Damit gehen wir deutlich über den branchenüblichen Standard hinaus: Die meisten sogenannten "offenen" Modelle wie Llama veröffentlichen lediglich Gewichte unter restriktiven Lizenzen. Wir legen zusätzlich alle Trainingsdaten-Quellen, den vollständigen Trainingscode, die Trainingsrezepte und Zwischenresultate offen. Das ermöglicht echte Reproduzierbarkeit und unabhängige Überprüfung, was der EU AI Act zunehmend auch einfordert.

CW: Ein zentrales Schlagwort ist digitale Souveränität. Was bedeutet dieser Begriff im Kontext von Apertus ganz konkret?

Schlág: Digitale Souveränität bedeutet konkret, dass Schweizer Organisationen das Modell auf eigener Infrastruktur betreiben können, ohne Abhängigkeit von ausländischen Technologieanbietern, ohne Vendor-Lock-in und ohne dass sensible Daten das Land verlassen müssen. Mehrere Schweizer Anbieter wie Swisscom, aber auch internationale Plattformen wie Azure und AWS stellen das Modell bereits bereit, was zeigt, dass Souveränität und breite Verfügbarkeit sich nicht ausschliessen.

CW: Wie stellen Sie sicher, dass Trainingsdaten rechtlich sauber sind und europäischen Datenschutzanforderungen entsprechen?

Schlág: Wir verwenden ausschliesslich öffentlich zugängliche Daten, respektieren maschinenlesbare Opt-out-Mechanismen wie robots.txt und schliessen raubkopierte oder illegale Inhalte konsequent aus. Wir unterdrücken die wörtliche Memorisierung von Trainingsdaten durch technische Massnahmen, deren Wirksamkeit wir in kontrollierten Experimenten unter Peer-Review nachgewiesen haben. Sämtliche Datenquellen und Verarbeitungsschritte sind dokumentiert und öffentlich einsehbar, was den Transparenzanforderungen des EU AI Act entspricht und es Dritten ermöglicht, unsere Compliance unabhängig zu überprüfen.

CW: Der Betrieb grosser KI-Modelle erfordert enorme Rechenleistung. Auf welche Infrastruktur und Compute-Ressourcen greift das Projekt zurück?

Schlág: Apertus wird auf dem Alps-Supercomputer am Swiss National Supercomputing Centre (CSCS) trainiert, der mit über 10'000 NVIDIA GH200 Grace Hopper Superchips ausgestattet ist und auf der Top500-Liste aktuell Platz 8 weltweit belegt. Für das Training des 70B-Modells nutzten wir rund 4'096 GPUs über etwa drei Monate und verbrauchten dabei über 6 Millionen GPU-Stunden. Das System läuft zu 100% mit Wasserkraft und wird mit Wasser aus dem Luganersee gekühlt, wobei die Abwärme, soweit ich weiss, teils für Fernheizung genutzt wird. Wir als öffentliche Institutionen bieten selbst keinen Inference-Service an, dafür stellen Drittanbieter wie Swisscom, AWS, Azure oder Infomaniak das Modell für Endnutzer bereit. 

CW: Europa erlebt derzeit mehrere KI-Initiativen wie Mistral AI oder Aleph Alpha. Wo positioniert sich Apertus in diesem Umfeld?

Schlág: Mistral AI und Aleph Alpha sind beides kommerzielle Unternehmen und daher nicht direkt vergleichbar. Aleph Alpha hat sich schon länger vom Training grosser Modelle zurückgezogen und positioniert sich heute als Enterprise-Middleware-Plattform. Mistral entwickelt zwar starke Modelle, behält jedoch das leistungsfähigste Modell zahlenden Kunden vor und gibt keine Einsicht in Trainingsdaten oder -methodik oder Modelideologie. Apertus verfolgt einen grundlegend anderen Ansatz: Als öffentlich finanziertes Projekt stellen wir alles vollständig offen zur Verfügung und schaffen damit eine transparente, regulierungskonforme Grundlage, auf der Forschung, Verwaltung und Industrie in der Schweiz und Europa aufbauen können.

CW: Wo steht das Projekt heute – und welche Meilensteine stehen in den nächsten ein bis zwei Jahren an?

Schlág: Im September 2025 haben wir Apertus 1.0 in zwei Grössen (8B und 70B Parameter) veröffentlicht und seither über 2,2 Millionen Downloads erreicht. Aktuell arbeiten wir an der nächsten Modellgeneration und haben eine Roadmap für Erweiterungen in Bereichen wie Reasoning, Coding, Tool-use und Multimodalität etabliert.

Christian Bühlmann

Chefredaktor Computerworld

Christian Bühlmann ist Chefredaktor der Computerworld und engagiert sich in der IT-Branche seit mehr als 30 Jahren als Fachautor, Berater und Projektleiter mit den Herausforderungen von Unternehmen in der digitalen Welt.