Portfolio-Management-Infrastruktur für eine Open-Banking-Welt

Quelle: Picsart (AI-generated)
Quelle: ChatGPT (AI-generated)

Das OpenBankingProject.ch ist im Februar 2019 als organisationsübergreifendes Konsortium zur Förderung der Open-Banking-Entwicklung in der Schweiz gegründet worden. OBP steht dabei für eine Öffnung der Bank im Sinne des Kunden und umfasst heute 5 Partner und 15 Member. Die Initiative fokussiert im Rahmen von Open Banking auf die Nutzbarmachung von Standards (z. B. API, Tokens), die Sichtbarmachung der relevanten Akteure, die Aufbereitung von Wissen sowie die Vernetzung von Unternehmen.

An vierteljährlichen Member Events bietet OBP auch immer wieder Start-up-Gründern eine Möglichkeit, ihre Innovation in der Finanzbranche vorzustellen. Dabei interessiert die Community natürlich besonders, inwiefern Open Banking eine Rolle im Geschäftsmodell resp. in der Idee des FinTech spielt. Am Member Event vom 12.11.2025 bei der Ergon Informatik in Zürich war der FinTech-Gründer Rayan Ayari von RAIIS zu Gast. RAIIS ist ein Plug-in Portfolio Management System, das Finanzinstituten dabei hilft, Prozesse zu modernisieren und automatisieren, operative Redundanzen zu reduzieren und die Genauigkeit von Auswertungen zu verbessern. Nachfolgend haben Stefan Knaus (OpenBankingProject.ch) sowie Rayan Ayari (RAIIS) die Kernaussagen aus dem Impulsbeitrag zusammengefasst.

Die Infrastruktur-Herausforderung im Schweizer Wealth Management

Die Schweizer Vermögensverwaltungsbranche verwaltet 3,4 Billionen CHF Assets under Management und positioniert das Land damit als den drittgrößten Hub in Europa, wobei 31 % der verwalteten Vermögen von ausländischen Kunden stammen. In der obigen Darstellung ist die AuM-Entwicklung der letzten acht Jahre abgebildet. CIS steht in diesem Kontext für «Collective Investment Schemes» also zu Deutsch für kollektive Kapitalanlagen. Trotz dieser beeindruckenden Grösse haben Schweizer Banken ein Effizienzproblem: Jedes Jahr entsteht eine Lücke von 2–3 Milliarden CHF. Grund dafür ist, dass das Cost-Income-Ratio von Schweizer Banken mit 68,8 % deutlich höher liegt als die 60 % der international effizientesten Marktteilnehmer. Diese Ineffizienz ist kein technologisches Problem im herkömmlichen Sinne. Es ist ein Infrastrukturproblem – eines, das Open Banking in einzigartiger Weise zu lösen vermag, aber nur teilweise.

Open-Banking-Initiativen haben international bedeutende Fortschritte bei der Standardisierung von Daten erzielt. So können Endkunden zukünftig standardisiert in einer Drittapplikation nachvollziehen, welche Vermögenswerte sie halten, welche Transaktionen stattgefunden haben, welche Depotbeziehungen bestehen und wie Salden über Institute hinweg strukturiert sind. PSD2 in Europa hat das transformative Potenzial einer verpflichtenden API-Standardisierung im Kontext des Zahlungsverkehrs demonstriert. Die europäischen Banken haben APIs implementiert, welche den sicheren und standardisierten Zugriff von Drittanbietern erlauben, welche Kontoinformationen und Zahlungsinitiierung für den Endkunden in ihrer Applikationen anbieten. In der Schweiz herrscht bisher ein marktorientierter Ansatz zur Umsetzung von Open Banking. Mit der Open Wealth Association hat sich bereits eine vielversprechende Initiative formiert, welche über den Zahlungsverkehrsbereich hinaus für den Anlagebereich APIs für «Custody Services» sowie «Order Placement» bereitstellt.

Doch die Datenstandardisierung stellt nur die erste Schicht eines zweischichtigen Problems dar:

Layer 1 (Datenstandardisierung):

Die Datenstandardisierung bezeichnet die Standardisierung von Vermögenswerten, Transaktionsdaten, Salden und Depotbeziehungen – ein Bereich, der zunehmend durch Open-Banking-APIs und regulatorische Rahmenwerke adressiert wird.

Layer 2 (Berechnungsstandardisierung):

Die Berechnungsstandardisierung bezieht sich auf die Harmonisierung von Berechnungslogiken von Performance, Kosten, Restriktionen und Compliance Einflussfaktoren – ein Bereich, in dem es aktuell keinen standardisierten Branchenansatz gibt.

Die Konsequenz dieser fehlenden zweiten Schicht der Berechnungsstandardisierung zeigt sich deutlich in der Praxis: Unterschiedliche Systeme erzeugen unterschiedliche Ergebnisse auf Basis derselben zugrunde liegenden Daten – abhängig von der angewendeten Methodik und den darin eingebetteten Annahmen.

Die Brücke zwischen Theorie und Praxis in der Finanzwelt

Portfoliomodelle – von der klassischen Markowitz-Optimierung über faktorbasierte Ansätze bis hin zu modernen Machine-Learning-Methoden – teilen eine gemeinsame strukturelle Begrenzung: Die praktische Umsetzbarkeit ihrer Ergebnisse wird systematisch vernachlässigt.

Diese Fragmentierung spiegelt eine tiefere strukturelle Lücke zwischen Finanztheorie und praktischer Umsetzung wider, die seit Jahrzehnten besteht. Die moderne Portfoliotheorie, beginnend mit Markowitz (1952) und erweitert durch das Capital Asset Pricing Model (Sharpe, 1964) sowie multifaktorielle Ansätze, bietet mathematisch elegante Rahmenwerke für den Portfolioaufbau. Diese Modelle gehen jedoch von friktionslosen Märkten, kostenlosem Rebalancing und sofortiger Ausführung aus – Annahmen, die theoretische Optima grundlegend von tatsächlich umsetzbaren Strategien entkoppeln.

DeMiguel et al. (2009) zeigten, dass es in der Praxis weiterhin schwierig bleibt, theoretische Fortschritte in konsistente zukünftige Mehrrenditen zu übersetzen – naive Gleichgewichtung erreicht häufig eine ähnliche oder sogar bessere Performance als optimierte Portfolios. Schätzfehler bei erwarteten Renditen und Kovarianzmatrizen, kombiniert mit der kumulativen Wirkung von Transaktionskosten, erzeugen eine anhaltende Lücke zwischen theoretischen Vorgaben und praktisch erzielbaren Ergebnissen.

Neuere rechnergestützte Ansätze – etwa Machine Learning für Signalgenerierung oder Optimierungsalgorithmen für Allokation – haben zwar an Komplexität gewonnen, perpetuieren jedoch häufig dieselbe strukturelle Begrenzung: Auch sie behandeln Implementierungsbeschränkungen wie Transaktionskosten oder Kapitalverfügbarkeit als nachgelagerte Anpassungen, statt sie als integrierte Bestandteile des Modellierungsprozesses zu berücksichtigen. Reinforcement-Learning-Ansätze bieten hier prinzipiell einen Ausweg, da sie solche Beschränkungen als integralen Bestandteil des Entscheidungsprozesses modellieren – nicht als nachträgliche Korrektur. Ihre praktische Anwendung im Portfoliomanagement bleibt jedoch bislang begrenzt.

Dies führt zu drei wiederkehrenden Einschränkungen in traditionellen wie auch in rechnergestützten Portfolioansätzen. Erstens werden Prognose und Allokation meist getrennt optimiert, sodass statistisch gute Vorhersagen nicht zwingend zu besseren finanziellen Ergebnissen führen. Zweitens arbeiten viele Modelle mit starren Entscheidungsregeln, die zeitliche Dynamiken, Interaktionen und den breiteren Marktkontext nur unzureichend berücksichtigen. Drittens werden zentrale Restriktionen wie Transaktionskosten, Liquidität oder Kapitalanforderungen oft erst nachgelagert berücksichtigt – als Korrektur der Modellausgabe, statt als integraler Bestandteil der Optimierung. Diese Schwächen sind jedoch kein Naturgesetz quantitativer Modelle, sondern Folge fehlender Infrastruktur – insbesondere fehlender standardisierter Mechanismen, die Kosten, Restriktionen und Kapitalflüsse von Beginn an konsistent abbilden.

Für die zweite Schicht – die Berechnungsstandardisierung – braucht es eine Infrastruktur, die als flexible Plug-in-Ebene über der Datenstandardisierung liegt, jede Datenquelle akzeptiert und praxisrelevante Restriktionen direkt integriert. Eine solche Infrastruktur muss ohne Datenmigration funktionieren und Bestände, Preise und Transaktionen aus beliebigen Quellen verarbeiten können. Sie sollte die gesamte Handelshistorie inklusive Kapitalflüssen und Cash-Positionen rekonstruieren, Kosten transparent und verursachungsgerecht zuordnen, regulatorische Vorgaben in Echtzeit prüfen und Kapitalbewegungen so exakt nachverfolgen, dass GIPS-konformes Reporting möglich wird. Entscheidend ist dabei ein operativer Grundsatz: Die neue Schicht ergänzt bestehende Systeme – sie ersetzt sie nicht.

Warum Künstliche Intelligenz zuerst beide Ebenen braucht

Die aktuelle Begeisterung für künstliche Intelligenz im Wealth Management steht vor einer unbequemen Wahrheit: KI kann nicht optimieren, was nicht konsistent messbar ist. Das Versprechen von Machine Learning im Portfoliomanagement – adaptive Allokation, automatisiertes Rebalancing, personalisierte Strategiekonstruktion – hängt von Trainingsdaten und Bewertungsmetriken ab, die konsistent, vergleichbar und präzise sind. Wenn sich Berechnungsmethodologien zwischen Systemen unterscheiden, kann vermeintliche Alpha-Generierung eher Messdifferenzen widerspiegeln als tatsächliche Outperformance. Die Voraussetzungen für wirkungsvolle KI im Portfoliomanagement sind klar: saubere und strukturierte Daten (Layer 1), reproduzierbare Berechnungen (Layer 2) und Fachwissen zur Interpretation der Ergebnisse. Die Reihenfolge ist entscheidend: zuerst die Infrastruktur, dann die Intelligenz.

Fazit und Ausblick für den Schweizer Finanzplatz

Die Führungsrolle der Schweiz im Wealth Management basiert traditionell auf der Qualität der Kundenbeziehungen, regulatorischer Stabilität und geografischer Neutralität. Diese Vorteile bestehen weiterhin, werden jedoch zunehmend durch operative Effizienz als Wettbewerbsfaktor ergänzt. Die Daten weisen auf eine strukturelle Herausforderung hin: 71 % der Wealth Manager priorisieren das Asset-Wachstum, doch die Gewinnmargen bleiben trotz eines Anstiegs der verwalteten Vermögen um 11 % im Jahr 2024 unverändert. Die Kostenmargen sind von 30 auf 34 Basispunkte gestiegen.¹ Die Branche wächst bei den Vermögenswerten, steht aber gleichzeitig unter Druck bei der Profitabilität. Standardisierte Infrastruktur könnte einen Weg eröffnen, die Wettbewerbsposition der Schweiz von einem beziehungsbasierten Vorteil zu einem infrastrukturgestützten Vorteil zu transformieren – und damit operative Fähigkeiten zu schaffen, die sich langfristig potenzieren und schwer zu replizieren sind.

Die Effizienzchance im Schweizer Wealth Management ist erheblich und strukturell. Open Banking schafft die Datenstandardisierung, die es ermöglicht, Multi-Custody-Arbeitsmodelle wirtschaftlich tragfähiger zu machen. Die Standardisierung von Berechnungen erweitert dieses Fundament und liefert vergleichbare, auditierbare und constraintsensitive Portfolioanalysen.

Die Infrastrukturebene wird derzeit definiert und aufgebaut. Für eine Branche, die Vermögen von 3,4 Billionen CHF verwaltet, verdient die Entwicklung standardisierter Berechnungsinfrastruktur besondere Aufmerksamkeit von Instituten, die operative Verbesserungen und eine klare wettbewerbliche Differenzierung anstreben.


Stefan Knaus ist Consultant beim Business Engineering Institute St. Gallen AG.

Rayan Ayari ist Co-Founder & CEO von RAIIS GmbH.
Contact: info@raiis.ch | www.raiis.ch


References

¹ Swiss Asset Management Study 2025, zeb consulting and Asset Management Association Switzerland (AMAS).

² Markowitz, H. (1952). Portfolio Selection. The Journal of Finance, 7(1), 77–91.

³ Sharpe, W. F. (1964). Capital asset prices: A theory of market equilibrium under conditions of risk. The Journal of Finance, 19(3), 425–442.

⁴ DeMiguel, V., Garlappi, L., & Uppal, R. (2009). Optimal versus naive diversification: How inefficient is the 1/N portfolio strategy? The Review of Financial Studies, 22(5), 1915–1953.

⁵ Based on RAIIS pilot deployments including Aargauische Pensionskasse (shadow rebalancing), Swiss Bank (ESG integration), and Enzler Vermögensberatung (financial ratios platform).  

⁶ Berg, F., Kölbel, J., & Rigobon, R. (2022). Aggregate confusion: The divergence of ESG ratings. Review of Finance, 26(6), 1315–1344.

⁷ Alkan, D., Paraschiv, F., & Ayari, R. (2025). Green Fees: Sustainability Impacts on Portfolio Management. International Review of Financial Analysis (accepted). DOI: 10.1016/j.irfa.2025.104812. 

8 Open Wealth Association. (2025). Open Wealth APIs. https://openwealth.ch/

Stefan Knaus