Datengetriebene Resilienzstrategie gegen Zollschocks

01.12.2025 – René Stäbler & Wilhelm Kleiminger

insightsPageview({ aktuelles_topic: 'Datengetriebene Resilienzstrategie gegen Zollschocks', aktuelles_category: 'fachartikel', aktuelles_date: '01.12.2025' })

Wie die Schweizer Maschinenindustrie mit datengetriebenen Methoden ihre Wettbewerbsfähigkeit langfristig sichern kann.

«US tariffs hit the tech industry very hard – now is the time to keep calm and act decisively.» So lautet der Titel des Communiqués von Swissmem bereits am 3. April 2025.1

Die Schweizer Exportindustrie, insbesondere die Maschinenhersteller, sehen sich zehn Jahre nach dem «SNB-Frankenschock» mit dem sogenannten «Liberation Day» erneut vor einer grossen Herausforderung. Dieses Mal ist die Ausgangslage doppelt so schwierig: hohe Zölle und starker Franken.

Für die exportorientierte MEM-Industrie bedeutet das:

  • Steigender Preisdruck
  • Massive Margenerosion
  • Umsatzrückgang bis hin zu potenziellem Marktverlust

Diese Risiken können für einzelne Unternehmen existenzbedrohend werden. Sicher ist: Der Bedarf an strategischer Resilienz steigt – ohne die Innovationskraft zu gefährden. Für Geschäftsleitungen und Verwaltungsräte stellt sich die Schlüsselfrage: Wie lassen sich Wettbewerbsfähigkeit und finanzielle Stabilität langfristig sichern? Klassische Kostensenkungsprogramme stossen dabei an Grenzen: Kurzfristig wirksam, untergraben sie langfristig häufig die Innovations- und Anpassungsfähigkeit. Eine datengetriebene Resilienzstrategie hingegen ermöglicht faktenbasierte Entscheidungen, um Margenverlust, Preisdruck und Umsatzrückgang gezielt entgegenzuwirken.

Data-Science-gestützte Hebel für die MEM-Industrie

Durch das Übertragen analytischer Ansätze aus dem Einzelhandel, der systematisch Kundenverhalten auswertet, wie auch aus dem Finanzsektor, der mit Prognose- und Klassifizierungsmodellen arbeitet, lassen sich zentrale Geschäftsfragen mit Data-Science-Methoden beantworten:

#1 Preiselastizitätsmodelle: Zahlungsbereitschaften analysieren

Wie wirken sich (erzwungene) Preisänderungen auf Nachfrage und Marge aus – und welche Preisgrenzen maximieren Umsatz und EBIT, ohne die Zahlungsbereitschaft der Kundinnen und Kunden zu überschreiten?

Durch die Analyse historischer Verkaufsdaten lassen sich Preiselastizitäten modellieren, die zeigen, wie sensitiv verschiedene Kundensegmente auf Preisänderungen reagieren. Unsere Erfahrung aus dem Einzelhandel zeigt, dass sich eine Analyse insbesondere bei Produkten mit hohen Volumina lohnt. Unter Zollbelastung reicht diese Betrachtung jedoch nicht aus: Unternehmen müssen zusätzlich prüfen, ob erhöhte Kosten durch Zölle überhaupt noch über den Marktpreis abgefedert werden können.

So können Unternehmen gezielt die Auswirkungen von Zollaufschlägen minimieren und fundiert entscheiden, ob sie Produkte vereinfachen oder alternative Preisstrategien entwickeln – statt «blind» Rabatte zu gewähren. Damit entsteht eine belastbare Grundlage für Marktentscheidungen und allfällige Exit-Szenarien.

«Data Science bildet die Grundlage, um unter Unsicherheit handlungsfähig zu bleiben.»

René Stäbler Principal Data-Driven Innovation, Ergon Informatik AG

#2 Relevanzanalyse+: Modulare Produktstrategien entwickeln

Welche Features eines Produkts werden von Kundinnen und Kunden tatsächlich genutzt, welche beeinflussen die Kaufentscheidung massgeblich – und wie unterscheiden sich diese Muster zwischen verschiedenen Kundensegmenten?

Indem Nutzungsdaten aus IoT-Systemen mit Verkaufs- und Kundendaten aus CRM- und ERP-Systemen zusammengeführt und analysiert werden, können Unternehmen quantifizieren, welche Produktfunktionen die Kundenzufriedenheit und den Kaufentscheid besonders beeinflussen und welche Präferenzen unterschiedliche Kundengruppen aufweisen. Clustering-Algorithmen erkennen Muster und unterstützen die Entwicklung modularer Produktstrukturen. Kennzahlen wie Feature-Nutzungsrate, Kaufentscheidungsrelevanz und Kosten-Nutzen-Verhältnis pro Feature ermöglichen eine faktenbasierte Angebotsoptimierung.

Die Frage, welche Features beibehalten, vereinfacht oder gestrichen werden sollten, lässt sich als Optimierungsproblem formulieren. Ziel ist, den wahrgenommenen Kundennutzen bei minimaler Komplexität und Kosten zu maximieren – unter Berücksichtigung von Zollbelastungen und Marktanforderungen. So können Unternehmen Kosten und Zölle durch gezielte Produktvereinfachung – etwa das Weglassen wenig genutzter Features (Descoping) – reduzieren, ohne den wahrgenommenen Kundennutzen zu schmälern und die Marge zu gefährden.

«Die Übertragung analytischer Denkweisen aus anderen Branchen eröffnet Perspektiven, die innerhalb der eigenen Industrie oft verborgen bleiben.»

Wilhelm Kleiminger Head of Data Science, Ergon Informatik AG

#3 Operational Data Insight: Service und Wartung ausbauen

Wie können Maschinenhersteller auf Basis operativer Daten wettbewerbsfähige, profitable Wartungspakete entwickeln, die die Maintenance-Coverage erhöhen, Umsatzrückgänge im transaktionalen Neugeschäft kompensieren und neue Value-Added Services ermöglichen – bei stabilen Kostenstrukturen für Kundinnen und Kunden?

Zustands- und prognosebasierte-Modelle auf Basis operativer Daten ermöglichen die frühzeitige Erkennung von Servicebedarf und liefern entscheidende Inputs für die Optimierung und Steuerung der Overall Equipment Effectiveness (OEE). Ansätze aus dem Bereich Explainable AI, die sich auch im Finanzsektor bei der Erkennung von Fraud bewährt haben, machen Entscheidungslogiken transparent, etwa durch verständliche Visualisierungen, regelbasierte Erklärungen oder die Hervorhebung relevanter Einflussfaktoren.

Ein datengetriebenes Servicegeschäft stärkt die Resilienz gegenüber Zollschocks und schafft stabile Umsatzquellen durch höhere Anteile am Aftermarket Lifetime Value. Denn viele Hersteller verlieren das Servicegeschäft und die Kundenbindung nach Ablauf der Garantie an kostengünstigere Drittanbieter – und damit ein margenträchtiges Geschäftsfeld. Data-Science-gestützte Lösungen sind für Kundinnen und Kunden kostenneutral und steigern zugleich die eigene Ertragskraft.

Vorgehen nach dem «Proof-of-Value»-Prinzip

Die Entwicklung datengetriebener Lösungen beginnt mit einem strukturierten Verständnis der Ausgangslage. In der Praxis hat sich ein vierstufiges, zeitlich klar definiertes Vorgehensmodell bewährt, das sich flexibel auf unterschiedliche Fragestellungen anwenden lässt – von Preisstrategien über Produktstrukturierung bis hin zu Serviceoptimierung:

1. Problemverständnis schaffen
Am Anfang steht die präzise Definition der geschäftlichen Fragestellung. Welche Entscheidung soll getroffen werden? Welche wirtschaftlichen Ziele stehen im Vordergrund? Welche Kennzahlen sind relevant?

2. Datenbasis schaffen
Im nächsten Schritt wird die vorhandene Datenlandschaft analysiert: Welche Datenquellen stehen zur Verfügung? Wie ist deren Qualität und Granularität? In vielen Fällen liegen operative Daten zwar vor, sind aber nicht systematisch erschlossen. Ergänzend können externe Informationen wie Marktpreise, Wechselkurse oder Zolltarife eingebunden werden.

3. Explorative Analyse
Ziel ist es, Muster, Ausreisser und Zusammenhänge sichtbar zu machen. Visualisierungen und statistische  Auswertungen helfen, Hypothesen zu validieren und erste Erkenntnisse zu gewinnen – oft mit überraschenden Einsichten.

4. Modellentwicklung und Validierung
Auf Basis der Analyse werden erste Modelle entwickelt, die konkrete Antworten auf die definierte Fragestellung liefern. Dabei steht die Validierung des wirtschaftlichen Potenzials im Fokus. Die Modelle dienen als Entscheidungsgrundlage und werden mittels «Proof of Value» greifbar gemacht.

Dieses zielgerichtete Vorgehen schafft Transparenz, reduziert Risiken und führt rasch zu messbarem Impact. Mit aktivem Einbezug der Fachbereiche lässt sich ein «Proof of Value» innerhalb von vier bis sechs Wochen umsetzen.

Vom Proof of Value zur Resilienzstrategie

Ein erfolgreich durchgeführter Proof of Value ist mehr als ein technischer Prototyp – er bildet den Ausgangspunkt für eine unternehmensweite Resilienzstrategie. Die gewonnenen Erkenntnisse lassen sich systematisch in Prozesse, Entscheidungslogiken und Organisationstrukturen überführen.

Der Artikel ist im Fachmagazin Schweizer MaschinenMarkt (SMM) vom 26.11.2025 erschienen.

Resilienz aktiv gestalten

Die Herausforderung

  • Protektionismus und der starke Franken setzen die Schweizer Industrie unter Druck
  • Nachhaltige Wettbewerbsfähigkeit in volatilen Exportmärkten

Die Lösung: Data-Science-gestützte Resilienzstrategie

  • Preiselastizitätsmodelle: Analyse der Zahlungsbereitschaft
    Wo liegt unsere Toleranzgrenze für bestmögliche Preise und was ist der Markt bereit zu zahlen?
  • Relevanzanalyse+: Modulare Produktstrategien
    Wie können Unternehmen ihr Angebot modular gestalten, damit Kunden durch Verzicht auf wenig genutzte Features tiefere Preise erhalten – bei voller Marge?
  • Operational-Data-Insight: Ausbau Service und Wartung
    Wie kann profitabler Aftermarket-Service durch Erhöhung der Maintenance Coverage Einbrüche im Neugeschäft wegen ausgebliebener oder verschobener Investitionen (über-) kompensieren?

Von Data Engineering bis KI: Erfahren Sie, wie Sie Ihre Daten in echten Geschäftsnutzen verwandeln können.