In vielen IoT-Projekten entsteht das Datenproblem nicht durch zu wenige Messwerte, sondern durch zu viele: Ein Vibrationssensor sendet Rohdaten im Sekundentakt, ein Stromzähler publiziert jede Änderung, ein Smart-Home-Setup protokolliert jeden Statuswechsel. Das Ergebnis sind hohe Übertragungslasten, unnötige Cloud-Kosten und schwer wartbare Datenpipelines. Dabei lässt sich Telemetrie meist deutlich verschlanken, ohne Informationsverlust – wenn Messstrategie, Datenmodell und Verarbeitung zusammen gedacht werden.
Telemetrie-Design startet mit einer einfachen Frage: Welche Entscheidungen sollen die Daten später ermöglichen? Alarmierung, Trendanalyse, Verbrauchsabrechnung oder Wartungsplanung brauchen unterschiedliche Granularität. Wer diesen Zweck sauber definiert, kann Übertragungsrate, Payload und Speicherbedarf drastisch reduzieren – und gleichzeitig die Datenqualität verbessern.
Welche Daten werden wirklich gebraucht – und von wem?
IoT-Daten haben immer einen Empfänger: Dashboard, Leitstand, Regelung, Data Lake oder ein externes System. Für jede Zielgruppe lohnt eine klare Trennung zwischen „Beobachten“ (langsam, stabil) und „Reagieren“ (schnell, ereignisgetrieben). Gerade in gemischten Umgebungen (OT/IT) entstehen Übertragungsorgien, weil ein einziger Datenstrom alles abdecken soll.
Use-Cases in Messklassen ĂĽbersetzen
Praktisch bewährt ist eine Einteilung in Messklassen, die direkt auf Sampling und Datenhaltung wirkt:
- Zustandsdaten: seltene Änderungen, z. B. „Ventil offen/zu“, „Türkontakt“. Ereignis statt Polling.
- Prozesswerte: kontinuierlich, aber meist tolerant gegenĂĽber Aggregation, z. B. Temperatur, Feuchte, FĂĽllstand.
- Diagnosedaten: für Wartung/Analyse, z. B. RSSI, Reset-Gründe, Speicherstand, Fehlerzähler.
- Rohdaten: nur gezielt, z. B. bei Inbetriebnahme, kurzfristigen Untersuchungen oder Trigger-basiert.
Damit lässt sich pro Klasse festlegen, ob Rohwerte nötig sind oder ob abgeleitete Kennzahlen reichen. Für viele Dashboards genügt beispielsweise „Minimum/Maximum/Mittelwert pro Minute“ statt 60 Einzelwerte.
Typische Datenfallen im Feld
- „Alles senden, später filtern“: verlagert Komplexität und Kosten in die Cloud.
- „Jeder Sensor gleich“: ignoriert physikalische Dynamik und führt zu unsinnigen Samplingraten.
- Fehlende Einheiten/Skalen: macht Aggregation und Vergleich später fehleranfällig.
Wer bereits beim Datenmodell Normalisierung und Plausibilität mitdenkt, spart sich spätere Datenbereinigung. Passend dazu hilft der Artikel IoT-Messdaten normalisieren – saubere Werte statt Datenchaos als Ergänzung, wenn Messwerte aus unterschiedlichen Quellen zusammenlaufen.
Sampling und Ereignisse: weniger senden, ohne blind zu werden
Die Übertragungsrate ist der größte Hebel. Entscheidend ist, nicht nur „wie oft“, sondern „wann“ zu senden. Drei Muster sind im IoT besonders robust: periodisch (fix), adaptiv (zustandsabhängig) und ereignisbasiert.
Periodisch mit sinnvollen Intervallen
Periodisches Sampling ist einfach und gut planbar, erzeugt aber oft unnötige Daten. Die Wahl des Intervalls sollte zur Physik passen: Raumtemperatur ändert sich langsamer als Motorvibration. Als Faustregel gilt: Das Intervall so wählen, dass relevante Änderungen sicher erkannt werden, aber stabile Phasen nicht überrepräsentiert sind. In Gebäuden reichen für viele Prozesswerte Minuten- statt Sekundenraster.
Delta- und Schwellenlogik am Gerät
Ein pragmatischer Ansatz: Senden nur bei Änderung über einer Schwelle (Delta). Beispiel: Temperatur wird nur übertragen, wenn sich der Wert um mehr als 0,3 °C verändert oder eine Maximalzeit verstrichen ist (Heartbeat). So bleiben Daten aktuell, ohne ständiges Rauschen. Wichtig: Schwellen müssen zum Sensorrauschen passen, sonst wird „Messrauschen“ zum Datensturm.
Ereignisse statt Dauerstrom
Für Zustandsdaten (Schalter, Türkontakt, Alarm) ist ereignisbasiertes Senden fast immer überlegen. Das setzt ein sauberes Event-Modell voraus: eindeutiger Event-Typ, Zeitstempel, Quelle, optional ein korrelierbarer Kontext (z. B. Session-ID). Wer Geräte ohne Polling koppeln will, findet zusätzliche Architekturideen in IoT-Event-Driven Architecture – Geräte ohne Polling koppeln.
Payload schlank halten: Datenmodell, Kodierung, Versionierung
Nicht nur die Anzahl der Nachrichten zählt, sondern auch die Byte-Zahl pro Nachricht. Gerade bei Low-Power-Funk und Mobilfunk-Tarifen entscheidet Payload-Design über Laufzeit und Kosten. Eine Telemetrie-Nachricht sollte deshalb klein, eindeutig und vorwärtskompatibel sein.
Stabile Felder, klare Einheiten, kurze SchlĂĽssel
Ein robustes Datenmodell nutzt konsistente Feldnamen und feste Einheiten. Beispiel: Temperatur immer in °C als Dezimalzahl oder als Integer mit Skalierung (z. B. „231“ = 23,1 °C). Kurze Schlüssel sparen Bytes, dürfen aber nicht kryptisch werden. Wichtig ist zudem eine Version im Payload oder im Topic, damit spätere Änderungen nicht zu Parserfehlern führen.
Binär statt JSON, wenn Funk knapp ist
JSON ist bequem, aber nicht immer effizient. In Bandbreiten-limitierten Szenarien lohnt eine binäre Kodierung oder zumindest eine stark vereinfachte Struktur. Entscheidend ist die Gesamtbilanz: Debugbarkeit, Tooling, Firmware-Komplexität und Fehleranalyse. Ein Mischbetrieb ist üblich: JSON für Diagnose und Setup, kompakte Payloads für Telemetrie im Dauerbetrieb.
Kompression gezielt einsetzen
Kompression lohnt sich nur, wenn Datenblöcke groß genug sind oder viele Wiederholungen enthalten. Für einzelne kleine MQTT-Nachrichten bringt Kompression häufig wenig, kann aber bei Batch-Uploads (z. B. Pufferspeicher) spürbar helfen. Wichtig: Rechenzeit kostet Energie; bei batteriebetriebenen Geräten sollte Kompression gemessen und nicht „gefühlt“ entschieden werden.
Edge-Mechanismen: Aggregieren, filtern, vorrechnen
Viele Projekte profitieren davon, Messwerte lokal zu verarbeiten, bevor sie die Cloud erreichen. Das reduziert Traffic und verbessert Reaktionszeiten. Typische Edge-Mechanismen sind Aggregation, Feature-Extraktion und Quality-Gates (Plausibilitätsprüfungen).
Aggregation: Min/Max/Mittelwert und Varianz
Für Prozesswerte sind Zeitfenster-Aggregate ein Standard: pro Minute oder pro 5 Minuten werden Minimum, Maximum und Mittelwert übertragen. Für Zustandsbewertung ist zusätzlich die Varianz oder Standardabweichung hilfreich (zeigt Unruhe/Instabilität). Damit können Dashboards Trends darstellen und Alarme auslösen, ohne Rohdaten zu brauchen.
Vorverarbeitung fĂĽr Wartungssignale
Im industriellen Umfeld sind Rohdaten oft nur für Spezialanalysen nötig. Häufig reichen abgeleitete Merkmale (Features): RMS-Wert, Peaks, Spektralband-Energie oder Laufzeitanteile. Dadurch sinkt das Datenvolumen drastisch, während die Aussagekraft für Condition Monitoring erhalten bleibt. Das passt besonders gut zu Edge Computing, wenn Gateways oder leistungsfähigere Sensoren verfügbar sind.
Qualitätsschranken: Plausibilität vor Versand
Ein einfacher Plausibilitätscheck am Gerät verhindert Müll in der Datenbank: Werte außerhalb physikalischer Grenzen, NaN/Inf, „hängende“ Sensorwerte oder Sprünge, die nicht plausibel sind. Solche Daten können als Diagnose-Event markiert oder verworfen werden. Für tieferes Vorgehen bei Drift und Ausfällen unterstützt IoT-Datenqualität sichern – Drift, Ausfälle und Plausibilität bei der Systematik.
Transport und Topics: Protokolle richtig nutzen, ohne Overhead
Die Wahl des Protokolls beeinflusst Datenmenge, Zuverlässigkeit und Betriebsaufwand. In der Praxis dominiert MQTT für Telemetrie, weil Publish/Subscribe gut zu Events und vielen Geräten passt. Unabhängig vom Protokoll gilt: Struktur schlägt Masse. Ein sauberes Topic-Design verhindert spätere Workarounds.
QoS und Retain bewusst einsetzen
Bei MQTT kostet höhere Zustellsicherheit mehr Overhead. QoS sollte pro Nachrichtentyp gewählt werden: Zustandswechsel oder Alarme eher zuverlässig, häufige Prozesswerte eher „best effort“, wenn ein einzelner Verlust nicht kritisch ist. Retained Messages sind nützlich für „letzten bekannten Zustand“, sollten aber nicht für hochfrequente Telemetrie missbraucht werden.
Topic-Struktur fĂĽr Filterbarkeit
Eine bewährte Struktur trennt Standort, Gerät und Messart, z. B. „site/line1/device42/telemetry/temp“. Das erlaubt gezieltes Subscriben ohne serverseitige Filterorgien. Zusätzlich hilft ein klarer Namensraum für Diagnose und Konfiguration, statt alles in einen Telemetrie-Strom zu mischen.
Cloud- und Datenbankkosten: Welche Stellschrauben zählen wirklich?
Kosten entstehen meist nicht nur beim Senden, sondern beim Speichern, Indexieren, Abfragen und Visualisieren. Eine schlankere Telemetrie reduziert daher mehrere Kostenblöcke gleichzeitig.
Retention und Downsampling von Anfang an planen
Ein häufiger Fehler: unendliche Aufbewahrung in Rohauflösung. Sinnvoller ist ein Stufenmodell: Rohdaten kurz, Aggregatdaten länger. Beispiel: Rohwerte für 7–30 Tage (Fehlersuche), 1-Minuten-Aggregate für 6–12 Monate (Betriebsanalyse), Tageswerte für mehrere Jahre (Trends). Die konkreten Fristen hängen vom Use-Case und regulatorischen Anforderungen ab, sollten aber bewusst entschieden werden.
Kardinalität reduzieren
Viele Zeitreihen-Datenbanken werden durch hohe Kardinalität (zu viele eindeutige Kombinationen aus Tags/Labels) teuer und langsam. Deshalb sparsam mit frei variierenden Tags umgehen (z. B. „firmware_build_id“ als Tag kann explodieren). Besser: stabile Identifikatoren als Tags, dynamische Informationen in Feldern oder als separate Metadaten.
Praxisbox: Schritte zu spĂĽrbar weniger IoT-Telemetrie
- Pro Messgröße definieren: Entscheidung/Anzeige/Alarm – und daraus eine Messklasse ableiten.
- Sampling festlegen: periodisch, delta-basiert oder ereignisbasiert; zusätzlich Heartbeat einplanen.
- Payload prĂĽfen: Einheiten, Skalierung, kurze Felder, Versionierung; Diagnose getrennt halten.
- Edge-Logik ergänzen: Aggregation (Min/Max/Mittel), Varianz, Plausibilitätschecks.
- Transport einstellen: QoS pro Nachrichtentyp, Topic-Struktur filterbar aufbauen.
- Speicherstrategie definieren: Retention und Downsampling als Betriebskonzept, nicht als Nacharbeit.
Vergleich: Rohdaten-Stream oder Aggregat-Telemetrie?
| Aspekt | Rohdaten (hochfrequent) | Aggregate/Events (reduziert) |
|---|---|---|
| Datenvolumen | hoch, wächst schnell | niedrig bis mittel |
| Funk- und Batterielast | hoch | deutlich geringer |
| Fehlersuche | sehr gut (Details vorhanden) | gut, wenn Diagnosepfad existiert |
| Implementierung am Gerät | einfacher | mehr Logik (Aggregation/Trigger) |
| Cloud-Kosten & Betrieb | hoch (Storage, Queries, Pipelines) | niedriger, besser skalierbar |
| Typische Nutzung | Inbetriebnahme, Analysefenster, Spezialfälle | Dauerbetrieb, Flottenbetrieb, Dashboards |
Sicherheit und Betrieb: Weniger Daten heiĂźt nicht weniger Verantwortung
Auch reduzierte Telemetrie kann sicherheitsrelevant sein, etwa wenn Rückschlüsse auf Anlagenzustände möglich sind. Minimierung (nur senden, was nötig ist) hilft zwar beim Datenschutz und reduziert Angriffsfläche, ersetzt aber keine Basishärtung: Geräteidentitäten, sichere Schlüsselablage, Updatefähigkeit und Monitoring von Kommunikationsfehlern bleiben Pflicht.
Für den stabilen Betrieb im Feld lohnt außerdem, Telemetrie und Diagnose strikt zu trennen: Der Telemetriepfad bleibt schlank und zuverlässig, während Diagnosedaten bei Bedarf temporär hochgefahren werden (z. B. per Konfigurationsflag oder zeitlich begrenztem Debug-Modus). Wer diesen Betriebsblick vertiefen will, findet in IoT-Gerätebetrieb im Feld – Telemetrie, Logs und Health passende Ergänzungen.
Das zentrale Ziel bleibt: Telemetrie so zu gestalten, dass sie Entscheidungen unterstützt und Systeme stabil hält. Mit einem klaren Datenmodell, passenden Triggern und sinnvoller Edge-Verarbeitung entstehen IoT-Telemetrie-Streams, die auch bei großen Flotten beherrschbar bleiben – und nicht zum Selbstzweck werden.
In der Umsetzung ist oft MQTT das Arbeitspferd, aber entscheidend sind Sampling, Payload und Datenhaltung. Wer diese Bausteine sauber kombiniert, reduziert nicht nur Volumen, sondern verbessert auch Verständlichkeit und Wartbarkeit der Datenflüsse.
