Stell dir vor, du hast eine Überwachungskamera am Hauseingang. Eine einzige, ganz normale Kamera mit einem einzigen Bildsensor. Und jetzt wollen drei Dinge gleichzeitig auf dieses Bild zugreifen: Dein Synology-NAS, das lokal in 4K aufzeichnet. Dein Handy, das dir per Push einen 720p-Stream in die S-Bahn schickt. Und ein kleines neuronales Netz auf deinem Home-Assistant-Server, das prüft, ob gerade ein Paketbote vor der Tür steht oder nur eine Katze durchs Bild schlendert. Drei Kunden, drei völlig unterschiedliche Ansprüche an Auflösung, Bildrate und Latenz.
Bis vor drei Wochen war die ehrliche Antwort: Die Kamera öffnet drei parallele Streams, jeder davon belegt Bandbreite, und wenn das WLAN im Altbau schon unter einer Videoschalte ächzt, dann ist jetzt Schluss. Seit dem 31. März 2026 gibt es dafür eine offizielle Lösung, und sie steht an einer Stelle, die viele Smart-Home-Nutzer immer noch für ein Buzzword halten: im Matter-Standard. An diesem Tag hat die Connectivity Standards Alliance (CSA) Version 1.5.1 der Spezifikation veröffentlicht. Von außen betrachtet ein Punkt-Release, eine dieser Maintenance-Updates, bei denen man im Changelog auf Tippfehler-Korrekturen trifft. Von innen betrachtet ein ziemlich spannendes Stück Technik — und gleichzeitig ein Lehrstück darüber, wie langsam sich offene Standards im realen Wohnzimmer durchsetzen.
Der eine Sensor, die drei Köpfe
Das Herzstück von Matter 1.5.1 ist das, was die CSA „multi-stream video and audio delivery" nennt. Eine Kamera darf jetzt aus einer einzigen strukturierten Session mehrere optimierte Video- und Audiostreams parallel ausliefern. Das klingt nach einer Selbstverständlichkeit und war bis März ausdrücklich nicht Teil der Matter-Spec. Matter 1.5 im November 2025 hatte überhaupt erst Kameras und Video-Doorbells in den Standard gebracht — davor gab es unter Matter schlicht keinen Kameratyp, alle Kameras liefen über Hersteller-Clouds oder lokale APIs wie ONVIF.
Die Logik hinter der Multi-Stream-Erweiterung ist pragmatisch. Moderne Kamera-SoCs — die kleinen Prozessoren auf der Platine, die das Bild vom Sensor lesen und in H.264, H.265 oder AV1 verpacken — können längst mehrere Encoder-Pfade parallel laufen lassen. Ein Chip wie der Ingenic T41, der in vielen China-Kameras steckt, kann ohne Probleme einen 4K-Hauptstream und zwei Substreams gleichzeitig rendern. Das Problem war nie die Hardware. Das Problem war, dass bislang jeder Hersteller in seine App einbaute, wie diese Streams verteilt werden, und Matter daran nichts ändern konnte. Genau das hat 1.5.1 jetzt nachgezogen: Ein Home-Assistant-Hub, ein Apple Home und ein Google Home können künftig unabhängig voneinander unterschiedliche Streams von derselben Kamera anfordern, und die Kamera weiß, dass das eine koordinierte Anfrage ist und keine drei konkurrierenden.
Die CSA nennt vier konkrete Anwendungsfälle für Multi-Stream, die in der offiziellen Mitteilung stehen: ein hochauflösender Stream für Aufnahme oder Archivierung, ein niedriger aufgelöster Stream für mobile Betrachtung, ein Stream für Bildanalyse oder KI-Verarbeitung, und mehrere Streams von Kameras mit mehreren Objektiven — also Doppelkameras wie die Reolink Duo oder die Eufy S3 Pro, die gleichzeitig ein Weitwinkel- und ein Teleobjektiv haben.
HEIC, HLS, DASH — drei Buchstabenkürzel, die plötzlich im Wohnzimmer stehen
Wer Matter 1.5.1 nur als Multi-Stream-Update liest, verpasst den zweiten spannenden Teil. Die Spec erlaubt jetzt, Standbilder aus der Kamera im HEIC-Format zu liefern. HEIC ist der Codec, den Apple seit iOS 11 auf dem iPhone durchdrückt, weil er bei gleicher Qualität etwa die Hälfte eines JPEGs an Speicher belegt. Für Smart-Home-Kameras, die täglich tausende Snapshots in die Cloud oder aufs NAS schicken, ist das ein relevanter Unterschied — weniger Upload-Traffic, weniger Speicher, und weil HEIC intern mit H.265-Ähnlichkeit arbeitet, sogar sichtbar mehr Detail in dunklen Bildbereichen.
Parallel dazu unterstützt Matter 1.5.1 nun vollständig HLS- und DASH-Uploads mit dem CMAF-Interface-2-Profil. Das ist der Moment, an dem es technisch wird: HLS (HTTP Live Streaming, von Apple) und DASH (Dynamic Adaptive Streaming over HTTP, MPEG-Standard) sind die Protokolle, die YouTube, Netflix und praktisch jeder Live-Stream im Web verwendet. Bislang mussten Kamera-Hersteller ihre eigenen Upload-Formate bauen, wenn sie ein Event in die Cloud schicken wollten. Jetzt reicht ein Standardprotokoll, das jedes CDN, jedes Media-Backend und jede Serverless-Pipeline von Haus aus versteht. Für Hersteller heißt das: weniger Eigenentwicklung. Für Nutzer heißt das langfristig: geringere Chancen, dass ein billiger China-Hersteller nächstes Jahr seine proprietäre Cloud abschaltet und die Kamera zum Briefbeschwerer wird, weil es dann wenigstens noch einen standardisierten Pfad raus gibt.
Der Türgong, der endlich was kann
Eine Stelle, die in den großen Berichten untergegangen ist, aber bei mir sofort ein Grinsen ausgelöst hat, betrifft die Klingel. Matter 1.5.1 definiert für Chime Devices — also die Gongs, die an Video-Doorbells hängen — eine neue Fähigkeit: Ein Controller kann jetzt einen bestimmten Gong-Sound anfordern, statt nur den Default auszulösen. Auf dem Papier eine Kleinigkeit. In der Praxis öffnet das die Tür zu Automatisierungen, die bislang schlicht nicht gingen.
Die CSA gibt in ihrer Mitteilung selbst drei Beispiele: unterschiedliche Gongs für unterschiedliche Klingeln (Haustür, Gartentor, Ladeneingang), kontextbezogene Sounds (an Weihnachten „Jingle Bells", im Juli das normale Ding-Dong), und — spannender — Automatisierungen, die darauf reagieren, wann ein Gong beginnt abzuspielen. Letzteres bedeutet: Home Assistant kann erkennen, dass gerade der Gong geht, ohne den Umweg über die Klingel selbst. Das ist für Latenz interessant, weil lokale Chimes oft schneller melden als die Video-Pipeline der Kamera. Gleichzeitig wurde der Intercom-Device-Type geschärft, damit Gegensprechanlagen mit integrierten Gongs einheitlich über alle Ökosysteme funktionieren — ein Bereich, in dem Matter 1.5 noch erkennbar Baustelle war.
Für Pan-Tilt-Zoom-Kameras bringt 1.5.1 ebenfalls Verbesserungen. Die Spec klärt jetzt explizit, was passiert, wenn die „Home"-Position einer Kamera am Rand ihres Rotationsbereichs liegt — ein Spezialfall, an dem viele PTZ-Integrationen bisher gestolpert sind, weil die Controller nicht wussten, ob eine Schwenkbewegung über die Nullposition hinaus erlaubt ist oder als Fehler zählt. Dazu kommen schärfere Validierungen für Recording-Konfigurationen, damit Kamera-Firmware ungültige Aufnahme-Setups ablehnt, bevor sie auf mysteriöse Weise kaputt gehen.
Warum du das heute trotzdem noch nicht kaufen kannst
Hier beginnt der ernüchternde Teil. Matter als Standard existiert seit Oktober 2022. Kameras unter Matter gibt es offiziell seit November 2025. Und die einzige Kamera, die du heute als Endkunde kaufen kannst und die Matter 1.5 nativ unterstützt, ist die Aqara G350, die der Hersteller gemeinsam mit Samsung SmartThings in einem Hands-on bei The Verge im Frühjahr 2026 vorgestellt hat. Eine einzige. Von einem einzigen Hersteller. Bei einem einzigen Ökosystem, das die Funktionen überhaupt anzieht — Samsung SmartThings war laut Matter-Alpha die erste Plattform, die die Matter-1.5-Kamerafunktionen in ihr Ökosystem integriert hat.
Home Assistant arbeitet laut Matter Alpha an der Integration, nachdem das Matter-Server-Projekt im März 2026 auf die Matter.js-Codebasis migriert wurde. Homey hat Matter-Kameraunterstützung angekündigt, aber noch nicht ausgeliefert. Apple Home und Google Home haben zum Zeitpunkt der Spec-Veröffentlichung von 1.5.1 keine öffentlichen Ankündigungen für Kamera-Support gemacht — ihre Rolle in Matter bleibt, auf dem Papier begeistert zu sein und in der Praxis vorsichtig zu bleiben. Die Xthings Ulticam V2 ist als nächste Matter-Kamera angekündigt, mit PoE und Wi-Fi, lokaler Speicherung und einer 7-Tage-Cloud ohne Abo — aber auch sie ist zum Stand Mitte April 2026 noch nicht im freien Handel.
Das Problem ist ein strukturelles. Matter-Spezifikationen erscheinen in Punkt-Releases, aber Hersteller-Hardware durchläuft Zertifizierungen, die Monate dauern. Firmen, die in den Arbeitsgruppen der CSA sitzen und an 1.5.1 mitgeschrieben haben, bekommen typischerweise die ersten Zertifikate. Alle anderen warten auf Testhardware, auf Matter-SDK-Updates und auf Firmware-Freigaben. Realistisch bedeutet das: Die ersten Geräte, die Matter 1.5.1 mit vollem Multi-Stream-Support auf der Verpackung stehen haben, werden nicht vor Spätsommer 2026 in den Regalen stehen.
Was das für dich heißt, wenn du jetzt eine Kamera kaufst
Ehrlich gesagt: wenig — kurzfristig. Wer heute eine smarte Überwachungskamera braucht, greift nach wie vor zu einem der etablierten Ökosysteme. Reolink, Eufy, UniFi Protect, Frigate auf Home Assistant mit RTSP-Kameras. Das funktioniert, ist stabil, und die relevanten Features wie lokale Speicherung oder Personen-Erkennung hängen nicht davon ab, ob das Gerät ein Matter-Logo trägt.
Mittelfristig — also wenn du 2027 oder 2028 eine Kamera kaufst und davon ausgehst, dass sie sechs Jahre hält — wird Matter 1.5.1 zu einem echten Auswahlkriterium. Der Multi-Stream-Ansatz ist vor allem dann interessant, wenn du Frigate oder CodeProject.AI zur lokalen Objekterkennung nutzen und gleichzeitig ein NAS beschicken willst. Bisher brauchtest du dafür Kameras, die selbst zwei RTSP-Streams konfigurierbar anbieten — ein Feature, das man bei Reolink und Amcrest bekommt, bei Eufy oder TP-Link Tapo meistens nicht. Matter 1.5.1 hebt diese Differenz auf Standardebene und macht sie zum Pflichtbestandteil. Das ist, wenn du so willst, der lange unterschätzte Nebeneffekt von Standards: Sie zwingen den Massenmarkt dazu, Funktionen zu können, die bisher Premium-Features waren.
Die leise Geschichte im Hintergrund
Was an Matter 1.5.1 auch auffällt, wenn man die Ankündigungen nebeneinanderlegt: Die CSA geht die Kameraunterstützung mit einer ungewöhnlichen Ehrlichkeit an. Matter 1.5 kam im November 2025 mit Kameras — unfertig, wie man heute sieht, denn schon vier Monate später wird an PTZ, an Recording-Validierung, an Chime-Verhalten, an Multi-Stream nachgebessert. Normalerweise feiern Standardsgremien ihre Releases als vollständig und würdigen, dass ein weiteres Jahr vergeht, bis sie offen zugeben, dass etwas fehlt. Hier ist der Zyklus deutlich kürzer. Das ist zum Teil dem Druck geschuldet, den Aqara, Samsung, Google und Apple auf den Standard ausüben, weil sie bei Kameras nicht noch einmal zehn Jahre an proprietäre Lock-ins verlieren wollen wie bei Türschlössern und Licht. Und zum Teil ist es ein Zeichen, dass Matter als Projekt erwachsen genug ist, um Korrekturen als Stärke zu sehen und nicht als Eingeständnis.
Ob daraus in zwei Jahren ein tatsächlich interoperables Kamera-Ökosystem wird, entscheidet sich nicht in der Spec, sondern in den Shops. An der Stelle, an der du eine Kamera in den Warenkorb legst und entweder das Matter-Logo auf der Schachtel siehst — oder eben nicht. Das Update vom 31. März ist ein weiterer Schritt in diese Richtung. Kein großer. Aber einer, nach dem du bei der nächsten Kaufentscheidung vielleicht zum ersten Mal wirklich die Spec-Version nachschlagen solltest.