Echtzeit-Transportprotokoll
Ein Protokoll zur Bereitstellung von Audio und Video in Echtzeit über IP-Netzwerke.
Ein Protokoll zur Bereitstellung von Audio und Video in Echtzeit über IP-Netzwerke.
ICY ist ein HTTP-basiertes Protokoll und Header (verwendet von Internetradio-Servern wie Icecast und SHOUTcast), der in den Audiostream eingebettet ist. Das ICY-Protokoll ermöglicht es Audioplayern, Metadaten anzufordern, die dann in regelmäßigen Abständen in den Stream eingefügt werden. Der Client kann diese Informationen extrahieren und anzeigen, was
Precision Time Protocol (PTP) ist ein Zeitstandard. Es ermöglicht anderen Technologien, z. B. dem 2110-Protokoll, die genaue zeitliche Abstimmung zwischen Audio, Video, Untertiteln und anderen Metadaten. Es bietet eine höhere Präzision als NTP (Network Time Protocol).
Secure Reliable Transport ist ein Open-Source-Videostreaming-Protokoll und eine Technologie, die zur Übertragung hochwertiger Video- und Audio-Streams über unzuverlässige oder unvorhersehbare Netzwerke wie das öffentliche Internet verwendet wird. SRT wurde von Haivision entwickelt und hat aufgrund seines Fokus auf
Der Präsentationszeitstempel (PTS) ist ein wichtiges Konzept, um die korrekte Synchronisierung und das richtige Präsentationszeitpunkt von Mediensegmenten innerhalb eines HLS-Streams sicherzustellen. PTS trägt dazu bei, die korrekte Reihenfolge und das richtige Timing von Audio- und Videokomponenten während der Wiedergabe beizubehalten.
Moving Picture Experts Group (MPEG) ist eine Arbeitsgruppe von Experten, die Standards für die Komprimierung und Übertragung von Audio und Video entwickelt.
Die kodierte Bitrate ist die Bitrate der komprimierten (d. h. während der ABR-Kodierung/Transkodierung) Audio- oder Videomedienobjekte, wobei jede Bitrate-Stufe unterschiedliche Qualitätsstufen in ABR darstellt. Das Konzept der kodierten Bitrate ist in verschiedenen ABR-bezogenen Definitionen enthalten: z. B. CMCD-BR-Schlüssel, z. B. HLS-Playlist-Varianten-Stream-BANDWIDTH-Parameter, z. B. DASH
Hardware oder Software, die einen Datenstrom kodiert oder dekodiert (z. B. Audio, Video, Untertitel).
Common Media Application Format (CMAF) ist ein Apple-Microsoft-Standard, der darauf abzielt, Arbeitsabläufe zu vereinfachen, indem die gleichzeitige Verwendung mehrerer ABR-Methoden (z. B. DASH, HLS) bei Verwendung eines Satzes von Audio- und Videomediendateien definiert wird.
Datei mit der Erweiterung .mov, die den Multimedia-Container QuickTime File Format (QTFF) zum Speichern von Audio, Video und Metadaten verwendet.
Das Streaming Video Wiki wird von der Streaming Video Technology Alliance organisiert und gepflegt, einem globalen technischen Verband, der sich der Lösung der kritischen technischen Herausforderungen beim Streamen von Videos in hoher Qualität in großem Maßstab verschrieben hat. Für weitere Informationen über die SVTA oder Fragen zu diesem Wiki, wenden Sie sich bitte an die SVTA.
© Streaming Video Technology Alliance. Alle Rechte vorbehalten.