Wiki

Mehrjährige Erfahrung in der Pro AV-Branche machen uns zu Experten. Damit Sie von unserem Wissen profitieren, haben wir die wichtigsten Basics in unserem Wiki zusammengefasst. So gewinnen Sie einen Einblick in die technologischen Aspekte von Videokommunikation und werden Schritt für Schritt selbst zum Streamingexperten.

Sind Fragen offen geblieben? Oder ein Thema das euch interessiert, wurde nicht behandelt? Schreibt mir einfach und es wird bei nächster Gelegenheit mit aufgenommen!

Wiki Blog FAQS Autor Robin Funk

Stream / Online

Wie viele Kameras brauche ich bei einem Stream?

  • Wenn eine Kamera auf einem Stativ verbaut ist und von keiner weiteren Person bedient wird, hat sie lediglich einen Fokuspunkt. In der Regel liegt auf jedem Sprecher ein Fokuspunkt, sprich eine Kamera pro Person.
  • Wenn derselbe Sprecher von verschiedenen Kameras eingefangen wird entstehen Perspektivwechsel und das Bild wird lebendiger.
  • Werden mehrere Sprecher von einer Kamera eingefangen nimmt das den Fokus von den einzelnen und lässt die Personen als Gruppe erscheinen. Das ist vorteilhaft, wenn eine gemeinsame Message vertreten werden soll.
  • Zusammenfassend: Die Anzahl der Kameras bestimmt die verschiedenen Perspektiven auf ein Setting und ist abhängig von der Zahl der Sprecher und welche Wirkung sie erzielen sollen. Eine Kamera pro Sprecher ist lediglich eine Faustregel. 

Welche Plattform ist für meinen Stream die geeignete?

  • Die Wahl der Plattform hängt davon ab, welche Zielgruppen man erreichen möchte und welche Art der Interaktion zwischen Sender und Empfänger stattfinden soll. 
  • Ein Livestream von YouTube und Vimeo beispielsweise kann bequem per Link geteilt werden und bietet den Zuschauern die Möglichkeit per Livechat mit dem Sprecher zu interagieren und ist somit der öffentliche, unternehmensexterne Kommunikation geeignet. Allerdings findet die Interaktion zwischen Sender und Empfänger relativ einseitig statt, wie bei einem Livestream üblich und der Sender hat höchstens zugriff auf Chatkommentare der Zuschauer.
  • Nachteil ist bei beiden Websites je nach Serverauslastung die hohe Latenz . Das bedeutet das vom Zeitpunkt der Aufnahme oft 20 Sekunden oder mehr vergehen, bis das Bild bei den Zuschauern ankommt. 
  • Wenn alle Mitarbeiter eines Unternehmes Teams nutzen, eignet sich diese Plattform für interne Kommunikation, da Windows leistungsstarke Tools bereitstellt, die den Livestream im Workflow einbetten. Diese Plattform bietet Interaktionsmöglichkeiten in beide Richtungen, wie das etwa bei Webcalls üblich ist.
  • Spätestens seit den Frühlings- und Sommermonaten 2020 vereint Zoom für eine wachsende Zahl an Nutzern die meisten Features aus allen Streamingwelten. Zoom ermöglicht wahlweise einseitiges Streamen einer oder mehrer Personen in Echtzeit ermöglicht aber auch interaktive Webcalls. Es kann unternehmensintern wie -extern genutzt werden.

Was bedeutet on demand?

  • Während Livestreams in Echtzeit übertragen werden und lediglich während der Zeit der Übertragung abrufbar sind, können on demand Videos nachhaltig bereitgestellt werden. Im Internet können sie entweder öffentlich oder einem bestimmten Kreis von Nutzern zugänglich gemacht werden.
  • On demand Videos eignen sich für Inhalte mit mittel- bis langfristiger Relevanz wie etwa Erklärvideos und können ersetzt werden, wenn sie nicht mehr aktuell sind.

Welche Bandbreite und Verbindung ist für meinen Stream die geeignete?

  • Generell gilt: Je höher die Bandbreite, desto höher die potentielle Streamingqualität. Ein HD Stream mit 1080p benötigt bei 60 fps etwa 7MBit/s. Wichtig für Liveübertragungen ist jedoch auch die Stabilität der Verbindung. Während on demand Videos kurze Verbindungsausfälle durch sogenanntes buffern (Zwischenspeichern) kompensieren können, sind Livestreams auf permanenten Datenfluss angewiesen. 
  • Wenn man einen Livestream nicht empfängt sondern sendet, ist vor allem der Upstream ein limitierender Faktor. Das ist der Datenfluss der vom Ausgabegerät (Kamera & Computer) ins Netz geht und steht im Gegensatz zum Downstream der den Datenfluss vom Netz zu den Geräten der Endnutzer beschreibt. Der Upstream ist in der Regel um ein vielfaches langsamer als der Downstream

Was ist Simultandolmetschen?

  • Simultandolmetschen (häufig fälschlicherweise Simultanübersetzen genannt) ist das fast zeitgleiche dolmetschen eines Sprechers in eine andere Sprache.
  • Während übersetzen sich auf geschriebenen Text bezieht, bezieht sich dolmetschen auf gesprochenes Wort.

Was sind Einblendungen?

  • Einblendungen sind Informationen die visuell über Teile eines Videos gelegt werden. 
  • Einblendungen werden beispielsweise in Webinaren genutzt, um Tabellen darzustellen, während der Sprecher im Hintergrund weiter zu sehen ist. 

Was ist ein Webcast?

  • Im Gegensatz zur Videokonferenz, wird beim Webcast ein Videosignal lediglich in eine Richtung, an die Zuschauer gesendet, die kein Videosignal zurücksenden.

Was ist Buffering?

  • Werden Video- oder Audioinhalte aus dem Netz gestreamt, dient buffering oder auch Pufferung dazu, kurzzeitige, verringerte Datengeschwindigkeiten zu kompensieren. 
  • Buffering funktioniert, indem Zeitabschnitte mit stabiler Internetverbindung genutzt werden, um mehr Streamingdaten zu downloaden und zwischenzuspeichern, als tatsächlich angesehen werden. So wird die Medienwiedergabe in Zeitabschnitten mit schwacher Internetverbindung nicht unterbrochen.

Was sind Thumbnails?

  • Thumbnails sind die Vorschaubilder und Miniaturen von Text-, Video- oder Bildbeiträgen. Klickt man auf eine Thumbnail, gelangt man in der Regel zum Beitrag.
  • Thumbnails sollen Interesse wecken, aus der Masse herausstechen und und auf einen Blick anreissen, welche Inhalte zu erwarten sind.

Licht

Welches Licht benutze ich bei einem Livestream?

  • In der Regel liegt der Fokus eines Livestreams auf neutraler effizienter Informationsweitergabe. Dementsprechend wird Licht nicht als künstlerisches Mittel sondern lediglich zur neutralen Beleuchtung des Sprechers eingesetzt. Dazu empfiehlt sich eine Lampe im Tageslichtspektrum (5500 bis 6000 Kelvin) die frontal oder von oben auf den Sprecher ausgerichtet ist.
  • Achtung: manche Lampen (insbesondere Leuchtstoffröhren) können in der Aufnahme ein Flackern erzeugen. Das liegt an der Herzzahl mit der die Lampen leuchten und der Bildfrequenzrate mit der die Kamera aufnimmt. Um diesen sogenannten Shuttereffekt zu vermeiden, kann die Kamera auf eine andere Herzzahl gestellt werden oder man verwendet andere Lichtquellen.

Was ist Farbtemperatur?

  • Die Farbtemperatur wird in Kelvin gemessen und bestimmt wie warm oder kalt ein Licht wahrgenommen wird. Während Kerzen mit 1500K relativ warmes Licht erzeugen (nicht auf die Hitze sondern auf Farbtemperatur bezogen) erzeugen viele Leuchtstoffröhren mit 5000K relativ kaltes Arbeitslicht.
  • Farbtemperaturen können in der Videoaufnahme bestimmte Wirkungen erzeugen. Während warmes Licht eher einen wohligeren Eindruck vermitteln, wirkt kaltes Licht tendenziell klinisch.

Was ist eine Dreipunkt Beleuchtung?

  • Die Dreipunkt Beleuchtung ist das klassische Lichtsetting bestehend aus Keylight, Filllight und Backlight.
  • Das Keylight (auch Führungslicht oder Frontlight) gibt die Lichtrichtung des Settings vor und scheint meist auf die Kameraabgewandte Seite des Gesichtes. Dabei entstehen Schatten die vom Filllight aufgehellt werden. Das Backlight verstärkt die Umrisse des Protagonisten von hinten, indem es Spitzen erzeugt.

Was ist ein Keylight?

  • Auch Führungslicht oder Frontlight gibt die Lichtrichtung einer Aufnahme wieder und schafft Kontraste im Gesicht des Protagonisten. Es scheint tendenziell von oben nach unten und auf die Seite des Gesichts, die von der Kamera abgewandt ist. 
  • Die Lichtrichtung, Intensität und Farbtemperatur haben starken Einfluss auf die Wirkung einer Aufnahme. Für die meisten Streamingsituationen empfiehlt sich ein Keylight das von oben und seitlich auf den Protagnoisten gerichtet ist und eine Farbtemperatur von etwa 5600K besitzt.

Was ist ein Filllight?

  • Auch Füllicht oder Aufhellung gennant, dient dazu, Schatten und Kontraste die durch das Keylight entstehen zu reduzieren.

Was ist ein Backlight?

  • Auch Gegenlicht, Effektlicht, Kante oder Spitze dient dazu den Protagonisten Kontur zu verleihen und vom Hintergrund abzutrennen. Ein Backlight, das von hinten auf den Oberkörper des Protagonisten scheint, lässt seine Umrisse wie etwa Haare und Schulter glänzen.

Was sind Spitzen?

  • Spitzen sind die beleuchteten Umrisse eines Protagonisten. Sie entstehen indem der Darsteller von hinten Angestrahlt wird und die Kamera Reflektion von Haarspitzen und Schultern aufnimmt. Sie wirken wie ein Schein, welcher vom Protagonisten ausgeht.
  • Häufig werden Spitzen durch das Backlight produziert. Da die Lampen relativ exakt justiert werden müssen, eignen sie sich überwiegend für statische Aufnahmen, in denen sich die Personen nicht viel bewegen.

Was ist diffuses Licht?

  • Diffuses oder auch weiches Licht zeichnet sich durch einen verschwommenen Schattenwurf aus. Es wird erzeugt indem Lichtstrahlen durch Filter auf eine weite Fläche gestreut werden, wie etwa durch den Diffusor einer Softbox.
  • Hartes Licht wird durch punktuelle ungefilterte Lichtquellen erzeugt und wirft Schatten mit scharfen Kanten.
  • Die unterschiedlichen Diffusionsgrade können genutzt werden um in Videos unterschiedliche Wirkungen zu erzeugen. Ein scharfer Schattenwurf lässt Gesichtszüge härter erscheinen, als der verschwommene Schatten von diffusem Licht.

Was ist eine Softbox?

  • Softboxes sind Flächenleuchten, die zur gleichmäßigen Ausleuchtung eines Motivs genutzt werden. Sie erzeugen diffuses Licht und finden in den meisten Videosettings Anwendung.
  • Im Gegensatz zur Hardbox lassen sie sich relativ klein verpacken und sind leicht, sodass sie sich für mobile Einsätze eignen.

Was ist die Frequenz von Licht?

  • Abgesehen von den physikalischen Eigenschaften einer Lichtwelle, spielt die Frequenz von Licht im Videobereich vor allem eine Rolle wenn Aufnahmen verlangsamt oder Bildschirme aufgenommen werden und es so zu Flackern kommt.
  • Viele Leuchtmittel funktionieren bei einer Frequenz von 50Hz bis 60Hz, während viele Bildschirme mit einer Frequenz von 75Hz laufen.

Ton

Wie installiere ich ein Mikrofon?

  • Benutzt man Lavalier Mikrofone, erhält jeder Sprecher ein Mikrofon, das auf Brusthöhe angebracht wird und nach oben ausgerichtet ist.
  • Wichtig ist, dass das Mikrofon nicht von Kleidung oder Ähnlichem bedeckt ist, sodass der Schall ungehindert vom Mund ins Mikrofon gelangt

Was muss ich für eine gute Akustik beachten?

  • Für optimale Sprachabnahme positioniert man das Mikrofon auf Brusthöhe und in Mundrichtung, sodass der Schall ungehindert aufgenommen werden kann. Idealerweise wählt man einen Raum mit wenigen Umgebungsgeräuschen. Selbst niedrige Geräuschpegel, wie sie von Lüftungen und manchen Lampen erzeugt werden, können die Aufnahme beeinflussen.
  • Grosse Räume mit nackten Wänden neigen dazu, Echos zu erzeugen, was einen Hall Effekt in der Tonaufnahme erzeugt. Um das zu verhindern, können Wände und Decken mit Schaumstoff oder Stoff und der Boden mit Teppich ausgelegt werden um Schall zu „schlucken“.

Was ist Stereo?

  • Stereo ist im Audiobereich die Kurzform von Stereofonie. Es beschreibt wenn durch 2 oder mehr Schallquellen ein räumlicher Schalleindruck geschaffen wird.
  • Durch Stereolautsprecher kann beispielsweise der Klang eines „vorbeifahrenden“ Autos geschaffen werden, indem rechter und linker Lautsprecher aufeinander abgestimmt lauter und leiser werden.

Vor der Kamera

Welche Position muss ich im Raum einnehmen?

  • Die Positionierung im Raum hängt primär vom Motiv ab, welches auf dem Bildausschnitt zu sehen sein soll.
  • Möchte man Tiefenschärfe erzeugen, muss der Protagonist im Verhältnis zur Kamera genügend Abstand zum Hintergrund haben.
  • Ausserdem sollten Licht- und Tonverhältnisse mit einbezogen werden: Starke Lichtquellen hinter dem Protagonisten, wie etwa eine Fensterfront, erschweren auf der Aufnahme eine gute Ausleuchtung des Gesichtes.
  • Nicht zuletzt sollte man berücksichtigen, welche Möglichkeit aus platztechnischen Gründen bestehen, eine Kamera zu platzieren.

Welche Körperhaltung nimmt man vor der Kamera ein?

  • Generell empfiehlt sich vor der Kamera wie auch allgemein eine aufrechte Körperhaltung.
  • Ob man bei der Aufnahme besser steht oder sitzt, hängt vom Format und der Message ab, die man senden möchte. Interviews werden geeigneter Weise sitzend durchgeführt, da es zum ausgedehnten Dialog einlädt. Motivierende Aufrufe wie etwa recruiting Videos werden besser stehend gefilmt, da es eine aktivere Wirkung beim Zuschauer erzeugt.

Nahaufnahme oder ganzer Raum?

  • Der Bildausschnitt sollte vom Format abhängig sein und welche Wirkung erzielt werden soll. Sind Inhalte allgemein gehalten und sind mehrere Personen involviert, eignet es sich, den ganzen Raum abzulichten. Möchte man den Fokus auf eine Person richten, die explizit den Zuschauer anspricht, wird der Bildausschnitt eher so gewählt, dass der Sprecher bildfüllend ist.
  • Der Bildausschnitt muss nicht fix sein. Wird der ganze Raum in hoher Auflösung aufgenommen, besteht die Möglichkeit in der Postproduktion in einen Bildbereich zu zoomen. Das bringt Dynamik in die Aufnahme.

Maske/Schminke?

  • Weder Maske noch Schminke sind vor der Kamera auf Unternehmensebene ein Muss.
  • Streams haben verschiedene Reichweiten und verschiedene Zielgruppen. Diese 2 Faktoren bestimmen für die meisten Protagonisten massgeblich, wie sie sich vor der Kamera wohl fühlen.
  • Oft wird Puder verwendet um Glanz aus Gesichtern zu nehmen. Dieser Effekt kann jedoch auch erzielt werden indem die Hauptlichtquelle frontal auf des Gesicht des Protagonisten gerichtet wird und zusätzlich weiches Licht verwendet wird. Weiches (diffuses) Licht erzeugt man durch grosse Lichtquellen, wie etwa Softboxes, die möglichst nahe am Protagonisten aufgestellt werden.

Hinter der Kamera

Was ist Fokusziehen?

  • Fokus ziehen oder auch Schärfe ziehen beschreibt das fokussieren eines bestimmten Bildausschnittes. Das ist notwendig damit beispielsweise der Protagonist im Fokus der Kamera ist und scharf dargestellt während Hintergrund oder Bildränder unscharf bleiben.

Welches Stativ nutzt man für Livestreams?

  • Videostative unterscheiden sich von Fotostativen durch eine stabilere Bauweise, die es erlaubt die Kamera zu schwenken, ohne sie zu verwackeln.
  • Um Schwenks zu vereinfachen, ist oft zusätzlich ein Griff am Kopf des Stativs angebracht.

Realer oder virtueller Hintergrund?

  • Häufig gibt es in Videochats die Möglichkeit, Hintergründe virtuell einzufügen. Diese Funktion dient dazu, Settings zu kaschieren, die man nicht mit Konversationspartner teilen möchte.
  • Nachteil solcher Hintergründe ist, dass die Umrisse des Sprechers nicht perfekt ausgeschnitten und der virtuelle Effekt dadurch als solcher erkannt werden kann. Sie sollten daher lediglich als Notlösung dienen.
  • Roll Ups sind ein schnelles, einfaches und kostengünstiges Mittel um neutrale Hintergründe zu schaffen, und haben dabei nicht die Nachteile von virtuellen Hintergründen.

Was ist ein Greenscreen?

  • Ein Greenscreen ist eine monotone, gleichfarbige grüne Fläche. Mit ihr werden vor allem im Videobereich Motive freigestellt, um beispielsweise eine*n Sprecher*in vor einen virtuellen Hintergrund zu setzen.

Was ist freistellen?

  • Freistellen ist in der Fotografie die Befreiung eines Motivs von dessen Hintergrund. Durch das Freistellen ist nur noch das Motiv sichtbar, während der Hintergrund ausgeblendet wird und und durch einen beliebigen anderen Hintergrund ersetzt werden kann.
  • In Videoanwendungen wird auch von Chroma Keying gesprochen. Ein*e Sprecher*in kann während eines Livestreams freigestellt werden und vor virtuelle Hintergründe wie etwa Präsentationen gesetzt werden. 

Wodurch entsteht Flackern in Videoaufnahmen?

  • Ob ein Video flackert, hängt davon ab, mit welcher Framerate es aufgenommen wird und von der Frequenzrate, in der die Leuchtmittel in einer Aufnahme scheinen. 
  • Um Flackern zu vermeiden, stellt man die Framerate auf ein vielfaches der Frequenz der Lichtquellen die gefilmt werden. Leuchten sie mit einer Frequenz von 60Hz wählt man also wahlweise 30, 60 oder 120 FPS.

An und in der Kamera

Was sind fps?

  • Frames per second (Bilder pro Sekunde) beschreibt die Bildrate einer Videoaufnahme. Ein Video besteht aus Bildsequenzen die so schnell ausgewechselt werden, dass der Eindruck eines bewegten Bildes entsteht. Je mehr Bilder pro Sekunde aufeinander folgen desto flüssiger wird die Bewegung.
  • Gängige Kameras lassen sich etwa auf 24, 30 und 60 fps einstellen.
  • Das menschliche Auge nimmt eine Aufnahme ab einer Bildwiederholfrequenz von 24 fps als flüssig wahr. Das bedeutet, dass man eine Aufnahme mit 240 fps um Faktor 10 verlangsamen kann und immer noch ein flüssiges Bild wahrnimmt.So entstehen Slow Motion aufnahmen.
  • Umgekehrt können Aufnahmen mit niedriger Bildfrequenz wie etwa 1fps um Faktor 24 beschleunigt werden, um einen flüssigen Zeitraffer zu erzeugen.

Was ist ein Fokuspunkt?

  • Der Fokuspunkt ist der scharfe Bereich eines Bildausschnittes und bestimmt damit worauf die Aufmerksamkeit des Betrachters gelegt wird. Wie gross dieser Bereich ist, hängt von der Linse und vom Abstand zwischen Kamera und Motiv ab.

Was ist Brennweite?

  • Die Brennweite ist ein definierender Faktor für Objektive und wird in Millimetern angegeben. Sie bezieht sich auf den Winkel den das Objektiv in den Bildausschnitt einfangen kann.
  • Je kleiner die Brennweite (niedrigere mm – Zahl) desto grösser ist der Bildausschnitt. Weitwinkelobjektive haben etwa eine Brennweite von ca. 30mm und kleiner während man ab einer Brennweite von 135mm von einem Teleobjektive spricht

Was ist beim Objektiv zu beachten?

  • Bei der Wahl des Objektivs ist primär der Bildausschnitt wichtig der eingefangen werden muss. Der Winkel, der bestimmt ob das gesamte Motiv eingefangen werden kann wird Brennweite genannt und in Millimetern angegeben.

Was ist ein Viewfinder?

  • Der Viewfinder oder Sucher ist die Vorrichtung jeder Kamera die den Blick auf das Motiv und das Anvisieren eines Objektes ermöglicht. Heutzutage haben die meisten Kameras Bildschirme als Viewfinder.
  • Viewfinder sind meistens relativ klein und sind daher nur begrenzt in der Lage die Aufnahme detailgetreu wieder zu spiegeln. Man sollte daher bei jedem Setting nicht dem Viewfinder, sondern vor allem seiner persönlichen Einschätzung Beachtung schenken.
  • Die meisten modernen Viewfinder ermöglichen neben vielen anderen Funktionen zusätzlich das Fokussieren eines Bildschirmausschnittes per touch.

Was ist ein Bajonettverschluss?

  • Ein Bajonettverschluss oder auch Objektivbajonett oder Mount wird im Kamerabereich verwendet, um Wechselobjektive am Kameragehäuse zu befestigen. Durch ineinander stecken und entgegengesetztes Drehen der beiden Teile, wird eine mechanische Verbindung hergestellt, die nur durch eine Entriegelung durch den Sicherungsknopf wieder gelöst werden kann.
  • Bajonettverschlüsse sind zur Befestigung von Objektiven weit verbreitet, allerdings können Grösse und Form je nach Hersteller variieren. Oft gibt es Objektivadapter, um auch inkompatible Wechselobjektive mit Kameras zu verbinden.

Was sind Four Thirds?

  • Four Thirds ist ein verbreiteter Standart für digitale Kamerasysteme. Er definiert wichtige Kennzahlen wie unter anderem Sensorgrösse, Auflagemass und Objektivbajonett.
  • Micro Four Thirds ist die Weiterentwicklung und der aktuelle Standart mit zusätzlichen elektronischen Kontakten am Bajonettverschluss die verbesserten Videoanwendungen dienen.

Was ist Auflagemass?

  • Das Auflagemass definiert den Abstand zwischen Bildsensor und der Befestigungsfläche des Objektivs. Dieser Abstand bestimmt, welche Bildebene (nah oder weit entfernte Objekte) von einem Objektiv scharf gestellt werden kann.
  • Unterschiedliche Kamerasysteme können unterschiedliche Auflagemasse verwenden. Auflagemasse von Objektiv und Kamera sind ab einem Unterschied von ± 0,01 mm inkompatibel und nicht in der Lage alle Bildebenen scharf zu stellen.

Was ist RAW Format?

  • Raw Format oder Rohdatenformat ist ein Dateiformat, das Fotos und Videos weitgehend unbearbeitet abspeichert. Das bedeutet in der gespeicherten Datei sind alle Informationen konserviert, die der Kamerasensor aufnehmen konnte.
  • RAW Dateien können im Gegensatz zu anderen Dateiformaten in der Postproduktion deutlich flexibler nachbearbeitet werden, da sie mehr Informationen beinhalten, die für Anpassungen zur Verfügung stehen. So können Im RAW Format Weißabgleich, Farbraum und Kontraste auch nach der Aufnahme angepasst werden, ohne etwa Bildrauschen oder ähnliches zu erzeugen.
  • Mehr Informationen bedeutet auch, dass deutlich mehr Speicherplatz benötigt wird (eine Blackmagic 4k benötigt bei einer Auflösung von 4K UHD bei 24fps 12GB pro Minute oder 741GB pro Stunde). Dieser Speicherplatz muss auf Datenträgern verfügbar sein und kostet  zusätzlich wesentlich mehr Zeit in der Postproduktion.

Was sind Mounts? Für welche Objektive?

  • Mounts sind die Verbindungen zwischen Objektiv und Kamera. Je nach Hersteller unterscheiden sie sich in Durchmesser und Auflagemass.
  • Die verschiedenen Typen von Mounts wie etwa die A – und E – Mounts von Sony oder Micro Four Thirds (MFT) – Mounts von Olympus bestimmen, welche Kamera mit welchem Objektiv kompatibel sind, ohne ein Objektiv Adapter zu verwenden.

Was ist ein Vollformatsensor?

  • Ein Vollformatsensor ist ein spezifizierter Typ elektronischer Bildsensoren.
  • Sensoren dienen in der Kamerawelt der Aufnahme von Bildsignalen. 
  • Vollformatsensoren grenzen sich unter anderem durch ihre Abmessungen von ca. 24mm x 35mm von anderen Kamerasensoren und entsprechen damit etwa dem analogen 35mm Kleinbildfilms.

Was bedeutet Megapixel?

  • Ein Megapixel steht für eine Millionen Bildpunkte und beschreibt die Auflösung digitaler Aufnahmen. Ein Kamerasensor mit 12 Megapixel kann Bilder mit bis zu 12 Millionen Bildpunkten aufnehmen.
  • Je mehr Megapixel eine Aufnahme hat, desto mehr Informationen hat man in der Postproduktionzur Verfügung, um etwa Zooms vorzunehmen und desto mehr Speicherplatz benötigt die Aufnahme.

Was sind ISO-Werte?

  • Der ISO-Wert beschreibt die Lichtempfindlichkeit (ursprünglich Filmempfindlichkeit) einer Kamera. In modernen Kameras kann der ISO-Wert digital eingestellt werden, um flexibler auf Lichtverhältnisse zu reagieren.
  • Stellt man ISO-Werte hoch, wird die Aufnahme mehr belichtet, stellt man sie niedrig wird sie weniger belichtet.
  • Ein hoher ISO ersetzt keine Lichtquelle. Ist der ISO zu hoch eingestellt, droht die Aufnahme zu verrauschen. Daher sollte man für die Belichtung eines Settings mit Lampen oder anderen Lichtquellen arbeiten und über den ISO-Wert lediglich finetuning vornehmen.

Was ist HD?

  • High Definition wird sowohl im Audio-, Television-, Video- und Bildschirmbereich verwendet.
  • Im Bildschirm- bzw. Kamerabereich wird in verschiedene Bildschirmauflösungen differenziert. HD ready besitzt 1280 x 720 Pixel während Full HD mit 1920 x 1080 Pixel auflöst. Ultra HD Bildschirme haben 3840 x 2160 Pixel und damit nur geringfügig weniger als ein 4k Bildschirm, auch wenn die Begriffe oft synonym verwendet werden. 

Was bedeutet 4k?

  • 4k definiert die Anzahl an Pixel die ein Displays besitzt und damit dessen Auflösung. steht in diesem Kontext für das griechische Wort Kilo. 4k Displays besitzen dementsprechend etwa 4000 Pixel in der Horizontalen.

Was ist Bildrauschen?

  • Bildrauschen sind Störungen bei digitalen Aufnahmen, wenn Pixel fälschlicher Weise ein Signal registrieren, dass das Motiv nicht akkurat abbildet.
  • Bildrauschen entsteht vor allem bei wenig Belichtung, und wird beispielsweise oft sichtbar bei den unterschiedlichen Farbnuancen eines Abendhimmels.

Was ist Dolby?

  • Dolby Laboratories ist ein Unternehmen, das Standards im Audio- und Videobereich entwickelt. 
  • Die verschiedenen Formate wie Dolby Digital oder Dolby Atmos sind häufig in der Beschreibung von Wiedergabemedien zu finden (DVD/Blu-ray/Stream), die sie unterstützen. Das Logo zweier einander zugewandter D’s hat daher großen Wiedererkennungswert. 
  • Im Videobereich deklariert beispielsweise Dolby Vision die Fähigkeiten einer Kamera Aufnahmen in einem bestimmten Farbumfang (HDR) zu machen oder wiederzugeben.

Was ist HDR?

  • High Dynamic Range bezeichnet Bilder und Videos mit einem Helligkeitsunterschied von 1:1000, um in einem Bild sowohl die sehr dunklen als auch sehr hellen Bereiche detailliert darzustellen. Es kann sowohl die Aufnahmefähigkeit einer Kamera, als auch die Wiedergabefähigkeit eines Bildschirms beschreiben.
  • Es gibt verschiedene HDR Formate unterschiedlicher Qualität. Im Videobereich spielt auch die Farbwiedergabe eine wichtige Rolle — der aktuell höchste Standart im HDR Videobereich ist Dolby Vision mit einer Farbtiefe von 12 Bit, sprich 68 Millionen Farben, die sich akkurat darstellen lassen. 

Signal und Übertragung

Was ist HDMI?

  • Das sogenannte High Definition Multimedia Interface ist ein Konsumenten Standard, der in erster Linie für Heim-TV und andere Geräte genutzt wird. HDMI überträgt Sound- und Bilddateien so, wie sie in der Kamera erzeugt werden. Folglich wenn die Kamera mit dem Signal 4K sendet, empfängt der Bildschirm das Signal in diesem Format.

  • HDMI erlaubt es zusätzlich, dass sich Geräte miteinander unterhalten. Beispielsweise kann ein Recorder an die Kamera angeschlossen werden und somit die Kamera von diesem aus die Aufnahme starten. 

  • HDMI Kabel sind fehleranfällig und können schnell brechen, da sie aus vielen kleinen starren Kabeln bestehen und haben in der Regel keine Sicherung, mit der man sie an die Kamera befestigt werden kann.

  • HDMI 2.1 ist der momentane Standard (2021) der 48 Gbits/s und 120 Hz Videos von 4K bis 10 K Auflösungen erlaubt. 

Wie lange sollte ein HDMI Kabel maximal sein?

  • Offiziell sind von der HDMI Organisation Kabellängen bis zu 10m vorgesehen. Allerdings kann es bei minderqualitativen Kabeln ab 5m zu Übertragungsschwierigkeiten kommen. Auch wenn 20m HDMI Kabel im Handel angeboten werden, ist die Signalweiterleitung selbst bei hochwertigen Kabeln oft gestört.

Was ist SDI?

  • Das so genannte Serial Digital Interface ist ein digitales Signal, das Video, Audio, Timecode und Metadaten überträgt. Es ist Standard bei allen nicht datenreduzierten Verbindungen zwischen Geräten innerhalb eines TV-Studios.

  • Das Signal wird komprimiert und kann über Koaxialkabel oder Glasfaser übertragen werden. Es kommt zwar unverändert beim Empfänger an, muss aber vor der Ausgabe an einen Bildschirm enkodiert werden. 

  • SDI wird vor allem wegen seiner stabilen Verbindung über lange Distanzen genutzt. Zudem besitzen SDI Kabel mit dem BNC Connector eine Sicherung, um fest an die Kamera angeschlossen zu werden.
  • Die Kabel gibt es in verschiedenen Versionen, die jeweils die Datenrate bestimmen. 3G-SDI kann 1080p mit 60 Frames per second übertragen, wohingegen 12G-SDI 4K UHD bei 60 fps übertragen kann. Je grösser der Bildschirm ist, auf dem das Signal übertragen wird, desto grösser sollte die Datenrate sein.

  • SDI ist abwärtskompatibel. 12G-SDI funktioniert also auch mit einer Kamera, welche einen 3G Output hat. 

Standard 

Name 

Bitrate 

Video Format 

Wird vor allem genutzt: 

SMPTE 292 

HD-SDI 

1.485 Gbit/s 

HD-ready, HD, 720p 

1280×720 (60 fps) 

SMPTE 424 

3G-SDI 50m+reclock 

2.970 Gbit/s 

FullHD, 1080p 

1920×1080 (60 fps) 

SMPTE 2081 

6G-SDI 25m 

6 Gbit/s 

FullHD, 1080p, UHD, 4K, 2160p 

1920×1080 (120 fps) and 3840×2160 (30 fps) 

SMPTE 2082 

12G-SDI 10m + fiber 

12 Gbit/s 

UHD, 4K, 2160p 

3840×2160 (60 fps) 

SMPTE 2083 

24G-SDI 5m 

24 Gbit/s 

UHD 4K, C4K/4K DCI, 8K 

3840×2160 (120 fps) and 7680×4320 (60 fps)  

  • Je schneller die SDI Verbindung, desto kürzer wird das Kabel. 

SDI Verbindung 

Maximale Kabellänge 

HD-SDI 

100m 

3G 

50m 

6G 

25m 

12G 

12m 

24G 

5m 

Welcher Unterschied besteht zwischen HDMI und SDI?

  • Ein Bild- und Tonsignal kann über HDMI ohne Verstärkung etwa 15m verlustfrei weitergeleitet werden, während dies beim SDI 100m beträgt.
  • Während SDI Anschlüsse durch einen mechanischen Verschluss vor unabsichtlichen ausstecken geschützt sind, ist dies bei konventionellen HDMI Kabeln nicht der Fall.
  • HDMI Kabel sind teurer als SDI Kabel.
  • Wegen der unterschiedlichen Signalübertragungsarten können SDI Kabel im Gegensatz zu HDMI Kabel einen Timecode transportieren.

Was ist das Dante Protokoll?

  • Das Dante Protokoll ist eine Kombination aus Hardware und Software. Mit ihm können Audiosignale über Netzwerkkabel mit geringer Latenz transportiert werden.
  • Die Verbindungen können dabei über eine Software verwaltet und gesteuert werden. Die gesamte Übertragung findet über das Netzwerk statt. Das erlaubt, das Signal an jedes Gerät zu schicken, das mit dem Netzwerk verbunden ist. Somit fallen SDI- und HDMI-Kabelprobleme weg. Für die Übertragung ist Dante Software- und Hardware notwendig. 

  • Dante vepackt das Audiosignal in Internet-Protokolle mit den nötigen Quell- und Zielnetzwerkadressen, die dann über das Netzwerk übertragen und ausgegeben werden können. Der Ton ist dabei verlustfrei.

  • Im Vergleich zum bekannteren NDI sei Dante als geschlossenes System einfacher zu bewältigen und weniger anfällig für Fehler. 

  • Dante AV kann das gleiche mit Video Signalen machen.

Was ist Latenz?

  • Latenzzeit oder auch Verzögerungszeit beschreibt im Streamingbereich die Dauer, die ein Signal benötigt, um vom Sender zum Empfänger zu gelangen.
  • Für eine Liveübertragung muss ein Bild von einer Kamera eingefangen und verarbeitet, an einen Computer weitergeleitet und im richtigen Format ins Netz hochgeladen werden, wo es von Servern weiterverarbeitet Endnutzern zum Download bereitgestellt werden kann. Alle diese Prozesse benötigen Zeit, sodass es zu  Verzögerung zwischen Aufnahme und Bereitstellung führt.
  • Die Latenz spielt vor allem dann eine Rolle, wenn zwischen Sender und Empfänger interagiert werden soll. Damit beispielsweise ein Moderator natürlich auf die Fragen von Zuschauern eingehen kann, darf die Latenz maximal wenige Sekunden betragen. Speziell für Videocalls ist geringe Latenz wichtig um einen flüssigen Gesprächsfluss zu ermöglichen.
  • Ein grosser Teil der Latenz entsteht durch die Server die einen Stream bereitstellen. Dementsprechend wichtig ist die Wahl des Streaminganbieters je nach gewünschtem Anwendungsbereich.

Was ist NDI?

  • Das sogenannte Network Device Interface ist ein lizenzfreier Softwarestandart der latenz-arme, frame-akkurate HD-Videosignalübertragung per Netzwerkkabel ermöglicht. 
  • Ein NDI Signal ist in der Lage Video-, Audio-, und Metadaten zu übertragen. Metadaten können in beide Richtungen übertragen werden, sodass Empfänger und Sender miteinander kommunizieren können, ob beispielsweise ein Videosignal gerade Live Übertragen wird oder wie viele Receiver angeschlossen sind.
  • Auf diese Weise ist es möglich, die Anzahl der Quellen zum Mischen einer Live-Produktion deutlich zu steigern, ohne direkt mit den jeweiligen Geräten verbunden zu sein, Standorte zu wechseln oder in teure, breitbandige Netzwerke investieren zu müssen, die SDI-basierte Workflows einfach ersetzen. 

Was ist ein Timecode?

  • Timecodes dienen dazu, verschiedene technische Geräte zeitlich bis zu einem Sekundenbruchteil genau zu synchronisieren. Sie bestehen aus Stunde:Minute:Sekunde:Frame
  • Damit die Timecodes unterschiedlicher Kameras miteinander kompatibel sind, ist es wichtig, dass die jeweiligen Geräte mit der gleichen Bildfrequenz (Frames pro Sekunde) aufnehmen.
  • Timecodes vereinfachen die Postproduktion, indem verschiedene Kameras und Mikrofone die dieselbe Szene filmen, automatisiert aufeinander abgestimmt werden können. 

Was ist ein Encoder ?

  • Ein Video-Encoder oder auch Codec ist ein Gerät, das Videos per Komprimierung oder Dekomprimierung in verschiedene streamingfähige Formate umwandelt. 
  • Je stärker ein Video dabei komprimiert wird, desto weniger Bandbreite und Buffering (Pufferung) benötigt es. 

Was ist eine Streamingbridge?

  • Die ATEM Streaming Bridge ist ein Videokonverter, der ein H.264-Stream von einem beliebigen ATEM Mini Pro empfangen und in SDI- und HDMI-Video umwandeln kann.

  • Dadurch können Videos an Remote-Standorte auf einem lokalen Ethernet-Netzwerk oder per Internet sogar in die ganze Welt zu gesendet werden. Möglich ist das, weil der Konverter fortschrittliche H.264-Codecs für eine höhere Qualität bei äußerst geringen Datenraten einsetzt.

  • Ein mögliches Produktionsszenario: Broadcaster und Blogger arbeiten gemeinsam an Sendungen und kreieren so globale Netzwerke aus ATEM Mini Pro Remote-Rundfunkstudios. 

  • Nachteile sind, dass die Signale nur über Blackmagic Atem oder Recorder geschickt, wie auch empfangen werden können. 

Was ist H.265?

  • H.265 oder auch High Efficiency Video Coding (HEVC) ist ein Standart zur Kodierung von Videoinhalten. 
  • H.265 wurde entwickelt, um vergleichsweise hohe Datenmengen, wie sie bei 4K- und 8K-Videoaufnahmen entstehen, verlustfrei und kompakt abzuspeichern. 
  • H.265 ist ein weit verbreiteter Branchenstandart und wird beispielsweise von Blackmagic Kameras als Speicherformat angeboten.

Was ist XLR?

  • XLR-Kabel sind wegen ihrer Robustheit und Zuverlässigkeit Standard in der Übertragung von analogen Audiosignalen.

  • Zusätzlich können mit XLR-Kabel Lautsprecher, Mischpulte oder Scheinwerfer bedient werden.

  • XLR-Kabel können Signale ohne Qualitätsverlust und Störgeräusche übertragen, weil das Signal sowohl normal als auch invertiert über zwei Drähte läuft und so Rauschen vermeidet. Somit sind auch lange Strecken von bis zu 200 Metern im Zusammenspiel mit anderen elektrischen Geräten möglich.

  • Nachteil des XLR Kabels ist, dass es gross und klobig ist. 

Nach dem Dreh

Was ist Postproduktion?

  • In der Postproduktion werden unbearbeitete Videoschnipsel zu einem fertigen Video aufbereitet. Das beinhaltet Zusammenschnitt der einzelnen Aufnahmesequenzen, Zoom, Color grading, Anpassungen in der Helligkeit und Geschwindgkeitsanpassungen, aber auch Audioanpassungen, Bauchbinden, Einfügen von Grafiken und vieles mehr.
  • Live Übertragungen sind in erster Linie nicht von Postproduktion betroffen, solange sie nach dem streamen nicht on demand bereitgestellt werden.
  • Die Postproduktion ist essenzieller Bestandteil der Wirkung eines Videoinhaltes. Sie komprimieren Videos auf wesentliche Inhalte und machen sie optisch ansprechender.

Was sind Luts?

  • Man kann Luts als Filter verstehen, die einer Aufnahme einen bestimmten Look verleihen. Sie sind individuell programmierbar und beinhalten zahlreiche Feineinstellungen der Kamera. Sie können während der Aufnahme oder in der Postproduktion eingesetzt werden. Wenn Videoinhalte mit einem Lut aufgenommen werden kann das die Postproduktion eines Videos enorm abkürzen, indem beispielsweise Colourgrading oder Helligkeitsverhältnisse bereits während der Aufnahme von der Kamera übernommen werden.
  • Man kann Luts für verschiedene Videosettings programmieren und für jede Situation den passenden anwenden. Luts lassen sich sogar aus dem Netz laden und auf Kameras speichern.
  • Luts haben den Vorteil, dass sie schon während einer Aufnahme ein recht guten Eindruck dafür vermitteln, wie das Video nach der Postproduktion aussehen wird.

Was ist Color Grading?

  • Color Grading oder auch Farbkorrektur ist die Korrektur und Anpassungen des Farbstiches einer Aufnahme. Meist passiert dies in der Postproduktion.
  • Mithilfe von Luts kann Color Grading auch in Echtzeit auf der Kamera vorgenommen werden. Das hat den Vorteil das Farben im Viewfinder so angezeigt werden, wie sie auch im fertigen Video wirken.

Was ist mit DaVinci Software möglich?

  • DaVinci ist ein Programm zu Postproduktion von Videoinhalten. Es ermöglicht Schneiden, Color grading, Tonbearbeitung, Einfügen von Einblendungen und Übergänge zwischen Videosequenzen.
  • Durch die multifunktionale Einsetzbarkeit von DaVinci, sind Videoproduzenten nicht mehr auf eine Vielzahl von Programmen angewiesen, sondern können die komplette Postproduktion mit DaVinci vornehmen.

Sei bei unserem nächsten Live-Event dabei, jetzt per E-Mail eintragen:

[contact-form-7 id="525" title="E-Mailadresse"]

Immer auf dem neusten Stand
bleiben –
zum Newsletter


BroadUp GmbH
+41 71 671 10 85
info@broadup.ch

Impressum
Datenschutz

BroadUp GmbH
+41 71 671 10 85
info@broadup.ch

Newsletter
Impressum

Datenschutz

Quicklinks

Über uns
Karriere  

Services & Support 

Kontakt

BroadUp GmbH
E-Mail:   info@broadup.ch
Telefon:  +41 71 671 10 85
Adresse:  Bahnhofstrasse 33C
8280 Kreuzlingen | CH

 

Rechtliches

Impressum
Datenschutz

Social Media

BroadUp Logo

Copyright © 2023 BroadUp