Beiträge: 2.040
Themen: 242
Registriert seit: Aug 2018
Hobbys: Hundeausbildung, Foto-/Videografie
Hallo Marco,
Dein System ist auch von den Daten her schon top.
Kann ich schon etwas neidisch werden
Bye Uwe
WIN 10 64, RTX 2080 TI, AMD 9 3900X, 64 GB RAM GSkill, M2 1 TB, SSD EVO 1 TB, SSD ScanDisk 240 GB,
MSI X470 Gaming Pro Carbon,DR 20b4 Studio, Monitor AOC 32" + Samsung 32" 4K
ShuttlePRO v2, Canon 60D, Osmo Pocket, AK 2000 S Deluxe T11, Canon R 7
Beiträge: 2.565
Themen: 28
Registriert seit: Jul 2018
Genau da kommt aber auch noch ein Faktor in's Spiel, wenn man nicht so üppige Hardware hat:
Zumindest auf dem PC scheint es so zu sein, dass Resolve stabiler läuft, wenn man die Enkodierung vom Rendering trennt, also erst in einen weniger aufwändigen Codec schreibt, wie DNxHD/HR oder Cineform und dann ohne Resolve zu H.264/265 umrechnet.
Beim Mac konnten wir auch Probleme beobachten (dort läuft ja nur QuickSync), wenn es sich um einen Laptop handelt. Der drosselt dann zu sehr, damit ihm nicht so warm wird.
- MacBook M1 Pro unter Sonoma 14.7.2
- Resolve und Fusion Studio 19.1.2
- Mini Monitor 3G in HD mit kalibriertem Asus ProArt
- Xiaomi G34WQi Monitor
- Blackmagic Pocket HD, UMP 4.6 G1 und Sony Alpha A7 IV
- DJI Mavic Air 2
- iPhone 15 Pro Max
Beiträge: 1.567
Themen: 48
Registriert seit: Feb 2019
Hier wird von mehreren Seiten immer wieder die Qualität betont.
Ich frage mich nur , wie misst man die Qualität eines gerenderten Videos wirklich?
Das einfache Anschauen des Videos auf einem Bildschirm oder TV-Geräts kann es ja wohl nicht sein.
Gibt hierfür erschwingliche Messgeräte und welche.
Und wer verwendet solche Messgeräte??? <X
Gruß Peter
Aufnahme: 2 x Sony FDR-AX 700, Panasonic DMC FZ300, Panasonic DMC LX 100, Samsung A52
PC: ASRock Z370, intel i7 8700K, 64 GB RAM, RTX 3070, Samsung SSD 870 Pro + 2 HD 4 TB, eine SSD 1 TB für Cache,
Intensity Pro 4K, 2x EIZO Color Edge kalibriert, 1x EIZO EV 2360
NLE: DaVinci Resolve Studio & Fusion Studio 18.5 mit Micro Panel, Shuttle Pro;
Video: Topaz Video AI und Photo AI, Neat Video
Audio: Wavelab Elements 11, Cubase Elements 12, Acoustica 7 und Sononym
Horst Girtew
Unregistered
Es gibt Material, zum Beispiel ein kleiner Bergbach mit vielen, vielen kleinen Wellen, wo Encoder in Punkto Klötzchenbildung an ihre Grenzen geraten oder man nimmt ältere Filmmitschnitte, wo man noch die Körnung erkennt zum Testen. Wenn man kein grenzwertiges Material hat, wird man mit bloßem Auge kaum Unterschiede feststellen.
Und man muß natürlich definieren, welche Erwartungen man hat. Jemand, der Spiele live streamen will ist mit einem Hardware-Encoder besser beraten, der vergleichsweise schnell ist und das restliche System nicht belastet, weil die Systemressourcen natürlich für das eigentliche Spiel benötigt werden. Stößt man bei Recherchen auf Tests von diesem Clientel, wird man einen Hardwareencoder auf Platz 1 finden. Für jemanden, der seinen Kunden bei irgendwelchen Auftragsarbeiten die bestmögliche Qualität bieten will, ist Echtzeitencoding Nebensache. Der rendert dann auch lieber zwei Stunden als anderthalb, wenn es der Qualität dient.
Ein weiterer Vorteil der Trennung ist, wenn man zum Beispiel viele aufwändige Effekte hat und mehrere verschiedene Endformate benötigt. Dann kann man erstmal alles rendern und encodiert sich dann die unterschiedlichen Finalversionen aus der gerenderten Datei. Dann muß zum Einen DaVinci das nicht immer wieder durchrattern oder je nachdem, wie der Workflow aussieht, kann zum Anderen das Encodieren dann ausgelagert werden und DaVinci ist schon wieder für den Schnitt des nächsten Projektes frei.
Es geht ja grundsätzlich auch nicht darum, dass irgendeine Verfahrensweise richtig oder falsch ist oder besser oder schlechter. Wenn jemand mit dem, so wie er es macht zufrieden ist, dann ist doch für denjenigen alles gut. Er sollte nur einsehen, dass andere Leute vielleicht andere Erwartungen haben und mit dem Ergebnis so nicht zufrieden wären oder einen anderen Weg wählen, weil sie es so lieber machen und so zu dem Ergebnis kommen mit dem sie widerum zufrieden sind. (Jetzt mal davon abgesehen, dass man technisch gesehen trotzdem noch irgendetwas »Ungünstiges« machen kann.)
Beiträge: 1.567
Themen: 48
Registriert seit: Feb 2019
Das ist für mich kein objektives Messmilttel - das ist einfach Bauchgefühl!
Ich hatte nach Messgeräten gefragt und nicht nach WooDoo.
Gruß Peter
Aufnahme: 2 x Sony FDR-AX 700, Panasonic DMC FZ300, Panasonic DMC LX 100, Samsung A52
PC: ASRock Z370, intel i7 8700K, 64 GB RAM, RTX 3070, Samsung SSD 870 Pro + 2 HD 4 TB, eine SSD 1 TB für Cache,
Intensity Pro 4K, 2x EIZO Color Edge kalibriert, 1x EIZO EV 2360
NLE: DaVinci Resolve Studio & Fusion Studio 18.5 mit Micro Panel, Shuttle Pro;
Video: Topaz Video AI und Photo AI, Neat Video
Audio: Wavelab Elements 11, Cubase Elements 12, Acoustica 7 und Sononym
Horst Girtew
Unregistered
Was soll denn ein Messgerät messen, bzw. unterscheiden können, wenn man zwei optisch identische Clips hat. Einer hat Klötzchenbildung, weil die Encodereinstellung fehlerhaft ist und folglich der Clip eine mangelhafte Qualität hat und der zweite Clip ist von einem abgedrehten Künstler, der die Klötzchenbildung als gewollten Effekt einsetzt und der Clip folglich keine mangelhafte Qualität hat, weil er ja genau so sein soll?
Als Mensch, der die Voraussetzungen kennt und das beurteilen soll, ist Klötzchenbildung schon sehr objektiv, bzw. gibt es überhaupt Qualitätsunterschiede, die man offensichtlich erkennt. Oder was sagt wohl ein Kunde, der einen Fernseher mit schlechter Bildqualität gekauft hat, diesen reklamiert und gesagt bekommt. Nee, nee, die Qualität ist Top. Die schlechte Qualität ist nur ein Bauchgefühl von Ihnen.
Aber um die Unterschiede in einem Clip zu erkennen, braucht man eben Material, dass einen Encoder an seine Grenzen treibt, denn genau dann hat man messbare Werte, weil der gleiche Ausgangsclip mit Encoder A erst bei einer Datenrate von y Klötzchen bildet und Encoder B schon bei einer Datenrate von x.
Und dann kommt auch noch die Auflösung dazu, wie und womit in welcher Größe schaut man sich das Material an.
Eine Qualität sagen wir 4k auf einem Handydisplay miteinander zu vergleichen, wäre genau so als ob man Birnen mit Äpfel vergleichen würde...
Peter, was möchtest du den gerne "Messen" ?
Ich bin mir zu 100% sicher das ein und der selbe Clip, bei uns allen anders aussieht. Ist das nun die Qualität ?
Was beurteilen den unsere Augen in Sachen "Qualität" ?
Schärfe
Belichtung
Körnung
Matchig
Farbstichig
Ruckeln
Klötzchen Bildung
usw. usw.
Was ist davon verursacht durch falsche Einstellungen, was durch den Decoder ??
Was davon durch die verwendete Kamera, Hardware ??
Und dann kommt wirklich das Bauchgefühl, was ist für einen jeden selbst gute "Qualität" ist Qualität im Filmbereich überhaupt Messbar ?
Bei der Fotografie habe ich mir nach ein paar Jahren angewöhnt, wenn ich der Meinung war ich habe ein wirklich Top Bild, wo alles an der Bearbeitung stimmt mir das Bild 14 Tage oder länger nicht an zu sehen und danach mir das Bild nochmals vorholen. Ja und siehe da, es fällt einen wieder andere Dinge auf als bei der "Zeitnahen" Bearbeitung.
Heut zu Tage ist das Leben so "Schnell" geworden, Live ist schon nicht schnell genug :-) das man schnell im Netz sein Content zeigen will oder muss, je nachdem.
Ich beurteile die Qualität so:
Wenn ein Clip mit den selben Einstellungen auf dem gleichen Monitor/TV in unterschiedlichen Decodern sichtbare Veränderungen hat.
Dort entscheide ich dann, welche der 2 Clips mir besser gefällt oder welches wirkliche Qualitätsverlußte aufweißt Matchig,Klötzchen,Ruckeln,Farbveränderung,
Sind beide gleich, ja dann kommt das "Bauchgefühl" weil ich mich ja für eins Entscheiden muss.
Ich bin auch der Meinung das sagen wir ca. 50-75% Qualität mit dem Inhalt gleichsetzten.
Horst Girtew,'http://www.davinci-resolve-forum.de/index.php?thread/696-ausgabe-in-davinci-studio-16-und-bearbeitung-mit-handbrake/&postID=5220#post5220' schrieb:Jemand, der Spiele live streamen will ist mit einem Hardware-Encoder besser beraten, der vergleichsweise schnell ist und das restliche System nicht belastet, weil die Systemressourcen natürlich für das eigentliche Spiel benötigt werden. Stößt man bei Recherchen auf Tests von diesem Clientel, wird man einen Hardwareencoder auf Platz 1 finden Da bin ich aber garnicht bei dir. Ich bin auch etwas in dem Bereich Aktiv. Viele viele Streamer haben 2 PC eins fürs Gaming und ein Streaming PC.
Dort ist die Software Decodierung verbreitet, ausserdem Streamt fast jeder mit OBS Studio wo die Hardwaredecodierung nicht so gut läuft.
Ausserdem brauchen heutige Spiele eher die GPU als den CPU.
Mich würde aber gerne mal ein Link dazu freuen wo deine Recherchen das Ergebnis gebracht haben. Weil der Gaming bereich wirklich sehr Riesig geworden ist.
Viele Streamer habe ihre Konfig in der Beschreibung stehen(Twitch) und da sieht man Deutlich das der Gaming PC Fette GPU´s hat, und schnelle CPU´s mit wenig Kernen und der
Streaming PC genau umgekehrt, viele Kerne und magere GPU.
Ich bin jetzt dabei im Bereich der schnellen Spiele (Shooter) das alles kommt immer auch auf das Speil drauf an, wenn ich natürlich Spiele habe die recht einfach sind, und wenig Leistung abverlangen, wäre ein zweiter Streaming PC vielleicht zuviel des guten.
Horst Girtew
Unregistered
Ok, dann will ich mal soweit zurückrudern, dass die Aufteilung der Arbeit streamender Gamer weitaus umfangreicher ist, als ich dachte, aber beim Streamen muß nunmal in Echtzeit encodiert werden, es kommt also auf die Geschwindigkeit an, wohingegen, wenn ich einen Film encodiere nicht zwingend darauf achten muß, wie lange es dauert. Ansonsten habe ich in OBS-Studio keine Probleme mit der Hardwarecodierung (in meinem Fall QuickSync). Allerdings habe ich an Streams auch geringere Qualitätsanforderungen als an Filmen.
|