Bei Amazon und anderen Versendern in den USA kann ab sofort das Display PQ321Q bestellt werden. Es kostet ohne die örtlich verschiedenen Steuern rund 3.500 US-Dollar […] Viel Konkurrenz hat Asus ohnehin nicht und daher auch wenig Grund, das Display billiger anzubieten – es ist nach Angaben des Unternehmens der erste 4K-Monitor für Endverbraucher. Die Unterscheidung zu schon erhältlichen 4K-Fernsehern liegt dabei unter anderem an der Größe des Geräts: Die Bildschirmdiagonale beträgt 31,5 Zoll […] Die Auflösung des Displays mit Igzo-Panel beträgt 3.840 x 2.160 Pixel, wodurch sich eine Punktdichte von 140 dpi ergibt.
Mal in die Runde gefragt: Ist eine solche Auflösung für das menschliche Auge überhaupt noch zu unterscheiden? Gibt es einen sichtbaren Unterschied zu 1920×1080? Der eigentliche Grund, warum ich das frage, ist, weil die GoPro (mit der wir den VLOG aufnehmen) als Aufnahme-Option auch eine Auflösung von 4K hat. Und ich frage mich: Lohnt sich das überhaupt?
Was meinen die Hardware- und Video-Experten dazu?
Quelle: Golem.de
Anzeige
Selbstverständlich gibt es einen enormen Unterschied zwischen 1920×1080 und 3840×2160 Pixeln. Eigentlich offensichtlich.
Ich weiß nicht wie gut das 4K der GoPro ist (4K sollte eigentlich 4096×2160 Pixel sein, das andere finde ich persönlich ein Schwachsinnsformat), aber dem ein oder anderen wird aufgefallen sein, dass spätestens auf einem (inzwischen immer häufiger werdenden) Display von mehr als 20″ Videos von 1920 x 1080 nie wirklich scharf aussehen, ähnlich wie wir irgendwann alle feststellten, wie mies eigentlich das BIld bei DVDs ist.
Gerade für die Aufnahme ist 4K sehr empfehlenswert, da Full HD nie die 1920×1080 INDIVIDUELLEN Pixel hält, die es verspricht. 4K ist dabei, wenn man es auf Full-HD runterrendert knackescharf, weil aus irgendeinem Grund alle Kameras lügen, indem sie Gefühlt vier nebeneinanderliegenden Pixeln die selbe Farbe zuweisen, bzw. die Schärfe einfach mangelhaft ist.
Für mich mit Cinematischen Ambitionen ist 4K einfach überwältigend reizvoll.
Aber auch für Bildschirme: Retina-ähnliche Auflösungen SIND die Zukunft. Das weiß ich mit Sicherheit. Denn schleichend sind Auflösung und Schärfe über die Jahre immer besser geworden, und dieser Trend wird nicht verebben. Zudem wollen wir alle ein natürliches Bild sehen, und ich weiß nicht, wie es euch geht: Ich kann auf nicht-Retina-Displays immer noch Pixel zählen. Das wird schon recht bald der Vergangenheit angehören – ganz einfach weil die Katze aus dem Sack ist: Die Technik, sie ist besser, sie wird sich durchsetzen. 🙂
Moin Steve,
momentan wird sich das noch kaum lohnen, da eh noch niemand einen 4K Monitor/TV hat auf dem er deine Videos in entsprechender Qualität abspielen könnte. Und auch wenn du bereit wärst dahingehend etwas zu investieren so sind die ersten Geräte die nun auf den Markt kommen trotzdem noch zu teuer.
Es tut sich aber einiges am Markt (immer mehr Großevents werden in 4K aufgenommen, Übertragung von Ultra HD-Inhalten via Satellit werden getestet, mehr Fernseher, Monitore, Receiver werden vorgestellt usw. usf…).
Ich denke es dauert noch bis kommendes Jahr bis die Nutzerzahlen so langsam in Bereiche kommen bei denen man darüber nachdenken kann es mal mit anzubieten. Vermutlich eher bis 2015/2016 bis dass Ganze dann wirklich größer wird.
Wen das Thema interessiert der darf gern ab und zu bei uns auf http://www.ultra-hdtv.net vorbei schauen 🙂
lg
Von der Tendenz hast Du recht, aber auch schon jetzt macht in meinen Augen 4K Sinn: Youtube bietet teils 4K-Videos an, und viele Leute schaffen sich Displays ≥22″ an – die zwangsläufig mehr als Full-HD-Auflösung anbieten. Wer dann gerne Full Screen schaut, wird den Unterschied sehen, denn Full HD wie es die GoPro aufnimmt ist noch keinesfalls echte 1920×1080 Pixel (Du könntest keine 960 Linienpaare darauf abbilden, dafür ist die tatsächliche Qualität jeder mir bekannten Full-HD zu „schlecht“ – es fehlt immer an Detailreichtum und Schärfe). Durch das herunterrechnen von 4K auf Full HD kann diese erreicht werden, zumal ich generell finde: Geben wir diesem grandiosen neuen Format eine Chance, und sein wir mit Pioniere, denn ich liebe hohe Qualität! 😀
Halleluja endlich kommt mal was neues.
4K, oder nicht 4K….
Frag doch mal die „Retina“ – Jünger von Apple
auf dem bild von dem neuen 4k-bildschirm kann man schon ganz gut erkennen, dass die grafik wesentlich besser ist als auf meinem „normalen“ full-hd screen. der bereich ist einfach wesentlich schärfer als der umliegende rest vom bild.
wenns rauskommt werd ichs mir aufjedenfall zulegen. kommt natürlich aber auch etwas auf den preis an.
hahaha der war gut, wie soll dein monitor etwas schärferes darstellen, als er darstellen kann?
Gabs da nicht mal so ne total geniale Werbung?
(Sinngemäß) „Jaaa, auf unserem tollen neuen Bildschirm von XY sieht das gelb viel satter aus, sehen Sie hier, moah und alles so gestochen scharf…! Ups! Das können SIE auf ihrem alten Bildschirm aber natürlich leider nicht sehen… sorry.“
Die fand ich super 😀 (mir fällt nur grad nicht der Name ein….)
Not sure if… 😀
Es geht ja bei diesen Bildschirmen mit Auflösungen jenseits der 1080P nicht nur darum Videomaterial oder Spiele darzustellen. Der Vorteil einer hohen Pixeldichte ist ein gestochen scharfes Bild auch wenn man nah am Bildschirm dran sitzt. Das hat vorallem Vorteile bei der Schriftdarstellung und bei Bildern die nicht unbedingt den ganzen Bildschirm ausfüllen müssen damit man noch die feinen Details erkennen kann. Ganz gut hat man diesen Unterschied zwischen den normalen und diesen Retina Displays gesehen, als das iPhone 4 rauskam. Das iPhone 3 hatte noch eine Auflösung von 480 × 320 Pixel mit einer Pixeldichte von 163 ppi (Pixel per Inch) Das iPhone 4 hingegen schon eine von 960 × 640 Pixel und ein Pixeldichte von 326 ppi. Die Schrift war schon viel schärfer und man konnte einfach viel mehr Details sehen auf dem kleinen Display.
Der Asus Monitor hat aber nur eine Pixeldichte von 140ppi was noch nicht ganz in die Kategorie „Retina“ fällt. Ist halt schwer abzuschätzen ob sich ein solcher Monitor als PC Bildschirm auf dem Schreibtisch lohnt… wenn die Preise ein wenig runter kommen und die Pixeldichte noch ein wenig steigt könnte es durchaus interessant werden. Momentan würde ich mir sowas aber noch nicht holen. Ich warte also noch auf einen 27 Zoll Bildschirm mit ner Pixeldichte von ca. 230ppi.. 🙂
Die Pixeldichte bleibt immer gleich im Verhältniss zur Größe, da kannst du solange warten wie du willst. Ein 31,5 Zoll Bildschirm hat bei 4k Auflösung eben immer um die 140ppi (je nachdem wie genau der Hersteller es mit den Zoll nimmt). 27 zoll bei 4k Auflösung sind dann etwa 163ppi mehr wirst du nicht kriegen. 230ppi wären wohl so um die 6k Auflösung, und da gibts glaub ich noch nichtmal nen Standard für
Ist wahr. Ich bin absolut sicher, dass der Trend sich auch auf unsere Arbeitsplatz-BIldschirme ausweiten wird – besonders am iPad fand ich es extrem. Der Sprung hat sich gelohnt, Technologie ist am Anfang immer teuer, aber der, der den Schritt wagt, gewinnt. Apple steht natürlich wie immer vorne bis alle anderen zufällig ganz eigenständig genau dasselbe erfunden haben.
@laziness: Das ist natürlich Quatsch. Besonders bei Laptop (wenn man nicht gerade immer dem billigsten hinterhechtet) konnten wir in den letzten Jahren deutliche Erhöhungen der Auflösung feststellen. Angefangen haben wir bei 72dpi (von mir aus auch ppi), erinnere ich noch gut. AUfgrund der höheren Distanz zu großen Bildschirmen werden die in Puncto Dichte immer hinter Smartphones liegen, aber beides wird noch zulegen. Die meisten Arbeitsplatz-Displays sind noch nicht sooo dolle, wenn ich mal von in fünf Jahren aus zurückblicke… da wird man schon bald drüber lachen… „ach, das ist noch so ein ganz alter Bildschirm, so einer, wo man noch fast Pixel zählen kann…“
Um es kurtz zu machen, Ja man sieht das, zumindest ich sehe den Unterschied… Zur vergleich habe ich zwei 1920 x1080 Bildschirme.
Einen mit 27″ und einen mit 24″.
Für jemanden mit guten Augen ist dort schon ein unterschied zu erkennen, jedoch ist dieser Sehr klein und wenn die Qualität des Bildes hoch ist gibt es für mich kaum einen Unterschied. Ist die Qualität mittel so sieht man schon eher die Pixel.
Zu dem 4k Monitor, ich glaube das gibt ein echt geiles Zockererlebnis, zumal man mehr Überblick hat. Ich selbst bin ein totaler ASUS Fan in sachen Bildschirmen, da diese meiner meinung nach eine sehr gute Qualität haben. Zum kauf, lieber warten bis der in der Preisklasse 500-1000€ angekommen ist, die anderen sich auch sehr gut und jedes neue Spiel schaut auf 1920×1080 in seinen Maximaleinstellungen verdammt gut aus (kommt auf das Spiel an…)
MfG
Felix
Ob die Auflösung fürs menschliche Auge zu unterscheiden ist, liegt daran wie weit man weg sitzt. Für viele ist FullHD (1920×1080) bei 27″ zu wenig, denn die Schrift wirkt dann pixelig. Also muss mit der Größe des Bildschirms auch die Auflösung wachsen.
Aber für die meisten ist 27″ schon viel zu groß, weil man einfach den Überblick verliert. Stell dir Starcraft 2 vor: Man kämpft und muss ab und zu auf die Minimap schauen um andere Angriffe zu entdecken. Da der Bildschirm so groß ist braucht man viel zu lange um darauf einen Blick zu werfen.
Dann braucht man auch noch einen verdammt guten Computer, der es schafft Spiele in solchen Dimensionen flüssig da zu stellen.
Für Filme lohnt es sich auch nur bedingt, da nur wenige Kinofilme in 4K erscheinen und dann nicht im Format 16:9 sondern 21:9 (7:3), wodurch man dann die schwarzen Balken hat.
Noch ist es viel zu früh sich einen solchen Bildschirm als Privatanwender zu holen. In der Chip 07-2013 war eine interessante Timeline die die Entwicklung der TV Auflösung zeigt. http://img805.imageshack.us/img805/4935/x455.jpg
Für 3D Designer, Videoschnitt usw. ist der Bildschirm natürlich verlockend, denn mann kann Vier HD Bilder gleichzeitig betrachten.
Viele haben geschrieben das 4k doppel so viele Pixel bietet, tatsächlich sind es aber vier mal so viele!
Eine höhere Aufnahme mit der GoPro lohnt sich nur, wenn die FPS Zahl bei 30FPS oder höher liegt und du keine Slowmotion machen willst. Dann kannst du den überstehenden Rand aber sehr gut nutzen um nochmals einen Bildstabilisator drüber laufen zu lassen.
glaube ich nicht dass das die zukunft ist.
größere monitore bedeuten ja – ab einer gewissen größe – auch immer, dass man sich weiter weg setzen muss. zum einen ist fraglich ob man das am PC denn möchte, zum anderen wird dann widerrum auch die auflösung vernachlässigbarer, da ich bei 3m abstand zum monitor gar keine extreme pixeldichte mehr wahrnehme.
mit den handys wars früher ja auch so: je kleiner desto besser.
bei den smartphones heute: je größer (display), desto besser.
und die wahrheit liegt wohl irgendwo dazwischen.
und genauso ist es bei den monitoren wohl auch. groß ist nicht automatisch besser.
da finde ich das hier deutlich „revolutionärer“: http://www.youtube.com/watch?v=6wWD3kxV1og
und es wird ja auch zunehmend an verformbaren displays gearbeitet. sowas würde ich super gerne mal sehen.
sorry der link hier ist besser: http://www.youtube.com/watch?v=23clSiVsr70
es kommt nicht auf die anzahl der pixel an, sondern auf die dpi, un die ist nicht mal halb so hoch wie beim retina display…
Ich sag nur 3D-Fernseher! Die Firmen brauchen halt immer was neues um den Idioten das Geld aus der Tasche zu ziehen…
Das menschliche Auge hat theoretisch 200Megapixel, wieviel davon effektiv genau genutzt werden, ist nicht so richtig klar.
Aber 4k reizt das Auge noch nicht aus.
Bilder und Videos in 4k sehen halt einfach besser aus, auch wenn man keinen direkten Unterschied sieht. Grundsätzlich sieht alles in seiner nativen Auflösung am besten aus, wenn Filme in 4k gedreht werden, sollte man diese auch in 4k gucken.
4K Trailer („Orginal“ wählen):http://www.youtube.com/watch?v=4oosWWAVeBg
Bei Spielen bringt es Vorteile, da man keine Kantenglättung braucht, damit es gut aussieht. Die Höhere Auflösung sollte weniger Leistung fressen als AA, ich hab aber selbst noch keine Tests dazu gelesen.
Kleiner Tipp: Es gibt 21:9 Monitore, die sind recht interessant was Spielgefühl und Arbeitsfläsche angeht.
http://www.golem.de/news/u3014-und-u2913wm-dells-ultrasharp-monitore-mit-30-zoll-und-im-kinoformat-1302-97547.html
Auf die nächsten 10 Jahre gesehen wird es sicherlich Marktreif werden, bis dato aber wohl nur für Enthusiasten und Filmtechniker. Sichtbar ist der Unterschied auf jedenfall, kommt bei PC spielen aber auch mit enorm hohen Anforderungen daher. Vergleichbare Effekte sind auch heute schon kostenlos anzutesten, Stichwort hierbei ist Downsampling.
Wie oben bereits erwähnt hat es zB. beim Filmschnitt eine Menge Vorteile, durch die schiere rohe Datengröße aber eben auch noch viele Nachteile. Ich persönlich brauch es (noch) nicht, aber ich kann verstehen warum manch einer es brauchen würde.
Ich habe deletzt ein 55″ 4K TV von Samsung mit 4K Bild Material gesehen. Das teil war der Wahnsinn! Per preis von 35000 Euro auch aber hey ;D
Ich denke das es momentan noch nicht viel bringt, aber man sieht ja auch an den Retina Macbooks das es was bringt und die Zukinft sich sicherlich genau dahin bewegt. Auch die Ps4 wird 4K Filme unterstüzten und sobald die Filme kommen wird sich auch die Hardware etablieren.
Für’s Aufnehmen lohnt es sich auf jeden Fall – dadurch erreichst Du wesentlich mehr Flexibilität, Du kannst später beim Schnitt bspw. digital in das Bild reinzoomen, ohne dass die Qualität des 1080p-Endproduktes maßgeblich darunter leiden würde. Der optische Zoom ist zwar qualitativ immer die bessere Lösung, aber wenn Du während der Aufnahme optisch gezoomt hast, kriegst Du das beim Schnitt nicht mehr raus.
Außerdem kann man so beim Schneiden verlustlos einen Bildausschnitt wählen, bspw. wenn am Rand das Bildes etwas zu sehen ist, was man nicht draufhaben will (bspw. eine Hand o.Ä.).
P.S.: 4K lohnt sich bei der GoPro natürlich nicht, wenn man das Video später in 1-facher Geschwindigkeit abspielen möchte, da 12fps zu wenig sind. Im Falle der GoPro ist der 2,7k-Modus zu empfehlen, der dann auch mit 30fps läuft und dennoch schon ein paar Pixel mehr bietet.
Will man die Abspielgeschwindigkeit später verlangsamen (bspw. wenn man eine Szene in Zeitlupe abspielen möchte), sollte natürlich wieder eine niedrigere Auflösung mit höherer fps-Zahl gewählt werden (bspw. 1080p mit 60fps würde einem das Abspielen mit etwa 0,5-facher Geschwindigkeit erlauben).
Wenn man den Durchschnitt von 2 Bogenminuten als Auflösung fürs menschliche Auge annimmt, müsste man bei dem 31,5″ 4K Display (oder allgemein bei 140 dpi) bis auf ca. 31 cm ran, um einen Pixel zu sehen. Zum Vergleich: beim 31,5″ 1080p wären es knapp 60 cm. Ich persönliche sitze ein gutes Stück weiter weg bei solchen Bildschirmgrößen. Meiner Meinung nach taugt das wenn überhaupt nur für besonders große Bildschirme (wo die Anzahl der Pixel ins Gewicht fällt) oder für besonders kleine (wo die Anzahl der Pixel eben von der fertigungstechnischen Grenze abhängt, kleiner -> mehr Pixel)
Also prinzipiell ist es so, dass das menschliche Auge ab einer Auflösung von ca. 300 dpi keine Bildpunkte mehr erkennen kann. Da sich dieser Wert indirekt proportional verhält, sind Schwankungen zwischen 140 und 300 dpi weniger merkbar als von 110 (Standard Monitore) auf 140. Wenn du dich dafür weiter interessieren solltest, krame ich die dazu passende wissenschaftliche Arbeit raus.
Was die Videoqualität angeht, kommt es bei 4k meiner Meinung nach zu sehr zu Drops was fps angeht. So kann es manchmal vorkommen, dass 1080p 60fps um vieles besser aussieht als 2160p bei niedrigeren fps Bereichen (analog dazu auch 720p 60 fps und 1080p mit 30 fps). Solang du also nicht nur die neuesten BluRay Veröffentlichungen auf einem Bildschirm anschauen willst, wirst du eventuell ein bisschen enttäuscht sein.
Falls du die Möglichkeit hast, einmal mit so einem Monitor zu arbeiten um eigene Projekte zu erschaffen, nutz‘ sie. Aber das Geld wird es (noch) nicht wert sein. Erst wenn die erstliche Hardware aufschließen kann, um mehr Material in den angepeilten Formaten zu erzeugen, werden diese Monitore sicher auch preiswerter und irgendwann zum Industriestandard
4K Auflösung lohnt sich zurzeit NOCH nicht egal in welchen Bellangen, Unterschiede erkennt man, soviel ist klar ,denke solche „Spielerein“ Machen heute nur in Foto/Video Bearbeitung wirklich sinn. und ich rede jetzt nicht von Hobby Zeugs sondern richtig große Firmen usw. Selbst in sachen Gaming ist es noch nicht möglich 4k Aufzulösen den selbst eine Titan kommt bei BF3 an ihre Grenzen. Glaube mich erinnern zu können das sie dort „gerademal“ 20 FPS schafte. Wie gesagt noch ist 4k nicht zu Gebrauchen in 2-3 Jahren wird es sicherlich einschlagen wie eine Bombe oder einfach nur Abtretten zumal es ja noch nicht alzulange her ist das wir HD haben. Und wen man mal Bedenkt das wir erst seid 2005 HDTV haben denke ich das für 4k noch einige zeit ins land geht. Aber interessante Thema =) und Technik solte man nie aufhalten ich Freu mich drauf.
grüss dich delthyr.
ja das BF3 video in 4k habe ich auch gesehn bzw den test.
es waren 26 fps bei allen maximalen filtern und settings was man aktuell bei den neuen karten einstellen kann.
warum 26 FPS im grunde reichen ? bis jetzt ist in 90% der kinos 24 fps standart. ert dieses ganz neue system gibt 42 fps wieder.
wo filme nicht mehr von der rolle sondern von der festplatte wiedergegeben werden.
desweiteren habe ich hier in einigen kommentaren gelesen… ich zitire “ 4k hat doppelt so hohe auflösung.
bitte seit sogut und benutzt erstmal einen taschen rechner.
es ist nicht 2x so hoch sondern 4x !!
http://www.pcgameshardware.de/Battlefield-3-PC-221396/Tests/Battlefield-3-4K-Monitor-in-4096-x-2160-1043410/
das problem nr.2 ist aktuell das über den HDMI maximal eine frame rate von 30 fps erreicht werden kann. egal ob eine oder 4 grakas der teuersten generation.
http://www.heise.de/ct/artikel/Mehr-Pixel-mehr-Probleme-1789731.html
um die klugscheisserei bzw richtigstellung zu beenden , ich war gestern noch im saturn wo sie diesen irrwitzigen 4k fernseher anbieten…. und ich muss sagen das bei einigen 4k videos ich fast kotzen musste weil es einfach zu extrem war. beispiel : auto verfolgungen canion flüge mit hubschraubern etc. das war trotz brille und +2,75 diop einfach zuviel im gegensatz zu hdmi. auch die tatsache das das ding fast 2 meter durchmesser hatte.
fazit.
motion sikness + grosser 4k screen = nichts essen.
Ich melde mich mal als Jemand der das Beruflich macht.
4k funktioniert heute noch nicht. Zu glauben man könne das hochauflösende Material einfach zu „kleinem“ HD runter skalieren ist ein Trugschluss. Das Material sieht danach vollkommen anders aus als das Originale und ist deshalb mit diesem auch nicht mehr zu kombinieren. Das liegt einerseits an der unnatürlichen Schärfe die daraus entsteht und die zu unschönen Kanten sowie Aliasing führt und an der danach kaum noch vorhandenen Bewegungsunschärfe. Der Fall, dass man mal einen Ausschnitt wählen möchte kommt hingegen so gut wie überhaupt nicht vor. Kameramänner sind extra dafür ausgebildet den korrekten Ausschnitt zu wählen. Die ziehen jetzt nicht einfach immer ein Stück weiter auf, weil sie in einer anderen Auflösung filmen. Dazu kommt, dass ich im Fernsehn etwa alle drei Sekunden schneide. Wenn ich 90 Minuten schneide müsste ich extrem viele Ausschnitte wählen. Das ist zeitlich einfach nicht drin.
Am Ende bleibt auch noch die Kamera an sich. Die GoPro macht 4k nur noch in 15 Bildern pro Sekunde. Das ist einfach zu wenig und entspricht keinem aktuellen TV- oder Kino-Standard. Deswegen lässt sich das Material eh schonmal schlecht verwenden und aus eigenem Empfinden (besitze selber eine GoPro 3) kann ich sagen, dass die Auflösung für diesen winzigen Chip und die verwendete Kompression viel zu hoch ist. Man sieht wirklich einen deutlichen Qualitätsunterschied zum HD-Material.
4K (3840 × 2160 Pixel) ist quasi die Grenze zu minimal sichtbare Verbesserung und nicht mehr sichtbare Verbesserung, hier kommt es auf den Abstand und das allgemeine Sehvermögen an.
Alles was demnach über 3840 × 2160 Pixel liegt, da kann das menschliche Augen (selbst bei gutem Sehvermögen) nicht mehr Unterscheiden.
Weitere Nachteile: Hoher Stromverbrauch, und keine Sendung/Blue Ray’s strahlt derzeit in 4K Auflösung aus und höchstwahrscheinlich auch nicht in den nächsten Monaten/Jahren.
Fazit: wer gutes Sehvermögen hat und ausreichend Abstand zum Fernseher/Monitor einhält selbst für den lohnt sich (NOCH) nicht eine Anschaffung.
wenn du aussage kräftige und sachliche kommentare / aufklärung möchtest , geh mal auf die homepage der PCGH .
die haben einige displays getestet.
laut PCGH ist der unterschied zwischen HD und 4k so wie damals VHS zur DVD.
@ miguel es sind nicht doppelt sondern 4 mal soviele bildpunkte.
Ich glaub das kommt hauptsächlich auf die Größe des Bildschirms an, ob sich das lohnt. Mein Computerbildschirm hat 2560*1600 bei 30″, da lohnt sich die hohe Auflösung find ich schon, da man viel mehr Platz auf dem Desktop hat. Bei 1600p ist die Größe der Fenster etc. noch ok und alles gut zu erkennen. Bei 2160p kann ich mir vorstellen, dass alles ziemlich klein ist.
Nur der GoPro wegen? Definitiv nein! Außerdem läuft der 4K modus der GoPro nur mit 12,5fps…
Ein Unterschied zu 1080p. Hier kommt es auf die größe an. Bei 31″ denke ich das der Unterschied nur sehr sehr gering ausfallen wird. Bei 55″ aufwärts sieht die Sache dann schon ganz anders aus!
Ich will mir nicht wegen der GoPro den Monitor kaufen, ich frage mich nur, ob es sich lohnt, in 4K aufzunehmen…
Nein. Nur wenn du im Nachhinein ein ausschnitt wählen möchtest. Außerdem ist die Sache mit den 12,5fps… um ein ruckelfreies Bild zubekommen müsstest du die Geschwindigkeit auf 200% drehen. Und da im Endeffekt eh quasi alles als 1080p rausgeht…
Ich vermute mal, dass es wenig bringt: Die meisten HD Videos sind in 1080p und nur, weil man jetzt doppelt so viele Bildpunkte hat, bedeutet das ja nicht unbedingt, dass die Bildqualität verbessert wird.
Ähnliche Geschichte wie mit den Megapixel-Kameras in Smartfones: Da kann ein Bild 5 Megapixel haben aber trotzdem über eine doofe Qualität verfügen, wenn die Belichtung nicht ausreichend war oder das Bild verwackelt ist.
Hier kommt es ganz auf die Quelle an. Wenn diese auch 4K bietet gibt eine doppelt so hohe Anzahl an Pixeln natürlich eine bessere Qualität! Leider ist das auch das Problem. 4K Quellmaterial gibt es noch fast überhaupt nicht.
Das liegt dann am Sensor der Kamera… deswegen sind ja Handykameras auch noch unterlegen, weil der Sensor so klein sein muss