HIFI-FORUM » Fernseher & Beamer » LCD-Fernseher » Sony » Der Sony Bravia Input-Lag Diskussionsthread | |
|
Der Sony Bravia Input-Lag Diskussionsthread+A -A |
||||||||||||||||
Autor |
| |||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1101 erstellt: 12. Mai 2010, 14:42 | |||||||||||||||
Naja, Gammaabweichungen sind im Vergleich zu anderen (Schwarzwert, Farbtemperatur o.ä) ja vergleichsweise subtil - laut Review soll es angeblich recht schwer sein, beim S20 den Unterschied festzustellen, sofern man kein Referenzdisplay daneben stehen hat. Perfekt ist es aber nicht, da hast du schon recht. Hast du denn beim S10 eine Methode gefunden, das besser einzustellen? Du meintest doch mal, dass das Gamma da eher gen 1.0 als 2,2 tendiert, wenn ich mich da jetzt nicht völlig falsch erinnere... Aber "grünstichig" ist der S20 eigtl nicht - eventuelle Farbstiche kann man ja mittels Greyscale ganz gut eliminieren, bei einem kalibrierten S20 ist insofern nirgendwo Grün, wo keins sein soll. im Truecinema soll Grün lediglich ein wenig übersaturiert und etwas zu hell sein - da gehe ich aber jede Wette ein, dass das in einem Blindtest kein Schwein bemerkt, mit Ausnahme vielleicht von Leuten, die sich in ihrem Beruf ständig mit feinsten Farbnuancen auseinandersetzen müssen. Wenn man bedenkt, dass Grün bei einigen HDTVs wesentlich stärker übersaturiert ist und in Richtung blau driftet, kann man da für einen Budget-Plasma imo definitiv nicht meckern, was die Farbperformance angeht.
Soll nicht bei den 20er Pana-Modellen ein anderer Phosphor mit signifikant niedrigerem PL verwendet worden sein, da es ansonsten mit dem 3D-Fernsehen Probleme geben würde? Oder betrifft das nur die V-Reihe oder war gar reines Marketing-Blabla?
Der Scaler arbeitet gut, der Deinterlacer bei Videomaterial (im Prinzip alles außer Kinofilme) auch soweit, was das beseitigen von Treppchen etc. betrifft. Allerdings hat dieser TV das Problem, dass er einiges an Auflösung verliert, wenn er von 576i auf 576p deinterlacen muss, woraus dann der Scaler auch nicht mehr soviel rausholen kann - somit geht bei SD einiges an Details und Schärfe verloren.
Ja.
Das, was möglichst nahe an 2,2 sein soll, ist der Gammawert (= die Kurve, in der die Helligkeit von ganz dunkel bis ganz hell ansteigt), das hat mit den Kadenzen im Filmmode-Deinterlacing nix zu tun. Das Thema Deinterlacing, v.a. das von Kinomaterial (das ist mit Filmmode im Gegensatz zu Videomode gemeint), ist eine Wissenschaft für sich. Vereinfacht ausgedrückt geht es darum, dass der Deinterlacer grundsätzlich nicht einfach nur stur aus 2 Halbbildern ein Vollbild zusammenweben kann, sondern erstmal herausfinden muss, was er vor sich hat. Videomaterial (das schon interlaced aufgenommen wurde) muss ganz anders deinterlaced werden als Kinomaterial, bei dem 24 Vollbilder mittels unterschiedlicher Verfahren an die PAL(50Hz)- oder NTSC(60Hz)-Fernsehnorm angepasst wurden. Während bei PAL in aller Regel der sogenannte "PAL-Speedup" zum Einsatz kommt (es wird einfach auf 25 Vollbilder pro Sekunde beschleunigt), ist es bei NTSC logischerweise deutlich komplizierter. Wenn dich das alles genauer interessiert, ist der Wikipedia-Artikel zum Deeinterlacing ein guter Einstieg ins Thema, und auch der zum PAL-Speedup und 3:2-Pulldown. Mit "Kadenz" ist in diesem Zusammenhang die Bildfolge gemeint, die der Deinterlacer erkennen muss. Der Vergleich zum Z4500 ist da übrigens ziemlich einfach - beide fallen beim Filmmode-Deinterlacing glatt durch, da deren Deinterlacer keine (oder zumindest keine einigermaßen funktionierende) Kadenzerkennung haben. Wenn man bedenkt, dass diese einen gewissen Lag verursachen müsste, wie Fudoh weiter oben erklärte, ist das für uns Gamer aber nur von Vorteil... mit gutem Player/AVR/HDTV-Reciever lässt sich das ganze Problem ja prima umgehen.
"Trails", nicht "Tails" - es sind ja keine Phosphor-Schwänze... Ist nur eine andere Bezeichnung für den Phosphor-Lag - da habe ich dir in einem Post weiter oben schonmal was dazu geschrieben.
Ist eine Modellvariante - was genau die Unterschiede sind (ob nur Design oder auch Technik) weiß ich allerdings auch nicht.
Grob gesagt gilt bei den Panasonics folgendes: S = Einstiegsklasse, G = Mittelklasse, V = Oberklasse Die 10er Modelle sind die vom Vorjahr, die 20er die aktuellen. Allerdings sind die höheren Klassen nicht automatisch in allen Belangen besser als die niedrigeren (v.a. beim Input-Lag) und manche Einstellmöglichkeiten (z.B. Greyscale) sind bei den S-Modellen lediglich ins Service-Menü gewandert (wo man sie mit entsprechender Ahnung immer noch nutzen kann)... aber was das betrifft, ist unser Marc hier der Fachmann, der dir sicher entsprechende Threads im Panasonic-Plasma-Bereich dieses Forums empfehlen kann. Dort würdest du bei weiteren Plasma-spezifischen Fragen auch sicher mehr Antworten bekommen als hier... |
||||||||||||||||
MarcWessels
Inventar |
#1102 erstellt: 12. Mai 2010, 15:11 | |||||||||||||||
Beim S10, der ja Gamma 1.89 hatte, konnte man durch das freischaltbare erw. Menu auf einen Gammaverlauf kommen, der sich won 2.22 zu 2.30 bewegte und im Schnitt auf 2.25 kam, daher würde ich einem S10 immer den Vorzug gegenüber einem S20 geben. Und ich finde übrigens, dass der Grauschleier viel mehr ins Auge sticht als ein ungenauer Farbraum. |
||||||||||||||||
|
||||||||||||||||
Hardrock82
Inventar |
#1103 erstellt: 13. Mai 2010, 10:13 | |||||||||||||||
@ MarcWessels mysqueedlyspoochhurts meint du kennst dich doch mit Plasmas aus? Kannste mir sagen ob sich der Kauf vom TX-P42G10E lohnen tut oder sollte man eher den S10 nehmen. Die G/S20 Serie würde ich als Zocker nur ungerne nehmen,da es ja da etwas höhere Inputlag Zeiten gibt,als bei den älteren Modelen,ausserdem kriegt man bei Idealo den G10 schon für 845€. Interresant für mich wäre das Bild im SD / HD (bsp: PS3) Modus und ob der grün/blaustich normalen Usern die auf sowas nicht so achten auffällt und ob man sowas per Farbeinstellung "normal" in den Griff kriegen würde. Bzw.fallen einem die Phosphor Trails dolle beim Zocken auf'm Plasma auf? Bei weiteren Fragen dazu könnteste mir da eine Plasma Threat Seite nennen wo du auch öffters vielleicht bist? [Beitrag von Hardrock82 am 13. Mai 2010, 10:14 bearbeitet] |
||||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1104 erstellt: 13. Mai 2010, 13:49 | |||||||||||||||
Die Jungs von HDTVtest haben ihn aber im TrueCinemamode kalibriert - möglicherweise muss man beim S20 für jeden Modus einzeln kalibrieren. |
||||||||||||||||
MarcWessels
Inventar |
#1105 erstellt: 13. Mai 2010, 16:25 | |||||||||||||||
Ok, habe mich hier auf die s20-Besitzer mit Messgerät im Forum verlassen,a ber vielelicht haben die etwas übersehen. In dem Punkt hatte ich also Unrecht. |
||||||||||||||||
RaveL
Ist häufiger hier |
#1106 erstellt: 13. Mai 2010, 22:08 | |||||||||||||||
Hallo Ich habe mich jetzt durch einige Seiten gekämpft und bin mittlerweile zu dem entschluss gekommen mir den Z4500 zu kaufen. Hauptsächlich will ich mit meiner 360 zocken und BD schauen weshalb ich noch einige Fragen habe die ich hier mal loswerden möchte: 1. Gibt es einen input lag und Bildquali Unterschied zwischen einen zb 42 oder 52 Zoll panels sowohl im game mode als auch mit MF? Habe mal was von LED Beleuchtung und local dimming gehört. 2. Bei uns im Mediamarkt gibt es den 52Z4500 aktuelle für 1699 euro (ich denke am Preis kann ich noch was drehen). Denkt ihr der Preis ist okay oder wird der in absehbarer Zeit nochmal viel billiger oder verschwindet er vllt sogar aus den Regalen sodass die letzten seiner Art nochmal im preis steigen? Aufgrund der 0% Finanzierung würde ich gerne bei MM kaufen. 3. Denkt ihr das es sich lohnt jetzt zu kaufen oder wird es schon bald insachen lag bessere Modelle geben? 4. Stimmt es das Plasmas in vergleich zum LCD insachen input lag die Nase vorn haben? 5. Gibt es einen anderen LCD der nicht von Sony ist aber einen geringeren lag hat? Hoffe das sind nicht zuviele Fragen auf einmal |
||||||||||||||||
Lostprophet85
Stammgast |
#1107 erstellt: 13. Mai 2010, 23:56 | |||||||||||||||
Guten Morgen RaveL, hier mal ein paar kurze Antworten: 1. Zwischen verschiedenen Panelgrößen desselben Modells sollte es keine Unterschiede geben bezüglich Inputlag, die Elektronik bleibt ja die selbe. LED-Backlight mit Local Dimming findest du allerdings nur beim 46X4500 und 55X4500 (zumindest bei Sony). Falls du noch einen 46X4500 findest (müsste etwa preislich mit dem 52Z4500 gleich sein), würde ich den allerdings bevorzugen. Die 30ms Lag sind für die meisten zu verkraften und das Local Dimming ermöglicht fantastische Kontrast- und Schwarzwerte. 2. Solche Prognosen sind schwierig, aber den Preis finde ich (vorausgesetzt man kann nochmal ein Bisschen was dran machen) schon in Ordnung, ich habe vor etwas über einem Jahr noch fast 1500€ für den 40Z4500 bezahlt. 3. Die Tendenz in Sachen Inputlag sieht meiner Meinung nach eher düster aus, die 2009er Modelle waren eine Katastrophe, die 2010er sind nicht wirklich besser (da ebenfalls Bravia Engine 3). Ich persönlich denke auch nicht, dass die Bravia Engine 4 (wenn sie denn mal kommt) wieder so lagarm sein wird wie die BE2, ich würde also durchaus jetzt kaufen. Der Trend zu höherem Inputlag ist übrigens momentan bei so ziemlich allen TV-Herstellern zu beobachten. 4. Es gibt zwar auch Ausnahmen, aber sehr oft stimmt das, ja. 5. Mir fällt keiner ein, den ich empfehlen könnte. Wie gesagt, aktuelle Modelle haben zumeist einen sehr hohen Lag, und die wenigsten LCDs können (mal abgesehen vom Lag) in den anderen Belangen mit Sony und Samsung mithalten. Vielleicht hat ja jemand anders hier noch einen Tipp für dich. MfG Lostprophet |
||||||||||||||||
RaveL
Ist häufiger hier |
#1108 erstellt: 14. Mai 2010, 01:23 | |||||||||||||||
Danke für deine Antwort zu 1: Leider fehlt mir hier das Wissen deswegen muss ich nochmal fragen. Besitzen die z4500 Modelle generell kein LED-Backlight mit local dimming oder nur die 46er u. 52er nicht? Die 30ms sind für mich leider nicht zu verkraften da ich oft online shooter spiele. Ich habe mich auch eigentlich schon so gut wie entschieden einen z4500 zu kaufen jedoch war ich mir bei der größe nicht sicher weil ich dachte es gibt noch unterschiede( z.b. 42er besitzt led backlight oder nicht). Inwiefern macht LED-Backlight mit local dimming denn bemerkbar? Der Z4500 hat doch eigentlich super bewertungen bekommen und ich denke der bessere input lag ist für mich eher nen Kaufgrund sofern der Unterschied jetzt nicht Welten aus macht. (sry falls das zu sehr offtopic ist) zu 2: Würde ich dann nen vergleichbar guten Plasma finden der nen geringeren input lag als nen z4500 hat? Ich habe immer gehört und gedacht LCD wäre zum spielen besser. |
||||||||||||||||
Lostprophet85
Stammgast |
#1109 erstellt: 14. Mai 2010, 06:33 | |||||||||||||||
Hi nochmal zu 1. Der Z4500 ist ein herkömmlicher CCFL-LCD, egal in welcher Größe. Das heißt, dass er als Hintergrundbeleuchtung normale Leuchtstoffröhren verwendet, die nur vollflächig, nicht jedoch partiell gedimmt werden können. Ein LCD mit LED-Backlight und Local Dimming (wie die beiden großen Varianten des X4500) hingegen hat mehrere tausend LEDs hinter dem Panel verteilt als Lichtquelle und ist in der Lage, jede einzeln zu dimmen in Abhängigkeit von der Bildhelligkeit. Also wenn du z.B. einen schwarzen Nachthimmel mit einem Vollmond anzeigen lässt, sind die LEDs hinter dem Mond an, die LEDs hinter dem schwarzen Himmel sind allerdings gedimmt oder sogar fast aus, was ein sehr gutes Schwarz und enorme Kontraste mit sich bringt. Ein CCFL-LCD (wie der Z4500) müsste entweder die gesamte Hintergrundhelligkeit soweit anheben, dass der Vollmond schön hell leuchtet (dann würde allerdings der Nachthimmel grau anstatt schwarz werden), oder er regelt die Hintergrundbeleuchtung insgesamt herunter, sodass das Schwarz überzeugend aussieht, jedoch wirkt dann der Mond evtl. zu dunkel und matt. Das hört sich in dem Beispiel jetzt extremer an als es ist, da der Z4500 dennoch einen sehr guten Schwarz- und Kontrastwert hat, aber LED-TVs mit Local Dimming können das eben noch deutlich besser und mit einem CCFL-LCD ist es immer eine Gratwanderung. zu 2. Ich bin kein Plasma-Experte, aber einen TV zu finden, der die fast perfekten 0-10ms Lag des Z4500 erreicht oder sogar übertrifft, dürfte schwer bis unmöglich sein. In Sachen Inputlag bilden die 2008er Sonys (W4000, W4500, Z4500) die absolute Speerspitze meines Wissens, 0-10ms sind nunmal fast genauso schnell wie eine Röhre. Wenn du also tatsächlich derart empfindlich in Bezug auf den Inputlag bist, ist der Z4500 tatsächlich eine sehr gute Wahl. MfG Lostprophet |
||||||||||||||||
Hardrock82
Inventar |
#1110 erstellt: 14. Mai 2010, 08:53 | |||||||||||||||
@ Ravel Zu 2. hab mir mal die Mühe gemacht und mal die Preise vom Z4500 bei Idealo.de,zu den Z Model grössen herausgesucht. Da du im Internet die LCDs meistens günstiger kriegst,als bei MM oder Saturn. Ich persönlich finde das 40" vollkommen hinreicht,aber das ist jedem selbst überlassen wieviel Geld er ausgeben möchte bzw. ob er mehr Strom verbrauchen möchte. Hier mal die Daten: KDL40Z4500 819€ KDL46Z4500 1550€ KDL52Z4500 2199€ Alternativen bei anderen Herstellern (Phillips/Samsung/Toshiba) in dem InputLag Bereich 0-10ms. gibts leider kaum die einzige alternative ohne 100/200Hz Modus wäre die W4000 Serie von Sony wie's mit der V aussieht weiss ik aber leider nicht da haben die anderen mehr wissen bestimmt. @LostProphet85 Zu 5/2 Da die meisten LCDs die ich bei HDTV.uk verglichen habe meistens nicht unter die 30ms. kommen ist der Z4500/W4000 wirklich eine gute Wahl auch wenn ich sie noch nicht bildlich gesehen habe. Bei Plasmas gibts zwar auch schwarze Schafe aber auch fast Lag freie Model wie den Panas. TX-P42G10 ca.10ms. im Game Mode (den ich mir bald auch warscheinlich holen würde,ik warte nur noch darauf was Marc zu meinen älteren Fragen dazu zusagen hat dann steht dem Kauf nichts mehr im wege) od. dem TX-P42S10 und auch Modelle von Pionier sollen gut sein. [Beitrag von Hardrock82 am 14. Mai 2010, 08:57 bearbeitet] |
||||||||||||||||
Lostprophet85
Stammgast |
#1111 erstellt: 14. Mai 2010, 10:58 | |||||||||||||||
Ganz vorsichtig, solche Verallgemeinerungen kann man nicht treffen, denn die passende Bilddiagonale richtet sich nach dem geschauten Quellmaterial (SD/720p/1080p) und dem Sitzabstand. Nehmen wir zum Beispiel mal 40 Zoll (habe ich ja auch). Wenn du auf einem 40er eine Blu-ray (1080p) schaust, darfst du nicht weiter als etwa 2m weg sitzen, sonst entgehen dir Details da dein Auge nicht mehr imstande ist, solch hohe Auflösungen vollständig zu erfassen. Will man auf dem Gerät in erster Linie aber TV (SD) schauen, sieht das natürlich wieder ganz anders aus. Ich persönlich würde nie wieder einen so kleinen TV kaufen, mein nächster wird mindestens 50 Zoll. Das ist aber auch Geschmackssache, zumal ich fast ausschließlich HD-Inhalte sehe (ich schaue nicht fern, mein TV ist quasi nur Display für PS3/360/Blu-ray sowie hochskalierte DVDs). Zudem dürfte ein 42er Plasma in etwa genauso viel Strom verbrauchen wie ein 52er LCD
Ein ganz kleines Bisschen langsamer ist der von dir genannte G10 zwar noch gegenüber den 2008er Sonys, aber das ist wohl vernachlässigbar. Plasma wollte ich mir auch erst holen, habe dann aber gemerkt, dass ich für deren Schwächen enorm anfällig bin. Ich sehe zum Beispiel jeden Plasma flimmern, auch die mit 600Hz beworbenen, aktuellen Panasonics. Und dann kommt noch der Phosphorlag hinzu, den ich demnach mit größter Wahrscheinlichkeit (konnte das noch nicht selbst testen) auch wahrnehme. Zu guter letzt bleibt dann noch die Angst vor dem Einbrennen, schließlich kann es bei mir durchaus vorkommen, dass ich viele Stunden dasselbe Spiel zocke mit statischen Anzeigen (Munitionsanzeige, Gesundheit, etc.). Diese könnten dann nachleuchten oder sich irgendwann einbrennen, auch wenn sich das bis heute enorm gebessert haben soll. Naja, probier' am besten aus und schick' zur Not zurück. MfG Lostprophet [Beitrag von Lostprophet85 am 14. Mai 2010, 11:18 bearbeitet] |
||||||||||||||||
onkelone
Stammgast |
#1112 erstellt: 14. Mai 2010, 14:08 | |||||||||||||||
Wie misst man noch mal den Input-Lag genau mit den Laptop?? Habe ein Laptop mit HDMI anschluss ausgeliehen bekommen und wollte selber mein Input-Lag von mein Samsung mal messen. MfG Onkel |
||||||||||||||||
Lostprophet85
Stammgast |
#1113 erstellt: 14. Mai 2010, 14:13 | |||||||||||||||
Du klonst das Bild auf den TV per HDMI, lässt ein Stoppuhrprogramm mit 1/1000 s Genauigkeit (Millisekunden) laufen und machst mehrere Fotos (wobei Laptop und TV gleichzeitig im Bild sein müssen) mit einer schnellen Digitalkamera. Auf einem Foto sind dann jeweils unterschiedliche Zeiten in der Stoppuhr zu sehen, die Uhr im Laptop müsste "vorgehen". Dann berechnest du einfach die Differenzen, je mehr Fotos und je schneller die Kamera, umso repräsentativer. MfG Lostprophet |
||||||||||||||||
onkelone
Stammgast |
#1114 erstellt: 14. Mai 2010, 15:22 | |||||||||||||||
Danke dir, aber wo kriege ich eine vernünftige Stopuhr her?? |
||||||||||||||||
jbidi
Inventar |
#1115 erstellt: 14. Mai 2010, 15:42 | |||||||||||||||
Runterladen |
||||||||||||||||
Lostprophet85
Stammgast |
#1116 erstellt: 14. Mai 2010, 18:41 | |||||||||||||||
Da kann ich dir leider auch nicht helfen, keine Ahnung. Im Zweifelsfall Google bemühen. MfG Lostprophet |
||||||||||||||||
jbidi
Inventar |
#1117 erstellt: 14. Mai 2010, 18:52 | |||||||||||||||
Hardrock82
Inventar |
#1118 erstellt: 14. Mai 2010, 19:08 | |||||||||||||||
Soll das ne Drohung sein?
Das weiss ich schon längst,habe mich ja nicht umsonst mit,sowas beim HDready kauf damals beschäfftig. Aber für die,die neu in dieses Forum kommen (und keine Ahnung von sowas haben) ist's gut wenn man's mal erwähnt.
Für mich muss das gesamt Packet stimmen ob der LCD od.Plasma mehr Strom verbraucht ist mir (fast) Rille da ich ja noch einen AV-Receiver/eine 5.1 Anlage/PS3 habe. Andere Leute achten aber auf sowas und das ist ihr gutes recht,ebenso muss man schauen ob genug Platz für einen 46/52" Zoller vorhanden ist. Dies ist bei mir nicht gegeben höchstens nur 42" Und zum zocken reichen mir 40" auch den bei 52" wird das Bild auch nicht viel schärfer sondern ebend nur grösser so ist ein grösserer Wau-Effect vorhanden. Mehr aber "meiner Meinung" nach nicht.
Kann ik jetzt so nicht bejahen und auch nicht verneinen,da ik jetzt so bei HDTV uk. und anderen TV Testseiten einige LCDs/Plasmas vergleichen müsste und das wär mir jetzt echt zu blöd. Der Stromverbrauch vom Panas.G10 ist aber ok.
Ist dies irgendwo hinterlegt wurden oder jetzt einfach aus'm eigenen Test beurteilt? Und welche 2008 LCDs meinst du da es da viele gibt. Und der G10 ist bis zu 21sek.schneller als der F96 (HDTV uk. Test Meinung) also 9ms. im Game Mode,das ist meines erachtens nicht langsam.. der Z4500 hat auch nur 0-10. Und ausserdem ist der G10 von 2009.
Tja da muss man wohl oder übel einen LCD/Plasma per Internet kaufen ihn antesten und wenn er einen nicht zusagt,wieder zurücksenden. Anders kann mans heut zutage nicht mehr machen da bei MM/Saturn meisten die Bild einstellung nicht gerade so pralle ist. Oder man muss wie ich der zurzeit nicht soviel Geld hat sich von anderen Foren Usern beraten lassen,haufwenweise TV Testseiten büffeln und dann sagen der ist's,den will ik haben. |
||||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1119 erstellt: 15. Mai 2010, 03:47 | |||||||||||||||
Angeblich sollen Messungen per Laptop nochmal eine höhere Messfehlertoleranz haben als per PC mit 2 DVI/HDMI-Ausgängen, also nicht wundern, falls da jetzt etwas komische Zahlen bei rauskommen sollten. Man braucht aber in jedem Falle eine Kamera mit möglichst sehr geringer Belichtungszeit, sonst wird das Ergebnis massiv verfälscht (siehe z.B. die Messungen des Users Masochist hier im Thread - beim ersten Versuch mit zu langsamer Kamera kamen völlig unbrauchbare Werte bei raus).
Es geht bei der Sitzabstand-Bildschirmdiagonale-Relation in erster Linie nicht um das Schärfeempfinden, sondern den Grad an Details, die man noch sehen kann oder eben nicht. Bei 1080p-Material gehen bei einem 40"er bereits ab ca. 1,60m feinste Details unter, bei 720p ab ca. 2,20m. Und ab ca. 3,80m Sitzabstand ist es für die meisten Menschen so gut wie unmöglich, überhaupt noch irgendwelche Unterschiede zwischen SD und HD auszumachen. Wobei das aber jeweils Durchschnittswerte sind - die individuelle Sehleistung (hat nicht nur was mit eventuellen Fehlsichtigkeiten zu tun) spielt natürlich auch noch eine gewisse Rolle. Insofern hat Lostprophet da schon Recht - generelle Aussagen wie "ab Größe xy ist es Geld- und/oder Stromverschwendung" oder "zum Zocken reichen xy Zoll" ohne jegliche Berücksichtigung von Auflösung und Sitzabstand sind nunmal alles andere als sinnvoll... |
||||||||||||||||
Hardrock82
Inventar |
#1120 erstellt: 15. Mai 2010, 09:11 | |||||||||||||||
Gut das mag wohl stimmen,man muss die von mir genannten Sachen beim TV kauf aber auch mit berechnen. Und wenn man wie ich von der TV Wand zum Sofa ca.3m nur hat,dann braucht man meines erachtens nicht einen fetten 52" da reichen 40/42" auch hin und man sieht per PS3/HDMI/1080p immer noch genug Details. Bei SD sieht das schon etwas schlechter aus kasnn aber auch an meinem Kabelnetz Anbieter liegen. Wenn die Wohnstube natürlich grösser ist,ist das kein Ding dann wärs warscheinlich angemessener sich einen 46/52 oder 60" zu kaufen. Wie siehts denn bei euch aus ist eure WS grösser als 3m,und habt ihr trotzdem grössere Panele als 42"? [Beitrag von Hardrock82 am 15. Mai 2010, 09:18 bearbeitet] |
||||||||||||||||
MarcWessels
Inventar |
#1121 erstellt: 15. Mai 2010, 09:28 | |||||||||||||||
|
||||||||||||||||
Hardrock82
Inventar |
#1122 erstellt: 15. Mai 2010, 09:53 | |||||||||||||||
Aha.. sollte man bei 1,80 und 50" SD TV in normal oder lieber in Digital schauen? Gut kommt bestimmt auch darauf an,ob man einen guten Kabel/Sat entfang hat. Bei BDs / Games ists bestimmt nicht so schlimm..oder? ps: Hab dir eine PrivatMail zurückgesendet wegen den Panas.G10 antworten. [Beitrag von Hardrock82 am 15. Mai 2010, 09:54 bearbeitet] |
||||||||||||||||
Lostprophet85
Stammgast |
#1123 erstellt: 15. Mai 2010, 11:24 | |||||||||||||||
Dass du das bereits weißt kam nur leider in deiner Pauschalisierung nicht 'rüber.
Jepp, das sehe ich genauso. Zumal mein TV durchschnittlich wahrscheinlich keine zwei Stunden pro Tag läuft.
Meine persönliche Meinung dazu ist jedoch, dass wir uns hier im HiFi-Forum befinden, und nicht in einem Euro-Shopper-Spar-Forum. In erster Linie sollte es hier um die besten Geräte bezüglich der Wiedergabetreue gehen, so etwas wie Stromverbrauch oder Platzbedarf oder auch Design sind daher für mich stets sekundär.
Da hat mysqueedlyspoochhurts schon alles zu ausgeführt.
Das mag dir jetzt vielleicht wie Haarspalterei vorkommen, aber es sollte halt unterstreichen WIE schnell die 2008er Sonys sind. Meine Aussage bezog sich auf die Messwerte von hdtvtest.co.uk, der Pana hat im besten Fall 9ms Lag, im schlechtesten Fall mehr. Die Sonys haben hingegen im schlechtesten Fall 10ms, im besten Fall überhaupt keinen Lag (0ms, identisch zu CRT). Dass diese marginale Differenz in der Praxis so gut wie keine Rolle spielt, ist mir auch klar, aber die Intention dieser Aussage habe ich ja bereits erläutert. Mit den 2008er Sonys meine ich übrigens immer W4000, W4500 und Z4500, das habe ich in einem obigen Beitrag auch schonmal geschrieben wenn ich mich nicht irre. Ich beziehe mich also auf exakt die Modelle, die entweder im Gamemode (W/Z4500) oder in allen Modi (W4000) die fast perfekten 0-10ms erreichen. Der X4500 hat sowieso eine Sonderstellung.
??? Habe ich etwas anderes behauptet?
Dann kannst du dennoch tierisch auf die Nase fliegen, zum Beispiel falls du meine Sensibilität für die Plasma-Schwächen teilst. Dann kommst du um ein Zurückschicken evtl. doch nicht herum.
Wenn du das so siehst, mag das ja für dich in Ordnung sein, aber du wirst halt nie alle Details wahrnehmen können, vor allem bei 1080p. Und ich spreche da aus eigener Erfahrung. Ich sitze etwa 2,30m von meinem 40er weg, und gerade bei Blu-rays stelle ich da schon Unterschiede im Detailreichtum fest, wenn ich mich nach vorne beuge und damit den Sichtabstand auf etwa 2m verkürze. Wenn du also tatsächlich ganze 3m weg sitzt, wären mir 40/42" deutlich zu klein. Aber schließlich leben wir in einer von Kompromissen geprägten Übergangszeit, da wir Quellmaterial von SD über 720p bis 1080p haben. Sprich: wenn du noch viel SD-Material und prozentual eher wenig HD und FullHD schaust, dann kannst du mit deinem jetzigen Verhältnis aus Diagonale und Sitzabstand durchaus glücklich werden (vor allem wenn deine SD-Quelle von schlechter Qualität sein sollte). Das andere Extrem, dass Marc Wessels hier vertritt, macht eigentlich nur Sinn wenn man ausschließlich 1080p-Signale schaut, denn bei diesem Verhältnis macht mir persönlich alles andere keinen Spaß mehr. Selbst Zocken ist dann nicht mehr schön, da die aktuellen Konsolen in Sachen Auflösung und Kantenglättung nicht das Gelbe vom Ei sind. Im Endeffekt muss man einfach einen Kompromiss finden, mit dem man gut leben kann. In ein paar Jahren, wenn der nächste TV-Kauf ansteht, sieht das vielleicht schon anders aus (dank besserer Scaler etc.). Aber bei 3m Abstand und einem relativ großen Anteil an 720p (zocken) und 1080p (Blu-ray) würde ich dir definitiv zu mindestens 46" raten, und zwar auch aus Erfahrung. MfG Lostprophet |
||||||||||||||||
Hardrock82
Inventar |
#1124 erstellt: 15. Mai 2010, 11:30 | |||||||||||||||
Habe ebend mal einpaar Internet Seiten angeschaut und bin jetzt etwas irretiert hat der TXP42G10 nun 3Tuner (DVB-T/C/S] oder nicht? Den bei Areadvd gibts kein G10 Test und auf HDTV.uk ist auch nix von 3Tuner zulesen. Dafür steht aber bei Areadvd das der GW10 3Tuner hat. Und angeblich hat der GW10 nicht nur einen DVB-S sondern DVB-S2 Tuner innen drin,weiss jemand was darüber? |
||||||||||||||||
Lostprophet85
Stammgast |
#1125 erstellt: 15. Mai 2010, 11:45 | |||||||||||||||
Hier ist die Bedienungsanleitung des Gerätes: http://dlc.panasonic...e-DE&model=TXP42G10E Beim Überfliegen habe ich nur einen DVB-T- und DVB-C-Tuner entdecken können. MfG Lostprophet |
||||||||||||||||
Hardrock82
Inventar |
#1126 erstellt: 15. Mai 2010, 12:38 | |||||||||||||||
Nun gut wenn das so ist.
Achso..aber der Pana wird bestimmt nicht im Game Mode über 20ms. gehen,kann ik mir jedenfalls nicht vorstellen (und auch nicht beweisen ) aber ok da werden wohl die Sony's die Nase vorne haben. Von dem Schwarzwert/Detailsicht (der mich ja auch intressiert) würde wohl aber der Panas.besser abschneiden. (ich beziehe mich jetzt mal auf die HDTV.uk Test vergleiche zw.Pana.G10 und Z4500) Mich würde mal gerade als EgoShooter (BC2/CoDMW2) bzw.Action Adventure (Uncharted2) Online Zocker intressieren wie hoch darf der Imputlag bei LCDs/Plasmas NUR sein,bsp.darf er nur bis 10ms. gehen oder vielleicht nur bis 20ms.? Den 30ms. gerade bei BC2 kommt mir doch schon etwas zu langsam vor obwohl es auch Leute gibt die sagen 30ms. wären ok,höher darfs aber nicht gehen.
Tja da kann man ebend nix machen.. Aber beim Z4500 gibts ja auch Probleme wie den grünstich/clouding die man ja erst überprüfen kann wenn man ihn gekauft hat,und ihn dann für sich persöhnlich einstellt,und erst dann sagt ach ik behalte ihn trotzdem oder ich verkaufe ihn doch wieder und schaue mich nach'ner anderen Alternative um. Also ich spiele PS3 Games und schaue BDs grundsätzlich in 1080p. sonst hätte ich auch meinen Phillips LCD damals behalten können. Gut man könnte auch in 720p PS3 zocken (Bild wäre etwas schärfer) aber ich finde das man bei 1080p mehr Details sieht. Das SD Bild gefällt mir von Jahr zu Jahr auch immer weniger kann auch an meinem KA liegen. Bin daher schon am überlegen auf HDTV umzusteigen da Digital TV das Bild auch nur geringfügig besser macht. Die frage ist nur ob es sich wirklich lohn dafür 10€ mehr auszugeben (zahle derzeit 11€) oder die HD hochscalierung später von einem BD Recorder übernehmen zulassen. Dieser müsste dann zwar mit dem TV den ganzen Tag laufen,aber man würde so 10€ sparen pro/Monat. |
||||||||||||||||
Hardrock82
Inventar |
#1127 erstellt: 15. Mai 2010, 12:53 | |||||||||||||||
Sorry der Link hat mir keine Daten zum G10 angezeigt.
Gut dann nehme ich alles zurück falls ich mal irgendwo hier im Threat schrieb das der G10 DVB-S hat. Würd mich jetzt mal intressieren wenn der G die mittlere Preisklasse ist was ist dann der GW den der V soll ja oberklasse sein. MfG H82 |
||||||||||||||||
Lostprophet85
Stammgast |
#1128 erstellt: 15. Mai 2010, 13:05 | |||||||||||||||
Ja das ist so, ich denke zumindest dass die ursprüngliche Intention dieses Forums in diese Richtung ging.
Ja, das denke ich auch.
Das ist natürlich zweifellos wahr, obwohl ich es für möglich halte, dass der Pana genau wie seine neueren Brüder nach ein paar hundert Stunden elektronisch nachregelt und dann in etwa auf dem selben Level ist wie der Z4500.
Das ist komplett subjektiv und kann dir daher niemand außer dir selbst beantworten.
Natürlich, aber ich meinte eher die grundlegenden Probleme bzw. Eigenheiten einer Technologie und nichts Modellspezifisches. Kommt im Endeffekt allerdings auf das Selbe hinaus: zurückschicken.
Das ist Quatsch. Es gibt bis heute (abgesehen von sehr wenigen PSN-Spielen) kein Spiel, dass konstant in 1080p läuft, selbst Wipeout HD schaltet bei Bedarf die horizontale Auflösung zurück und GT5 Prologue läuft nur in der Wagenauswahl in 1080p. Fast alle Spiele laufen in 720p oder darunter, und durch die Skalierung kann man keine Details dazu gewinnen. Rein zum Zocken würde also auch ein HDready-TV reichen, zumindest für die aktuelle Generation Konsolen.
Ein echtes HD-TV-Signal wird immer zehnmal besser aussehen als ein hochskaliertes SD-Signal, denn die Skalierung kann nunmal keine Details "erschaffen". Die Frage ist dann nur, ob du aus 3m Entfernung den Unterschied noch siehst
Stimmt, jetzt klappt es bei mir auch nicht mehr. Dann musst du auf die offizielle Panasonic-Homepage gehen, dort auf "Service" und dann auf "Downloads und Bedienungsanleitungen" oder so ähnlich. Danach das Modell heraussuchen. MfG Lostprophet |
||||||||||||||||
Hardrock82
Inventar |
#1129 erstellt: 15. Mai 2010, 14:17 | |||||||||||||||
Ich versteh nicht warum mein letzter Text zu diesem Zitat so "böhse" herüber kam ich habs doch kapiert was damit gemeint war und das Zeichen bedeutete ok dann halte ik dazu jetzt mein Maul.
Wie jetzt? Heisst das,das selbst bei neueren Plasmas das Bild nach entlichen Zocker Stunden schlechter wird? Bei LCD's tritt dieses Problem ja nicht auf (jedenfalls bei mir noch nicht ) oder? Oder meinst du diese ewige depatte ob dieses "Nachbrennen" nur für kurze Zeit ist oder ewig bleibt nachm Plasma kauf und dann nach einer ewigkeit sich sogar noch verschlimmert??
Also bei mir auf meine Sam. A656 läuft Wipout HD da ich 1080p im PS3 Menü eingestellt habe in 1080p. Es gibt natürlich auch Games die nur per 720p laufen. (aber das kann man ja schon auf der Hülle hinten lesen) Aber wenn ich solche Games bsp. BC2 (nur 720p) per eingestellter 1080p Einstellung zocke,wird dann das Bild auf 1080p hochscaliert oder bleibt es trotz 1080p einstellung nur 720p? Ik frage das jetzt mal weil ich vorher immer dachte es wird dann hochgerechnet jetzt bin ich mir aber da echt nicht mehr so sicher. Wie ist das bei 360 Games,da wird doch meistens 1080p auf der rückseite der Hülle angegeben sind das dann auch keine 1080p die man sieht? [Beitrag von Hardrock82 am 15. Mai 2010, 14:18 bearbeitet] |
||||||||||||||||
Lostprophet85
Stammgast |
#1130 erstellt: 15. Mai 2010, 14:41 | |||||||||||||||
Sorry, diesen Smiley habe ich tatsächlich in den falschen Hals bekommen.
Nicht "selbst" bei neueren Plasmas, sondern "gerade" bei neueren Plasmas. Im Test zum G20 auf hdtvtest.co.uk findest du einen separaten Absatz zu dieser Problematik. Die Kurzfassung: Nach 1000-1500 Stunden regelt die Elektronik im TV die Spannung nach, und der Schwarzwert wird etwa auf das dreifache verschlechtert. Die 2009er sollen davon besonders betroffen sein, für die 2010er versprach Panasonic eine verbesserte Elektronik, die die Spannung in kleineren Schritten anhebt (das Grundproblem bleibt allerdings).
Dein TV zeigt dir zwar 1080p an, und meistens läuft Wipeout HD auch tatsächlich in dieser Auflösung, aber wenn viel los ist auf dem Bildschirm wird die horizontale Auflösung gedrosselt (schwankt zwischen 1280x1080 und den vollen 1920x1080) um die Framerate von 60Hz zu halten.
Ja, fast alle.
Irrtum, das stimmt nicht immer. Bei PS3-Spielen hat es lange Zeit gestimmt, aber vor einem Jahr oder so fingen sie dann auch an zu schummeln. Dazu gleich mehr.
Das ist bei der PS3 sehr unterschiedlich, wenn dein TV als Eingangssignal 1080p anzeigt, wird das Bild von der PS3 hochskaliert. Zeigt er hingegen 720p an, gibt die PS3 das Original aus und der TV skaliert selbst. Das Ergebnis sollte aber fast das Selbe sein. Überprüfen kannst du das mit der Info- oder Display-Taste auf der Fernbedienung des TVs.
Richtig, auch hier gibt es praktisch kein Spiel, das in 1080p läuft. Microsoft hat hier vom Start weg gemogelt (anfangs stand halt noch "1080i" drauf, als die 360 noch kein 1080p unterstützte). Sony macht es mittlerweile wie gesagt genauso (bzw. die Publisher), da stimmt auch nicht mehr alles. Beste Beispiele sind die Call of Duty-Spiele. Bei Modern Warfare 2 steht glaube ich auch bei der PS3-Version 1080p drauf, auch wenn die Spiele eigentlich sogar unterhalb 720p laufen (1024x600), was man ihnen auch ansieht (sofern man mal ein echtes 1080p-Spiel gesehen hat). Wenn du die bittere Wahrheit verkraften kannst, schau' dir das mal an: http://forum.beyond3d.com/showthread.php?t=46241 Hier findest du zu sehr vielen Spielen beider Konsolen die echten Auflösungen und auch Infos zur Kantenglättung. MfG Lostprophet |
||||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1131 erstellt: 15. Mai 2010, 15:05 | |||||||||||||||
Bei 3m Abstand und 42" Diagonale würde ein HD-Ready-Gerät eigtl durchaus reichen - mir kann keiner erzählen, der nicht beim Augenarzt im Sehtest mindestens 130% erreicht, dass er da noch irgendwelche Unterschiede erkennen kann, ob eine BD gerade in 720p oder 1080p ausgegeben wird. Zwischen SD und HD kann man da noch unterscheiden (aber eher aufgrund des meist saubereren und kontraststärkeren Bildes der BD und nicht so sehr wegen der Detaildarstellung), viel mehr aber auch nicht...
Ich habe mich damit nicht befasst, aber möglicherweise ist der zusätzliche DVB-S-Tuner ja der einzige Unterschied zwischen den beiden, vergleichbar mit Sonys W/Z5500 und W/Z5800? Schau doch einfach mal auf der Panasonic-HP nach - Unterschiede in der Ausstattung sind so mit die einzige Angabe, die man von Herstellerseiten zuverlässig und ohne schlimmeres Marketing-Blabla geliefert bekommt... Oder frag hier im Plasma-Panasonic-Bereich nach - wie gesagt, hier im LCD-Sony-Bereich interessiert sich kaum jemand für Plasmas und ist entsprechend wenig Wissen über konkrete Modelle vorhanden.
Phosphor altert und verliert mit der Zeit an Helligkeit - das hat mit dem Nachleuchten (= kurzzeitige Überreizung des Phosphors, die bei modernen Plasmas wieder komplett verschwindet) nicht sehr viel zu tun. Extrembeispiel: lass einen Plasma auf schwarzem Hintergrund lange Zeit (je nach Gerät Tage oder Wochen) ein strahlend weißes Quadrat in der Mitte anzeigen. Du wirst dann feststellen, dass dieses Quadrat danach bei normaler Benutzung etwas dunkler ist als der andere Bereich - der Phosphor ist in diesem Bereich "verbrauchter" und erreicht nicht mehr die Helligkeit wie der im anderen. Das ist übrigens kein Punkt, über den es sich sinnvoll streiten lässt, sondern schlicht eine technologische Tatsache - Plasmas erzeugen Licht durch Phosphorreizung, Phosphor altert. Da gibt´s nichts dran zu rütteln. Die einzige Frage, über die es sich vortrefflich streiten lässt, ist die, wie sich das denn nun konkret in der Praxis äußert. Seit der ersten Plasma-Generation (die schlicht nicht zum zocken geeignet war, da man sich damit den Screen binnen kürzester Zeit ruiniert hat) sind die verwendeten Phosphorgemisch wesentlich langlebiger geworden und verlieren ihre Helligkeit auch deutlich gleichmäßiger über die Lebensdauer hinweg. Ob Plasmas in Sachen Robustheit schon bei der Röhre (bei der ja ebenfalls eine Phospohorschicht für die Bilderzeugung genutzt wird) angekommen sind, weiß ich nicht. Ein mulmiges Gefühl hätte ich ehrlich gesagt noch immer (da viel Videospiele und PC-Nutzung), aber im Gegensatz zu früher würde ich heute einen Plasma-Kauf nicht mehr kategorisch ausschließen. LCDs haben diese Probleme nicht - die einzelnen Flüssigkristalle nutzen sich nicht ab und das Hintergrundlicht verliert über die gesamte Lebensdauer gesehen langsam und gleichmäßig an Helligkeit.
Es geht nicht darum, was deine PS3 an Auflösung rauslassen und/oder, dass sie auf 1080p hochskalieren kann - es geht darum, in welcher Auflösung die Games nativ vorliegen. Wie Lostprophet schon sagte - ein auf 1080p hochskaliertes 720p-Game kann nie so detailliert aussehen wie ein natives 1080p-Game. Ist auch irgendwo logisch, denn alles, was ein guter Scaler kann, ist ein Bild zu vergrößern, ohne dabei irgendwelche Fehler reinzurechnen oder grobes Gepixel zu erzeugen. Aber mehr Details kann er natürlich nicht reinzaubern - woher soll er die denn auch nehmen, wenn sie im Quellmaterial nicht drinstecken? Und WipeOutHD scheint eines derjenigen Games zu sein, die eine variable Auflösung haben - d.h. es läuft zwar prinzipiell in 1080p, in kritischen Szenen mit hoher CPU/GPU-Banspruchung geht es aber mit der Auflösung runter, um Framerateeinbrüche zu vermeiden. in diesen Fällen setzt dann natürlich der Scaler der PS3 ein und rechnet es wieder auf 1080p hoch - dass man von dem daraus resultierenden Detailverlust bei 3m Abstand auf einem 40"er rein gar nichts von mitkriegt, wundert mich aber ehrlich gesagt kein bisschen...
Egal, in welcher Auflösung das Game nativ vorliegt, die 360 kann alles auf 1080p skalieren - aber deswegen bei jedem Spiel hinten dreist "1080p" draufzuschreiben, ist eigtl eine ziemliche Frechheit. Edith sagt, dass ich schneller schreiben muss, da weite Teile meines Posts durch die zwischenzeitliche Antwort von Lostprophet redundant geworden sind... *seufz* [Beitrag von mysqueedlyspoochhurts am 15. Mai 2010, 15:07 bearbeitet] |
||||||||||||||||
Hardrock82
Inventar |
#1132 erstellt: 15. Mai 2010, 20:18 | |||||||||||||||
Nicht so schlimm..
Ach du sch****!
Aha..
Och man ey,solangsam kriegt man doch echt einen Hals! Erst die sache mit Inputlag und jetzt muss ich trotz 1080p Einstellung herausfinden das GTA4 (auf der Verpackung hinten steht 720p/1080p) nur in 1280x720 läuft. Gut eigentlich wäre das nicht so schlimm weil das Bild bei 720p etwas schärfer wird,aber das ist dann trotzdem eine verarsche von den Medien und Game Mags die jedes neue getestete Game dann als 1080p Game angeben,bzw. (nach dem Motte 1080p) damit auch noch Werbung machen. Danke aber für den Tipp mit der Info Taste,die Taste habe ik nie benutzt. (..jetzt bestimmt aber öfters ..)
Das fand ik damals auch kurios es gab noch nicht mal FHDs es wurde dann aber von MS auf den Hüllen 720p/1080i angegeben,gut mein HDready konnte auch 1080p ausgeben,dies sah aber auf meinem 32" katastrophal aus so das ik mir dachte ne dann lieber 720p.
Jetzt weiss ich auch warum auf PS3 CoDMW1 damals trotz 720p ausgabe (der W2000 von meinem Kumpel zeigte das damals immer an bevor das Game los ging,so einen Service hat man bei Samsung leider nicht) das Bild gerade im Online Modus zwischen gut und naja geschwankt hat.
Ach du heilige.. War ich vorher schon von MS und Sony enttäuscht,wird es jetzt nicht besserer. Ik glaube ik steig bald um auf PC. (Nein warn scherz mach ik nicht. ) Aber bei der Next Gen. sollten die mal volle 1080p bringen und das IMMER mit vollen Details und das auch im Online Modus. Mich wundert echt worauf man heute alles achten muss ein Zocker wie mein Bruder würde sowas nicht intressieren,ich finde das aber eine schweinerrei,den wir sind es die haufenweise Geld in MS/Sonys A..blasen und Spiele für 60€ kaufen und neuste Sachen wie 5.1 Anlagen und neuste TVs..! Und was ist der dank? Man muss sich wegen jeden Sch** im Netz schlau machen und erfährt dann von kompetenten Usern (wie die in diesem Forum) das man einfach nur verarscht wird am,laufenden bande. Wenn Sony und Msoft sowas vertreiben warum wird dann nicht überprüft ob die Entwicklöer ihre DVD Rückseitenhüllen Werbung einhalten,oder gehts den wirklich nur ums Geld? |
||||||||||||||||
Hardrock82
Inventar |
#1133 erstellt: 15. Mai 2010, 20:46 | |||||||||||||||
Also so wie ich's bisher mitgekriegt habe ist der GW10 das gleiche Model mit gleichen Inputlagzeiten blos ebend das da ein DVB-S Tuner mit drin ist. In anderen Foren steht auch das nur der GW10 600Hz unterstützt dies wurde aber (glaube ich noch) auch beim G10 bei HDTV.uk angegeben daher stimmt dies bestimmt nicht. Vielleicht weiss ja MarcWesels mehr darüber.
Wau..bin jetzt echt beeindruckt was du alles weisst und zum teil jetzt auch wieder betrübt da das jetzt wieder ein Punkt wäre warum ik mir kein Plasma kaufen sollte.
Tja da werde ik dann wohl oder übel mal im Plasma Bereich nachfragen müssen.
Habe ik dank LP jetzt gut kapiert,danke aber auch für deine Sich der Dinge.
Aber die Frage ist,werden die Games dann auch in 1080p wieder gegeben. Oder laufen sie dann trotzdem nur bei 1280x720. Den wenn bei CoDMW1 angegeben ist 720p/180i/1080p woher soll man trotz 1080p einstellung wissen ob das Game wirklich von A-Z und im Online Modus in 1080p läuft. Gut man kann natürlich die Info Taste immer drücken um mal nachzuschauen,aber wenn auf der Verpackung "1080p" steht und man einen FHD hat,dann kann mann doch als Käufer verlangen das auch 1920x1080 wiedergegebebn werden. Die BDs werden doch auch immer in 1080p wieder gegeben,oder hat da auch jemnand mal was anderes beobachtet? (Bitte lass sie sagen nein bitte,bitte.. )
Falls du mich damit meintest..stört mich nicht. |
||||||||||||||||
Hardrock82
Inventar |
#1134 erstellt: 15. Mai 2010, 20:58 | |||||||||||||||
Um jetzt aber mal wieder auf eine Sony Frage zukommen. Ist der Schwarzwert beim Z4500 eigentlich besser als der vom W4000,bzw.sieht man da mehr Details? (Die,die natürlich beide schon zuhause hatten können das bestimmt gut beurteilen.) Was ik nochgarnicht gefragt hatte wie siehts mit der V-X Serie aus,sind die nicht auch ebenbürtig mit der Z/W Serie oder haben die meistens schlechtere Inputlagzeiten? Und weils ja hies mehr Details nur bei grösseren Panel,wie gross muss min. das Panel sein? Damals dachte ich immer 42" aber jetzt denke ich ist wohl 46" das beste oder doch lieber 52"? 52" ist mir aber bestimmt zuteuer den ich will für meinen neuen ZOCKER TV höchstens nur 1000-1200€ ausgeben da ich warscheinlich höchstens nurnoch 500€ bei Ebay für meinen alten Sam. A656 kriege. Und 46" würde ik mit auch und krach zwischen meinen kleinen Schränken kriegen bei 52" wirds schon eng da ich dank dem linken Schrank dann nicht mehr in meine kleine Küche komme. Oder ik muss denn dann mal woanders hinräumen. [Beitrag von Hardrock82 am 15. Mai 2010, 21:01 bearbeitet] |
||||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1135 erstellt: 16. Mai 2010, 01:10 | |||||||||||||||
Wenn das Bild auf einem FullHD etwas schärfer wirkt wenn die PS3 auf 720p gestellt ist bedeutet das, dass dein TV die Spiele (die ja nativ meist in höchstens 720p vorliegen) besser hochskaliert als die PS3. Natives 1080p-Material schaut auf einem FullHD-Gerät immer etwas schärfer (und v.a. detaillierter) aus als natives 720p-Material.
Kein HDready-Gerät kann 1080p darstellen (wie soll es auch 1920x1080 Pixel auf einem Panel mit einer Auflösung von 1366x768 unterkriegen?), aber alle können 1080i und manche auch 1080p entgegen nehmen und dann auf die Panelauflösung runterskalieren. Wenn das schlechter aussieht als 720p bedeutet das nur, dass das Gerät das Downscaling nicht besonders gut beherrscht.
Klingt jetzt nach den vorangegangenen Posts vielleicht ein bisschen komisch, aber die Auflösung wird meines Erachtens ein bisschen überbewertet. Bei CoD wird z.B. auf eine höhere Auflösung verzichtet, um mehr Effekte, Filter, etc. zu ermöglichen bei konstant superflüssigen 60fps. Eine gute Grafik besteht aus deutlich mehr als nur einer hohen Auflösung - Qualität und Abwechslungsreichtum der Texturen, das künstlerische Design und den geschickten Einsatz von Filtern und Grafikeffekten finde ich jetzt wichtiger als die höchstmögliche Auflösung. Gerade die CoD:MW-Spiele gehören trotz der vergleichsweise niedrigen Auflösung zu den optisch beeindruckensten auf den aktuellen Konsolen. Trotzdem ist es natürlich ziemlich unverschämt, auf eine Spielehülle 1080p hinten drauf zu schreiben, wenn das Game de facto nicht in dieser Auflösung vorliegt. Aber Verarsche hin oder her - das ist alles kein Grund, sich den Spaß am Zocken vermiesen zu lassen, denn entweder ein Game sieht gut aus und/oder macht Spaß oder eben nicht... welche native Auflösung es hat, kann einem da eigtl egal sein.
Ich habe mir eigtl nur damals vor dem TV-Kauf das eine oder andere angelesen, das meiste von HDTVtest... aber danke für die Blumen. Aber wie gesagt - das Problem müsste sich mittlerweile im Vergleich zu den Anfängen der Technologie deutlich gebessert haben. Im Konsolenbereich des Forums liest man auch immer mal wieder von Leuten, die schon lange auf einem Plasma zocken und noch keine auffälligen Helligkeitsunterschiede feststellen können. Das generelle "zum Zocken total untauglich" trifft insofern auf die aktuellen Plasmas nicht mehr zu. Persönliche Erfahrungen habe ich damit aber nicht... alle in meinem Bekanntenkreis haben LCDs.
Hm... nicht bös gemeint, aber ich glaube, du hast das mit den Auflösungen noch nicht 100%ig verstanden. Man muss da zwischen drei Stationen der Wiedergabekette unterscheiden: 1. Auflösung, in der der Medieninhalt auf der Disc vorliegt 2. Auflösung, die das Wiedergabegerät ausgibt 3. Native Auflösung des Panels vom HDTV Beispiel BluRay: Ein Film liegt auf BD (fast - ganz wenige sind in 1080i, das steht bei BDs afaik aber immer wahrheitsgetreu drauf) immer in 1080p vor - sofern der Player auf 1080p gestellt ist, kommen die ohne Abstriche am Display an, welches sie im Falle eines FullHDTVs auch voll darstellen kann. Trotzdem unterscheidet sich die Bildqualität auch bei BDs teils erheblich, je nach verwendetem Master und Sorgfalt bzw. Aufwand bei der Produktion, so dass es sich nicht unbedingt immer lohnt, ihr gegenüber der DVD den Vorzug zu geben... aber das ist ein ganz anderes, teils ziemlich unerfreuliches Thema. Beispiel Videospiel mit konstanten 720p: wird in der Konsole mit 1280x720 Bildpunkten berechnet - je nach Einstellung der Konsole wird das dann entweder direkt als 720p an den Fernseher weitergegeben, oder das Bildsignal vorher nochmal durch den konsoleneigenen Scaler gejagt und auf 1080p hochgerechnet. Der FullHDTV zeigt im ersten Falle 720p an und skaliert es selber auf 1080p hoch (sonst hätte man ja dicke schwarze Balken drumherum), im zweiten Falle zeigt er allerdings 1080p an und stellt das Signal 1:1 dar. Für den TV spielt es dabei keinerlei Rolle, ob er hochskaliertes oder natives 1080p bekommt - er kann nur erkennen, wieviele Pixel Bildinformation er gerade geliefert bekommt, aber nicht, wie hoch die native Auflösung des Bildsignals war. Insofern gibt auch die Info-Taste des HDTVs nur Aufschluß darüber, welche Auflösung das gerade empfangene Bildsignal hat, aber nicht, in welcher Auflösung das Game eigtl vorliegt und ob die Konsole es hochskaliert hat oder nicht. Videospiele mit weniger als 720p werden von der Konsole per Scaler immer auf die als Bildausgabe eingestellte Auflösung hochgerechnet (also 720p oder 1080p), bevor sie an den TV geschickt werden. Aber bei diesem Hochrechnen können natürlich keine zusätzlichen Details entstehen, die vorher nicht im Material drinwaren. Wenn man z.B. die Abwärtskompatiblität der 360 nutzt und ein XBox1-Spiel darauf spielt, werden die (meist) 576i zwar ordentlich auf (je nach Konsoleneinstellung) 720p oder 1080p hochgerechnet, aber trotzdem sieht es nicht detaillierter aus als damals auf einem SD-Röhrenfernseher. Auch Auflösungsschwankungen wie bei WipeOutHD müsste die PS3 afaik durch den Scaler auffangen, um dem Fernseher trotzdem jederzeit ein konstantes Bildsignal liefern zu können. Ich denke nicht, dass ein HDTV problemlos mit einer ständig wechselnden Auflösung zurecht kommen würde. Kurz: Videospiele werden von der Konsole immer in der Auflösung an den TV wiedergegeben, die in der Konsoleneinstellung festgelegt ist. Wie hoch die native Auflösung der Games tatsächlich ist, kann man im Prinzip nur herausfinden, indem man bei den Entwicklern anfragt oder aber sehr nah an den TV geht und die Pixel zählt... was aber nicht ganz einfach ist, da einerseits der Scaler natürlich versucht, weichere Übergänge zwischen den Pixeln zu berechnen und andererseits gerne mit Grafikfiltern gearbeitet wird, um die niedrige Auflösung zu verschleiern. So weit ich weiß haben sich die Jungs aus dem von Lostprophet verlinkten Forum tatsächlich die Arbeit mit der Pixelzählerei gemacht...
Der Schwarzwert ist praktisch ebenbürtig. Der W4000 hatte damals im Test sogar mit 0,05 cd/m² gegenüber dem Z4500 mit 0,06 cd/m² minimal die Nase vorn, was aber in der Praxis eher nur im Direktvergleich bei stockfinsterem Raum auffällt. Der Samsung A656 kam im Test übrigens auch auf 0,06 cd/m². Für LCDs mit (WCG-)CCFL Hintergrundbeleuchtung sind das nach wie vor Topwerte. Einen Hauch mehr Schattendetails sieht man dagegen beim Z4500, das ist eine Frage des Gammawertes - beim W4000 wurde ein nahezu perfekter Wert von 2,25 gemessen, beim Z4500 ein geringfügig flacherer (und somit hellerer) Wert von 2,1... insofern zeigt er einen Tick mehr, als er nach Norm eigentlich sollte. Aber auch da bezweifel ich stark, dass man in der Praxis wirkliche Unterschiede sieht, sofern man nicht gerade zu den größten Rec.709-Videofreaks gehört und beide direkt nebeneinander stehen hat... Wichtigste Frage bei W4000 vs. Z4500 ist eigtl, ob du auf die 200Hz Wert legst oder nicht. Der Z4500 wurde aber afaik eine Weile länger produziert als der W4000, daher dürfte es da sowieso leichter sein, an ein günstiges Gerät zu kommen.
Der V4000 hat ebenfalls nur 0-10ms Lag, der X4500 nach Usermessungen hier im Forum ca. 25-30ms im Game-Mode, sonst ca. 50ms. Den V4000 würde ich aber außen vor lassen, da er im Prinzip nur die Budgetvariante des W4000ers ist mit etwas schlechterem Panel (8bit statt 10bit, CCFL statt WCG-CCFL Backlight, etwas schlechtere Farbwiedergabe).
Bei 3m Abstand wäre ein 52"er theoretisch die bessere Wahl, es sei denn, du schaust sehr viel SD. Unter 46" würde ich da an deiner Stelle keinesfalls mehr gehen wollen. Bevor du dir aber wegen 52" das ganze Wohnzimmer umbaust, kannst du auch einfach den 46"er nehmen und dann beim Zocken und/oder bei BDs einfach die Couch/den Sessel/was-auch-immer etwas näher ranrücken, dann passt das Diagonale-Sitzabstand-Verhältnis auch wieder. |
||||||||||||||||
Hardrock82
Inventar |
#1136 erstellt: 16. Mai 2010, 12:59 | |||||||||||||||
Also mein Kumpel meint das Spiele in 720p auf seinem W2000, (mit PS3) immer noch etwas schärferdetailierter aussehen,als Games in 1080p. [Er hat dies mal mit BC2/CoDMW1/GTA4 verglichen.] Seinem Test dazu habe ik unten mit einem
Gut war ja auch ein Phillips von der ersten HDReady Gen. da kann man nicht viel erwarten.
Dies stimmt,aber manchmal wünscht man sich echt'ne stabilere Bildauflösung. Denn die CoDMW1/2 Games sind ja auch bekannt durch ihre Bugs.
*Das mit der Auflösung hat jetzt mein Kumnpel mal überprüft. Wenn bei Anzeigeeinstellung (HDMI) auf AUTO eingest. ist sucht sich ja die PS3 die bestmögliche Auflösung aus. (Und dies war ja bei mir eingest.,daher habe ik mich auch gewundert warum GTA 4 von der PS3 nur mit 720p ausgegeben wurde.) Wenn man aber nur 720p/1080p einstellt bleibt die Auflösung so,es sei den die PS3 scaliert mal (bsp.CoDMW2) nach unten dann,kanns so wie du's schon erwähnt hast auch mal unter 720p gehen. Und ik zocke schon seit über 20Jahren da lass ik mir von niemanden das zocken versauen,aber ärgern tuts einen dann doch wenn man viel Geld ausgiebt und nicht das bekommt was die Entwickler bzw. Hersteller angeben.
Das Probblem bei Plasmas scheint ebend zusein,wie lange hält das schöne Bild nach 10.000 Zocker Stunden. (Da ik am WE viel zocke,gehen dann schon einige Stunden ins Land.) Laut Panas. soll das GW10 Model aber über 30 Jahre die gleiche Bildqualität hergeben. Ob das stimmt,kann ik mir echt nicht vorstellen,gerade im hinblick auf das was ik von dir und Lostprophets schon gelesen habe.
Ja das kenne ich,ich bin auch am überlegen bsp.obs sich nochmal lohnt Matrix Trilogy auf BD zu kaufen da man ja heutzutage die DVDs nicht mehr los wird.
Das Bild ist bei SD/BDs auch astrein,aber zum zocken ist das Ding echt nicht geeignet. Wie OnkelOne in einem Halo3 Röhre-Sam.A656 Inputlag vergleich schon erwähnt hatte.
Ja preislich gibts da schon unterschiede. Ist der Unterschied zwischen 200Hz und 600Hz sehr gross?
Also hab nochmal gemesssen,sind 2,5m Sofa-TV. Das mit dem normalen SD hat sich sowieso bald erledigt da ik ja auf HDTV dann umsteige. Aber ik denke mal bei 2,5m müssten 46" bestimmt reichen. |
||||||||||||||||
Lostprophet85
Stammgast |
#1137 erstellt: 16. Mai 2010, 13:22 | |||||||||||||||
@Hardrock82: Nur nochmal kurz zusammengefasst: Wie mysqueedlyspoochhurts bereits sagte, gibt dir die Info-Taste deines TVs keine Information darüber, in welcher Auflösung das Spiel eigentlich berechnet wird (also nativ läuft), sondern lediglich darüber, welche Auflösung am TV ankommt. Dann gibt es immernoch mehrere Varianten: 1. Info: 1080p 1a Spiel läuft in 1080p, wird nicht skaliert (am besten und unwahrscheinlichsten) 1b Spiel läuft in einer niedrigeren Auflösung (muss nicht 720p sein) und wird von der Konsole auf 1080p hochskaliert 2. Info: 720p 2a Spiel läuft in 720p, wird unskaliert von der Konsole ausgegeben und der TV skaliert es selbst auf 1080p 2b Spiel läuft in einer noch niedrigeren Auflösung als 720p, wird von der Konsole auf 720p skaliert und im TV anschließend auf 1080p skaliert (schlechtester Fall) Du siehst also, du kannst mittels Info-Taste keine genaue Aussage treffen. Prinzipiell musst du dich daran gewöhnen, dass fast kein Spiel in 1080p läuft. Ich hoffe mal, dass das verstärkt in der nächsten Generation kommt, aber PS3 und 360 sind dafür zu schwach. GTAIV läuft übrigens auch nicht in 720p auf der PS3, kannst du ja in der Liste nachschauen. Das sieht man dem Spiel aber auch deutlich an meiner Meinung nach.
Die Panasonic-Technologie liefert definitiv keine Bildwiederholfrequenz von 600Hz! Ich seh' die Teile mindestens genauso flimmern wie alle anderen 100Hz-Plasmas. Gemäß Panasonics Beschreibung vermute ich eher, dass ein Frame in mehrere Teilbilder zerlegt wird und diese für die Zwischenbildberechnung hinzugezogen werden (und auch einzeln gezählt werden, obwohl sie zu einem Frame gehören), um die Interpolationsfehler zu minimieren. Um deine eigentliche Frage zu beantworten: Da du sehr lagempfindlich bist, und selbst der Z4500 bei aktivierten 200Hz (MotionFlow) bis zu 31ms an Lag hat, stellt sich bei dir nur die Frage, ob du zum Filme schauen diese Zwischenbildberechnung brauchst (denn zocken wirst du wohl eh immer im lagfreien Gamemodus). Nutzt du bei deinem Samsung die 100Hz-Funktion?
Meiner Meinung nach ja. Ich sitze ja selbst so 2,5m weg (bei nur 40"), und 46" sind in meinen Augen eine traumhafte Größe für diesen Abstand, wenn nicht zuviel SD-Material geschaut wird. MfG Lostprophet
Da muss ich aber etwas widersprechen. Es ist zwar richtig, dass Grafik mehr als nur Auflösung ist, aber insbesondere Modern Warfare 2 sah schon zum Launch ziemlich angestaubt aus meiner Meinung nach. Mal abgesehen von der niedrigen Auflösung (die mich ziemlich stört, weil das Spiel verglichen mit anderen Titeln regelrecht unscharf aussieht), ist die Grafik auch sonst nicht das Wahre. An keine Textur kann man nah herangehen, da wird es echt gruselig, ebenso wie die Vegetation aus Sprites besteht, wie schon in GTAIII. Und selbst mit Effekten wird ziemlich gegeizt finde ich, das hat man alles schon besser gesehen. Das Einzige, womit sich diese Serie rüsten kann, sind die 60fps (die aber leider auch nicht konstant sind). Rein objektiv betrachtet haben es die Jungs technisch in meinen Augen nicht wirklich drauf, aber durch die wirklich guten Animationen und die authentische Farbgebung entsteht dennoch ein Look, der beeindruckend aussieht, auch wenn die meisten Einzelkomponenten Mist sind. Insofern gebe ich dir teilweise Recht, aber das Maß aller Dinge ist MW2 zumindest bei Weitem nicht. Spiele wie Uncharted 1&2 oder auch Gears of War 2 spielen da grafisch in einer ganz anderen Liga. MfG Lostprophet |
||||||||||||||||
MarcWessels
Inventar |
#1138 erstellt: 16. Mai 2010, 13:52 | |||||||||||||||
|
||||||||||||||||
Lostprophet85
Stammgast |
#1139 erstellt: 16. Mai 2010, 14:04 | |||||||||||||||
Das ist sicher richtig. Aber was bringt es einem, bei einer 1080p-Blu-ray alle Details zu sehen, wenn das insgesamt vielleicht nur 15% der Nutzung ausmacht, und man sich den Rest der Zeit mit niederwertigem Quellmaterial herumärgert und sich einen kleineren Fernseher oder besseren Scaler wünscht? Ich spreche aus Erfahrung wenn ich sage, dass ich auf 2,5m zum Zocken der gängigen 720p-Konsolenspiele maximal einen 46er haben wollte, da alles darüber Augenkrebs verursacht dank des verbreiteten Kantenflimmerns und Pixelei. Da sollte man dann schon das Gesamtbild sehen, nicht nur Einzelaspekte. Wie ich bereits schrieb, wir leben in einer von Kompromissen geprägten Übergangszeit. MfG Lostprophet |
||||||||||||||||
MarcWessels
Inventar |
#1140 erstellt: 16. Mai 2010, 14:12 | |||||||||||||||
Das mit den Kompromissen musst Du einem Linebleeding- und Nachleuchtgeplagtem LG-Besitzer nicht erklären. |
||||||||||||||||
mysqueedlyspoochhurts
Inventar |
#1141 erstellt: 16. Mai 2010, 16:44 | |||||||||||||||
Afaik ist der Scaler der PS3 bei Games auch nicht so der Hit - DVDs liegen ihm wohl deutlich mehr, zumindest liest man das sehr oft. Manche Spiele mit einer Auflösung <720p sind auch noch blöd programmiert und skalieren doppelt - im ersten Schritt auf 720p, und erst dann nochmal auf 1080p. Kann mir daher schon vorstellen, dass bestimmte Games auf der PS3 deutlich besser aussehen, wenn sie auf 720p gestellt ist und der TV das Upscaling auf 1080p übernimmt. Aber 720p sind keinesfalls generell schärfer als 1080p - nativ schon gar nicht, und ansonsten hängt´s wie gesagt einfach davon ab, welcher Scaler besser arbeitet.
30 Jahre sind (einigermaßen normale und regelmäßige Nutzung vorausgesetzt, versteht sich) natürlich völlig utopisches Marketing-Gelaber - nach dieser Zeit ist aber auch bei jedem LCD das Backlight völlig hinüber, und auch Röhrenfernseher haben nur noch ein absolut gruseliges Bild, wenn sie denn überhaupt noch angehen... Sofern ein moderner Plasma 5 Jahre trotz intensiver Games-Nutzung relativ unbeschadet überstehen sollte, wäre ich schon so weit zufrieden... die Zeiten, in denen man über 10 Jahre lang vor ein und derselben Glotze saß, sind sowieso vorbei, dafür entwickelt sich die Technik mittlerweile zu rasant weiter.
Habe ich auf DVD und HDDVD - lohnt sich eindeutig, sieht hochaufgelöst nochmal deutlich besser aus. Die BDs stammen meines Wissens wie bei Warner üblich vom gleichen Master wie die HDDVDs, daher müssten sie qualitativ identisch sein. Bei allen anderen Fragen schließe ich mich den Antorten von Lostprophet an. Außer dass ich bei 2,5m wahrscheinlich schon mit mindestens einem Auge nach 52" schielen würde, da BluRays dann erst richtig genial rüberkommen und die meisten Games trotz eventuellem Kantenflimmern (sieht natürlich immer nervig aus, man gewöhnt sich aber irgendwann daran ;)) ebenfalls. Aber ein 46"er wäre momentan gerade bei überwiegender Nutzung als Zocker-TV sicher vernünftiger, insofern schließe ich mich auch da letztendlich irgendwo seinen Ausführungen an...
Zu MW2 kann ich mich ehrlich gesagt gar nicht wirklich äußern, da ich das Game noch nicht habe... Ich bezog mich auf MW1, das ich immer noch als eines der insgesamt am besten aussehenden Games überhaupt in Erinnerung habe... ist aber auch schon ein bisschen her, dass ich es gezockt habe. Ich ging dann einfach davon aus, dass MW2 mindestens dasselbe grafische Niveau erreicht wie der Vorgänger. Kann natürlich sein, dass das einerseits ein bisschen naiv war und andererseits MW1 nach heutigen Maßstäben auch nicht mehr DAS Grafikwunder schlechthin ist. Ansonsten gehöre ich halt zu den Leuten, denen ein gelungenes Artdesign wesentlich wichtiger ist als technische Brillianz. Z.B. Borderlands halte ich aufgrund seines außergewöhnlichen Cell-Shading-Stils auch für eines der hübschesten Games zur Zeit, obwohl es in Sachen Texturschärfe und anderen Teilaspekten (z.B. manche Animationen sehen ziemlich komisch aus, Tearing ist gelegentlich vorhanden, etc.) die eine oder andere teils deutliche Schwäche offenbart. Auch Kantenflimmern kann ich ab einem bestimmten Punkt so weit ausblenden, dass es mich einfach nicht mehr stört und ich es auch so gut wie gar nicht mehr wahrnehme. Das ist mir sogar kürzlich bei dem (ansonsten zumindest aus der Fan-Perspektive sehr guten ;)) Remake von Chronicles of Riddick: Escape from Butcher Bay gelungen, obwohl das wirklich allerübelst flimmert wie Seuche... sogar wenn man einfach stehen bleibt und sich die Kamera wegen der Atmung der Hauptfigur ein klein wenig bewegt, flimmern die Kanten dabei deutlich, und vor allem meist auch noch sehr hell. DAS war quasi der absolute Härtetest - wenn sich mein Gehirn nicht nach der sehr quälenden ersten halben Stunde endlich dran gewöhnt und das allgegenwärtige Geflimmer weitestgehend ausgeblendet hätte, hätte ich wohl aufhören müssen, da wirklich akuteste Augenkrebsgefahr bestand.
Ich dachte, du sitzt vor einem 50"er Pana S10, hat sich da zwischenzeitlich schon wieder was geändert? Wie sollst du denn als Versuchskarnickel für den wichtigen Plasma-Einbrenn-Zocker-Langzeittest taugen, wenn du ständig das Gerät wechselst? |
||||||||||||||||
Hardrock82
Inventar |
#1142 erstellt: 16. Mai 2010, 17:16 | |||||||||||||||
Bin nur in sachen Ego Shooter sehr Lag entpfindlich bei andere Games wie U2 störts mich eigentlich nicht Online. (hm..??) Meine 100Hz habe ich jetzt nur noch bei DS und bei BDs kucken an. Den dort brings wenigstens was. Bsp: bei Fussball da sieht man mit 100Hz wirklich weniger ruckeln als ohne.
Ich schaue eigentlich nur gute Sender P7/RTL/SAT1 und da ich ja sowieso bald auf HDTV umsteige brauche ik mich in der Hinsicht,keine Sorgen mehr machen. Mal sehen wie teuer der KDL46Z4500 überall so ist und dann kucke ik auch nachm Preis vom 52" und vergleiche das mal mit dem TXP50GW10 und werd mich dann entscheiden. [Beitrag von Hardrock82 am 16. Mai 2010, 17:18 bearbeitet] |
||||||||||||||||
MarcWessels
Inventar |
#1143 erstellt: 16. Mai 2010, 18:14 | |||||||||||||||
|
||||||||||||||||
Hardrock82
Inventar |
#1144 erstellt: 17. Mai 2010, 14:05 | |||||||||||||||
Na du hast ja Geld. Schenkste mirn Z4500? 46" reicht. |
||||||||||||||||
Lostprophet85
Stammgast |
#1145 erstellt: 17. Mai 2010, 14:16 | |||||||||||||||
Ich meinte das mit den Kompromissen zwar in einer anderen Beziehung, aber das ist natürlich genauso wahr.
Ist das nicht bildtechnisch ein Rückschritt? Die 2008er LGs hatten sogar einen schlechteren Schwarzwert als die meisten LCDs und waren auch in anderer Hinsicht nicht so toll, hat sich das in den letzten zwei Jahren so stark verändert? MfG Lostprophet |
||||||||||||||||
MarcWessels
Inventar |
#1146 erstellt: 17. Mai 2010, 15:10 | |||||||||||||||
Der Fortschritt war in punkto Schwarzwert nicht so groß wie erhofft. Bin im Ergebnis auf dem Level eines S10 nach dessen erster Schwarzwertbugstufe, aber immerhin 27% besser als mein S10 nach 800 Stunden, der ja nach 1200 Stunden noch schlechter geworden wäre. Nachleuchten ist ein Problem, vor allem, da der LG hell nachleuchtet, während der S10 dunkel nachleuchtete. Bleeding gab es beim S10 erst bei ganz starken Kontraten, beim LG trott das leider schon auf, wenn hinter einer Person z.B. eine Fensterrahmen ist. Zudem habe ich zwei Pixelfehler. Aber: - der Farbraum ist akkurat - die Bewegungsdarstellung durch den dreimal so schnellen Phosphor deutlich schärfer - keinerlei Mikroruckler bei 24p (der S10 hatte so alle zwei Minuten einen Minischluckauf) - 20point-Kalibrierung, der mir die (zeitaufwenige) Möglichkeit gibt, den LG quasi punktgenau auf Studiomonitorniveau zu bringen - 50 Zoll |
||||||||||||||||
Lostprophet85
Stammgast |
#1147 erstellt: 17. Mai 2010, 15:16 | |||||||||||||||
Ok, verstehe. Mikroruckler bei 24p sind für mich auch ein K.O.-Kriterium, die wollte mir der LG-Blu-ray-Player BD370 auch andrehen, aber nicht mit mir Sieht man aus 1,79m (oder wie war deine Entfernung?) nicht ständig die beiden Pixelfehler? Dann hat sich LG also doch ganz schön gemacht, nicht schlecht. MfG Lostprophet |
||||||||||||||||
MarcWessels
Inventar |
#1148 erstellt: 17. Mai 2010, 16:13 | |||||||||||||||
Habe noch zwei Vorteile gegenüber dem Panasonic vergessen: 1. Kein Lichtschwerteffekt, wenn Taschenlampen in die Kamera leuchten 2. Viel feineres PWM-Rauschen! Sonst könnte man auf diesen Abstand garnicht vernünftig gucken. Selbst ein 60-Zöller wird da wohl immer noch ein tolles Bild liefern können. Wenn ich mir natürlich so den 50 Zoll S10 meines Bruders angucke, hätte ich mit meinem Nutzerverhalten noch bis Mitte Oktober tiefres Schwarz gehabt als ich jetzt mit dem LG habe und hätte erst ab dann im Vergleich mit einem LG profitieren können, aber was soll's, alles oberhalb 0,028 cd/m2 stört sowieso in Balde Runner und Co., also hoffe ich, dass 2011 alles besser wird. |
||||||||||||||||
Cosmo82
Ist häufiger hier |
#1149 erstellt: 17. Mai 2010, 19:57 | |||||||||||||||
Wie sieht es eigentlich beim KDL-46EX402 mit dem input lag aus? Habe da noch keine zuverlässigen Infos gefunden. Hat das jemand schon gemessen? |
||||||||||||||||
Lostprophet85
Stammgast |
#1150 erstellt: 18. Mai 2010, 19:14 | |||||||||||||||
Auf hdtvtest.co.uk wurde der KDL-32EX403 mit 40ms in allen Modi gemessen, ohne jetzt die Unterschiede zwischen den Modellen zu kennen würde ich einfach mal vermuten, dass das auf den 402 ebenfalls zutreffen könnte (die Diagonale spielt ja eh keine Rolle). MfG Lostprophet |
||||||||||||||||
MarcWessels
Inventar |
#1151 erstellt: 18. Mai 2010, 22:02 | |||||||||||||||
40 plus die 30 des Referenzgeräts? |
||||||||||||||||
|
|
Das könnte Dich auch interessieren: |
Sony Bravia KDL-32EX500 Input lag Problem! Instant-Classic am 24.12.2010 – Letzte Antwort am 25.12.2010 – 3 Beiträge |
Sony Bravia KDL-EX725 Input Lag? CrocType am 20.10.2011 – Letzte Antwort am 10.08.2012 – 4 Beiträge |
Input Lag Sony TV Z4YN am 06.06.2020 – Letzte Antwort am 06.06.2020 – 3 Beiträge |
Welche Sony BRAVIA serie? Alpacino80 am 20.12.2009 – Letzte Antwort am 20.12.2009 – 5 Beiträge |
Sony Bravia KDL-32EX705 Firmware Update und Input Lag Mystery123 am 22.09.2010 – Letzte Antwort am 27.09.2010 – 6 Beiträge |
Sony KDL-42EX410 Input Lag? zyntax am 15.09.2012 – Letzte Antwort am 15.09.2012 – 3 Beiträge |
Input lag Pomgo am 05.08.2011 – Letzte Antwort am 10.08.2011 – 3 Beiträge |
Input Lag Sony KDL46x4500 Daten *Fidelity* am 26.11.2009 – Letzte Antwort am 16.12.2009 – 13 Beiträge |
Sony xe93 / extrem hohes Input-lag manu9589 am 04.12.2017 – Letzte Antwort am 06.12.2017 – 6 Beiträge |
46 W5500, input lag biersackus am 23.11.2009 – Letzte Antwort am 09.01.2010 – 3 Beiträge |
Anzeige
Produkte in diesem Thread
Aktuelle Aktion
Top 10 Threads in Sony der letzten 7 Tage
- Sony 55XH9005 ausgeprägte dunkle Ecken
- KDL-75W855C blinkt 6 mal rot
- Sony 2023 MiniLED X95L 65", 75", 85"
- Haben Sony-TV bei Kauf eine Display-Schutzfolie?
- Sony 2017 XE93 55"/65" mit DolbyVision
- KDL-55W805C - LED blinkt 6 mal rot - Totalschaden
- APPs installieren KD-65XF7005
- Sony: Bildeinstellungen erklärt oder "das perfekte Bild"
- XH90 / XH92 Settings Thread
- Netflix-App auf Sony-Bravia gibt IMMER 5.1 aus
Top 10 Threads in Sony der letzten 50 Tage
- Sony 55XH9005 ausgeprägte dunkle Ecken
- KDL-75W855C blinkt 6 mal rot
- Sony 2023 MiniLED X95L 65", 75", 85"
- Haben Sony-TV bei Kauf eine Display-Schutzfolie?
- Sony 2017 XE93 55"/65" mit DolbyVision
- KDL-55W805C - LED blinkt 6 mal rot - Totalschaden
- APPs installieren KD-65XF7005
- Sony: Bildeinstellungen erklärt oder "das perfekte Bild"
- XH90 / XH92 Settings Thread
- Netflix-App auf Sony-Bravia gibt IMMER 5.1 aus
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder927.760 ( Heute: 1 )
- Neuestes Mitgliedgordonwilloughby
- Gesamtzahl an Themen1.556.430
- Gesamtzahl an Beiträgen21.658.633