Frage zu HD Ready 1080i, Xbox und Scaling

+A -A
Autor
Beitrag
b0mMeL
Schaut ab und zu mal vorbei
#1 erstellt: 30. Jul 2010, 13:40
Hallo Leute..

Ich weiss das zig Themen mit diesen Begriffen im Internet verbreitet sind.. und ja ich habe mich durch hunderte durchgelesen und hoffe das ich es jetzt auch richtig verstanden habe (ich bitte um korriegierung)..

-> ACHTUNG: Ich erkläre hier Dinge nur um zu wissen ob ich es richtig verstanden habe, das ist also kein Leitfaden der Richtigkeit!)

Also erstmal zum Sachverhalt:

Ich habe einen Samsung LE32A457 und eine Xbox mit HDMI Eingang aus dem Jahre 2008

Techn. Daten LCD-TV:

-> HDReady mit 720p und der Möglichkeite digitale Eingänge auf realen 1080i zu schauen.
-> 50Hz

Über meine Xbox spiele ich Games und DVDs ab.

Nun meine Fragen zur Anzeigeneinstellung auf der Xbox.

1. Es besteht die Möglichkeit zwischen 480p, 720p, 1080i und 1080p einzustellen. JEDE Einstellung ist anwählbar und jede Einstellung hinterlässt keine Bildfehler nach aktivierung

-> Ich weiss das mein TV bei der Einstellung 1080p keine wirklichen 1080p darstellt, heißt soviel das mein TV in der Lage ist sie zu verarbeiten und auf die Auflösung des Panels zu reduzieren, aber nicht originalgetreu dazustellen (was ja klar, weil ich eben kein FULL HD besitze). - Habe ich das richtig verstanden

Somit macht es also keinen Sinn diese Einstellung (1080p) an der Xbox vorzunehmen, weil ich einfach keinen Full HD LCD habe und mein TV dann unnötiger weise rechnen muss was Einbußungen an der Perfomance bedeutet.. - Richtig?

2. Da mein TV anhand der techn. Beschreibung in der Lage ist 1080i darzustellen, dürfte es doch auch kein Problem sein wenn ich die Xbox auf 1080i einstelle oder nicht? Das heißt wenn ein Game wie bspws. Forza 3 1080i unterstützt und meine Xbox auf 1080i eingestellt ist, müsste ich doch in den vollen Genuss von 1080i kommen ohne das mein TV jede Sekunde etwas neu berechnen muss bezogen auf die Darstellung - richtig? Also ist 1080i in dem Falle besser als 720p?

-> Bevor ich zu Frage 3 übergeh, bitte ich diese nur von Leuten beantworten zu lassen, die auch wirklich 100%tige Ahnung von dieser Materie haben, weil mich unwissende Belehrungen ankotzen.. das musste ich mir einfach zu genüge mittlerweile antun als ich per google auf Foren gestoßen bin um mehr zu erfahren als Mitleser.

3. Da mein TV auch 720p wiedergeben kann, wirds da ja sowieso keine Probleme geben...

Nun der kontroverse Vergleich zwischen 720p und 1080i... Aufgrund langer Recherche durch Foren gibt es hier meiner Meinung nach irgendwie nur ''ist besser, ist schlechter''..

1) Bei 720p ist es ja so das die Auflösung proggresiv dargestellt wird. Heißt also es sind VOLLBILDER. Wenn man die Hertz mit einbezieht, z.b. 50Hz, heißt es doch so viel das dann jede Sekunde 50 VOLLBILDER dargestellt werden mit einer Auflösung von 720p. -> 720p50

Vorteil -> Bei Bewegungslastigen Filmen, Spielen whatever verläuft das Bild für das menschliche Auge sehr flüssig, dennoch in einer Auflösung von 720p.

2) Bei 1080i ist die Auflösung 1920x1080. ABER da es sich bei 1080i nur um Halbbilder (Interlaced) handelt, ist es rein technisch gesehen natürlich nicht so gut wie 1080p. Fakt ist das die Auflösung die gleiche ist, aber im Prinzip werden nur 1920x540 Bilder dargestellt. Der Rest bestehe aus Halbbildern (die restlichen 540) somit ->1080i25 (25 = Hertz)

-> In einer Sekunde werden also 540 Bildreihen (vertikal) und nicht 1080dargestellt.

Ist dieser Gedankengang richtig?

Vorteil -> Höhere Auflösung als 720p
Nachteil -> ABER aufgrund der Halbbilder sind Spiele, Filme whatever mit viel Hektik und hoher Bewegunslast etwas unruhiger im Bild, da die Darstellung der Bilder nicht progessiv erfolgt.

Also ist der Unterschied zwischen Interlaced und Progressive nicht ein Unterschied der Auflösung und somit der Anzeigedarstellung SONDERN ein Unterschied der Bewegungsdarstellung, sobald das Bild anfängt sich zu verändern.

-> Deshalb ist 1080i auch schöner bei Filmen, Spielen, die nicht viel Hektik und Bewegung darstellen. Z.B. Tierdokus usw.

------------------------------------------------

Jetzt meine eigentliche Fragen...

1. Kann man überhaupt sagen OB es besser ist wenn ich meine DVDs auf der Xbox in 720p oder in 1080i schaue? Hochrechnen muss man die DVDs so oder so wobei bei 720p der Rechnungsweg ja kürzer sein müsste, da 720p weniger Bildpunkte zu berechnen hat, als 1080i oder nicht? Dennoch ist bei 1080i die Auflösung wieder höher

2. IST es besser wenn ich Spiele, die 1080i UNTERSTÜTZEN mit einer 1080i Einstellung an der Xbox spiele anstatt mit einer 720p Einstellung? Im Prinzip ist der Nachteil ja nur, wenn im Spiel viel Bewegung herrscht, wie ich oben schon bei Vor- und Nachteilen beschrieben habe...

3. Kann mir jemand den Begriff Scaling nochmal erklären, bezogen auf LCD HD Technik? Z.b. wenn ich eine DVD auf der Xbox schaue was da passiert und ob da 720p besser als 1080i sind bezogen auf Scaling.

4. Ende^^

Danke


[Beitrag von b0mMeL am 30. Jul 2010, 13:43 bearbeitet]
hgdo
Moderator
#2 erstellt: 30. Jul 2010, 14:26
Dein Fernseher hat eine Auslösung von 1366x768 Pixeln. Da die Xbox diese Auflösung nicht ausgeben kann, muss im Fernseher immer umgerechnet (skaliert) werden.

Vergleiche das Bild bei 720p, 1080i und 1080p und wähle, was dir am besten gefällt. Siehst du keinen Unterschied, ist es eh wurscht.
hagge
Inventar
#3 erstellt: 01. Aug 2010, 22:52

b0mMeL schrieb:
-> Ich weiss das mein TV bei der Einstellung 1080p keine wirklichen 1080p darstellt, heißt soviel das mein TV in der Lage ist sie zu verarbeiten und auf die Auflösung des Panels zu reduzieren, aber nicht originalgetreu dazustellen (was ja klar, weil ich eben kein FULL HD besitze). - Habe ich das richtig verstanden

Soweit richtig.


Somit macht es also keinen Sinn diese Einstellung (1080p) an der Xbox vorzunehmen, weil ich einfach keinen Full HD LCD habe und mein TV dann unnötiger weise rechnen muss was Einbußungen an der Perfomance bedeutet.. - Richtig?

Nicht unbedingt, aber höchtwahrscheinlich. Wenn Du die höhere Auflösung an der XBox einstellst und diese auch wirklich ihre Spiele dann in dieser Auflösung errechnet, dann muss die XBox natürlich deutlich mehr Daten berechnen als in 720p. Der Fernseher rechnet das Bild dann wieder auf seine Auflösung herunter. Das ist i.a. ein unnötiger Rechenaufwand, der speziell dann fatal wird, wenn die XBox dann nicht mehr stark genug ist, um die volle Framerate einzuhalten. Dann wäre 720p sicher die bessere Einstellung.

Aber es kann tatsächlich sein, dass ein Bild, das von einer höheren Auflösung heruntergerechnet wird, wirklich besser aussieht, als ein natives Bild gleich in der Zielauflösung. Denn die hohe Auflösung stellt mehr Daten zur Verfügung und bietet darum beim Herunterrechnen eine Art Oversampling (mehrere Samples pro Pixel). Dadurch können Bildpunkte gemittelt werden, was i.a. Rauschen reduzieren hilft. Will man z.B. ein Bild mit einem Scanner für einen 600dpi-Drucker einscannen, ist das Ergebnis meist besser, wenn man mit höchstmöglicher Auflösung scannt und dann mit einem guten Grafikprogramm auf 600dpi reduziert, als wenn man gleich mit 600dpi scannt.

Insofern *könnte* es sogar sein, dass bei 1080p trotz der notwendigen Umrechnungen dennoch eine minimal bessere Bildqualität heraus kommt. Da aber ja das Bild bei Computerspielen sowieso rauschfrei ist, bringt das Oversampling vermutlich nicht wirklich was und das Ergebnis wird kaum unterschiedlich zu 720p sein.

Was aber evtl. eine gravierende Rolle spielt: 1080p am TV bedeutet 1080p24, d.h. es werden 24 Vollbilder pro Sekunde angezeigt. Denn das ist das Format von BluRays, die 1:1 das Kinobild übernehmen, also 24fps. Für 720p stehen aber bis zu 50 Vollbilder zur Verfügung. Wenn die XBox also 50fps bei 720p berechnet und nur 24fps bei 1080p, dann ist 720p definitiv die bessere Einstellung, da es weniger ruckelt.


2. Da mein TV anhand der techn. Beschreibung in der Lage ist 1080i darzustellen, dürfte es doch auch kein Problem sein wenn ich die Xbox auf 1080i einstelle oder nicht? Das heißt wenn ein Game wie bspws. Forza 3 1080i unterstützt und meine Xbox auf 1080i eingestellt ist, müsste ich doch in den vollen Genuss von 1080i kommen ohne das mein TV jede Sekunde etwas neu berechnen muss bezogen auf die Darstellung - richtig? Also ist 1080i in dem Falle besser als 720p?

Hier liegst Du nun leider falsch. 1080i heißt, dass 25 Vollbilder aus je zwei Halbbildern zusammengesetzt werden, von denen jedes in 1/50s übertragen wird. Wenn das Bild nun von einem Computerspiel kommt, werden wohl nur 25 Vollbilder pro Sekunde berechnet und diese dann in je zwei Halbbilder zerlegt und übertragen. Der TV setzt im Idealfall die beiden Halbbilder wieder zu einem Vollbild zusammen und zeigt somit 25 Vollbilder an. Gängiger wird jedoch sein, dass der TV immer jeweils zwei aufeinander folgende Halbbilder benutzt und daraus über ein sog. De-Interlacing 50 Vollbilder berechnet, die also sozusagen immer wieder Mischbilder aus zwei Halbbildern sind, die gar nicht zusammen gehörten.

Tatsache ist, dass der TV also letztendlich wieder 25 oder 50 Vollbilder sieht, die er wiederum auf die native Displayauflösung runterrechnen muss. Hier vermeidest Du also ebenfalls nicht die Skalierung!!!


1) Bei 720p ist es ja so das die Auflösung proggresiv dargestellt wird. Heißt also es sind VOLLBILDER. Wenn man die Hertz mit einbezieht, z.b. 50Hz, heißt es doch so viel das dann jede Sekunde 50 VOLLBILDER dargestellt werden mit einer Auflösung von 720p. -> 720p50

Auch das ist richtig.


Vorteil -> Bei Bewegungslastigen Filmen, Spielen whatever verläuft das Bild für das menschliche Auge sehr flüssig, dennoch in einer Auflösung von 720p.

Und jetzt wird es wieder ungenau. Denn jetzt hängt es von der Bildquelle ab.

Filme auf DVD stammen von Kinofilmen ab, d.h. sie sind mit 25 Bildern pro Sekunde abgespeichert. Dazu kommt, dass sie nur eine Auflösung von 576 Zeilen haben, also deutlich unter 720p liegen. Hier hat man also weder 50 Bilder pro Sekunde zur Verfügung, noch die volle 720-Zeilenauflösung. Hier wird als immer skaliert und die 50fps werden auch nicht genutzt. Man hat also trotz Actionfilm diesen Vorteil der höheren zeitlichen Auflösung von 720p50 trotzdem nicht.

Nutzt man eine BluRay, dann ist dort i.a. der Film in 1080p24 drauf. Also muss mühselig nach 720p umgerechnet werden. Letztendlich hat man also eine Skalierung schon im BD-Player und die 50fps werden auch nur durch Vervielfachung der Frames erreicht, also indem manche Bilder mehrfach angezeigt werden.

Nutzt man jedoch einen HDTV-Receiver und schaut ARD oder ZDF, dann wird dort tatsächlich mit 720p gesendet. Aber auch hier gibt es Einschränkungen: nur die selbstproduzierten Sendungen sind auch in diesem Format aufgenommen, also z.B. einige Sportsendungen oder Wetten Dass o.ä. Alle Spielfilme stammen wieder von 1080p24 und werden mühselig nach 720p umgerechnet und andere Sportereignisse (z.B. internationale Ereignisse wie die Fußball-WM) stammen von 1080i und werden mühselig nach 720p umgerechnet.

Hat man ein Computerspiel, könnte es tatsächlich sein, dass dort 50 verschiedene Bilder pro Sekunde berechnet werden. Das wäre dann eine der wenigen Bildquellen, wo die 50fps tatsächlich Sinn machen.


2) Bei 1080i ist die Auflösung 1920x1080. ABER da es sich bei 1080i nur um Halbbilder (Interlaced) handelt, ist es rein technisch gesehen natürlich nicht so gut wie 1080p. Fakt ist das die Auflösung die gleiche ist, aber im Prinzip werden nur 1920x540 Bilder dargestellt. Der Rest bestehe aus Halbbildern (die restlichen 540) somit ->1080i25 (25 = Hertz)

Jein. Wenn die Quelle des 1080i-Bildes ein Film war, dann können wieder genau zwei Halbbilder zum Vollbild zusammengesetzt werden. Dann hat man genau die gleiche Auflösung wie bei 1080p. Aktuelle gute Fernseher können das erkennen und zeigen dann echte 1080p25 an. War die Quelle eine echte 1080i-Bildquelle, also z.B. eine Fernsehkamera im Fußballstadion, dann sind die Halbbilder tatsächlich verschieden, man hat also 50 Halbbilder, zu denen es kein Partnerhalbbild gibt. Aber dann baut der Deinterlacer im Fernseher daraus 50 Full-HD-Vollbilder zusammen, indem er mehr oder weniger gut die Halbbilder vermischt. Damit hat man also auch wieder Full-HD-Bilder.

Insofern liegst Du eigentlich falsch, wenn Du meinst, der Fernseher würde in diesem Fall Bilder mit 540 Zeilen anzeigen und müsse nichts umrechnen. Nein, es werden auf jeden Fall auch bei 1080i immer Full-HD-Bilder erkannt, die heruntergerechnet werden müssen.


-> In einer Sekunde werden also 540 Bildreihen (vertikal) und nicht 1080dargestellt.

Nein, genau das passiert nicht.


Also ist der Unterschied zwischen Interlaced und Progressive nicht ein Unterschied der Auflösung und somit der Anzeigedarstellung SONDERN ein Unterschied der Bewegungsdarstellung, sobald das Bild anfängt sich zu verändern.

Das wiederum kann man so sagen. Aber die Bewegungsauflösung wäre dann bei 1080i eher besser als bei 1080p, aber nur, weil es kein 1080p50 gibt, sondern nur 1080p24. Während 1080i dann 50 verschiedene Halbbilder pro Sekunde liefert und damit nach dem Deinterlacer 50 verschiedene Vollbilder. Damit hat 1080i die *höhere* zeitliche Auflösung. Bei echten 50fps-Quellen könnte hingegen 720p das bessere Signal liefern, weil wir jetzt echte 720 Zeilen pro Bild haben, was evtl besser aussieht als 1080 Zeilen, die aus zwei nicht zusammengehörenden Halbbildern zusammengemischt wurden.


1. Kann man überhaupt sagen OB es besser ist wenn ich meine DVDs auf der Xbox in 720p oder in 1080i schaue? Hochrechnen muss man die DVDs so oder so wobei bei 720p der Rechnungsweg ja kürzer sein müsste, da 720p weniger Bildpunkte zu berechnen hat, als 1080i oder nicht? Dennoch ist bei 1080i die Auflösung wieder höher

Es gibt die rein mathematische Theorie. Da mag man vielleicht sagen können, was theoretisch besser sein müsste. Aber in der Praxis kommt es stark auf die Implementierung an.

Gerade die Skalierung ist hier ein Problem. Man kann z.B. ein Bild vergrößern, indem man manche Zeilen doppelt und manche eben nur einfach anzeigt. Das funktioniert halbwegs gut, wenn das Zielbild möglichst fast doppelt so groß ist. Je näher aber die Zielbildauflösung bei der Quellbildauflösung liegt, desto unschöner ist dieses Skalierungsverfahren, weil wenn nur wenige Zeilen doppelt vorhanden sind, fällt das schon recht deutlich auf. So ist gerade die Umrechnung der 720 Zeilen des 720p-Bildes auf die 768 Zeilen des Fernsehers ein echtes Problem, weil gerade mal 48 Zeilen doppelt gezeigt werden müssten, was man tatsächlich als 48 Streifen im Bild sehen kann.

Man kann aber auch Skalieren, indem man das Bild in das Frequenzspektrum umrechnet, dort skaliert und dann wieder in das Pixelspektrum zurückrechnet. Dann kann auch so eine Skalierung um wenige Zeilen mehr ganz gut funktionieren. Aber das Rechenverfahren ist natürlich ungleich aufwendiger.

Das heißt je nachdem, was der Fernseher für eine Skalierung implementiert hat, kann eine solche Skalierung ganz gut aussehen oder auch nicht.


2. IST es besser wenn ich Spiele, die 1080i UNTERSTÜTZEN mit einer 1080i Einstellung an der Xbox spiele anstatt mit einer 720p Einstellung? Im Prinzip ist der Nachteil ja nur, wenn im Spiel viel Bewegung herrscht, wie ich oben schon bei Vor- und Nachteilen beschrieben habe...

Nur wenn die XBox diese Spiele dann auf der 720p-Einstellung auch mehr FPS anzeigen kann. Dann würde ich in der Tat 720p vorziehen, da es dort weniger ruckelt.


3. Kann mir jemand den Begriff Scaling nochmal erklären, bezogen auf LCD HD Technik? Z.b. wenn ich eine DVD auf der Xbox schaue was da passiert und ob da 720p besser als 1080i sind bezogen auf Scaling.

Die DVD wird von der XBox von 576 Zeilen auf 720 oder 1080 Zeilen hochgerechnet und der Fernseher muss das wieder auf 768 Zeilen runterrechnen. Ob da nun 720 Zeilen als Zwischenmodus besser sind oder 1080, das musst Du wirklich ausprobieren.

Ein Full-HD-Fernseher hat es da einfacher. Entweder man schickt das 576-Signal in den TV, dann muss dieser auf 1080 Zeilen skalieren, oder man lässt den DVD-Player auf 1080i hochrechnen (sofern er das kann, aber das geht ja heute oft, wenn man DVDs im BD-Player anschaut), dann muss der TV gar nicht mehr umrechnen. Welche der beiden Varianten man wählt, hängt schlichtweg davon ab, welches der beiden Geräte den besseren Skalierungsalgorithmus implementiert hat. Hat man nicht wirklich hochwertige Wandler (z.B. einen sehr guten BD-Player oder sonstige externe Formatwandler), wird man meist den Fernseher die Wandlung machen lassen. Aber auf jeden Fall kann man bei einem Full-HD-Gerät erreichen, dass nur einmal von 576 direkt auf 1080 Zeilen gerechnet wird und nicht wie in Deinem Fall zwei Umrechnungen über ein Zwischenformat notwendig sind. Zudem ist 1080 tatsächlich schon fast das Doppelte von 576, so dass selbst ein einfache Skalierungsalgorithmus schon gut aussieht. Das ist eben der Vorteil, den der Full-HD-Fernseher hat.

Lange Rede kurzer Sinn: Letztendlich läuft es genau auf das hinaus, was hgdo gesagt hat: probier es aus und entscheide dann selbst, welche Variante Dir am besten gefällt. Es gibt einfach zu viele Faktoren, so dass man nie genau sagen kann, dieses oder jenes ist das Beste. Man muss es ausprobieren. Und dabei sogar noch mit den verschiedenen Bildparametern spielen.

Gruß,

Hagge
b0mMeL
Schaut ab und zu mal vorbei
#4 erstellt: 02. Aug 2010, 16:39
Vielen vielen dank für die ausführliche Antwort genau sowas habe ich gesucht

Also werd ich das nun einfach subjektiv entscheiden was mir besser gefällt.. Technik hin oder her
Fudoh
Inventar
#5 erstellt: 02. Aug 2010, 21:39

Bei echten 50fps-Quellen könnte hingegen 720p das bessere Signal liefern, weil wir jetzt echte 720 Zeilen pro Bild haben, was evtl besser aussieht als 1080 Zeilen, die aus zwei nicht zusammengehörenden Halbbildern zusammengemischt wurden.

das ist sogar definitiv so. Bei Videospielen, bei denen Du von konstanter Bewegung im Spiel ausgehen kannst, entsprechen die 1080i praktisch einer Auflösung von 540p. Bleibt dann zwar noch die größere horizontale Auflösung (1920 -> 1366 statt 1280 -> 1366), aber da die meisten Spiele intern ja ohnehin mit maximal 1280x720 berechnet werden, würde ich behaupten, dass für Videospiele progressive Formate (in diesem Fall 720p) immer vorzuziehen sind.

Grüße
Tobias
hagge
Inventar
#6 erstellt: 03. Aug 2010, 09:55

Fudoh schrieb:
aber da die meisten Spiele intern ja ohnehin mit maximal 1280x720 berechnet werden

Wenn das so ist, ist das ein weiteres der sowieso schon vielen Mosaiksteinchen, die es bei der Betrachtung der Bildqualität zu beachten gibt. Ich bin bisher immer davon ausgegangen, dass die Konsolen in der nativen Auflösung rechnen. Rein rechnerisch sollte das gehen, da sie ja bei 720p 50fps berechnen müssten und bei 1080i nur 25fps und bei 1080p gar nur 24fps. Das müsste also von der Rechenpower her vergleichbar sein. Wenn sie aber nicht mal in der nativen Auflösung rechnen, gelten ja gleich wieder ganz andere Regeln.

Ihr seht, ich besitze keine solche Spielkonsole, darum kann ich hier nicht aus meiner eigenen Erfahrung berichten.

Gruß,

Hagge


[Beitrag von hagge am 03. Aug 2010, 09:57 bearbeitet]
pm2025
Neuling
#7 erstellt: 06. Aug 2010, 19:47

hgdo schrieb:
Dein Fernseher hat eine Auslösung von 1366x768 Pixeln. Da die Xbox diese Auflösung nicht ausgeben kann, muss im Fernseher immer umgerechnet (skaliert) werden.


Blödsinn, naklar kann die Xbox 1366x768 ausgeben! Habe ich gerade nachgeschaut! ausserdem sollte bei der Xbox nur das höchst mögliche anwählbar sein was der Monitor/Fern. ausgeben kann! also in seinem Fall 1366x768.

Warum sie das nicht macht, mhh keine Ahnung sollte sie aber eig. nicht!
hagge
Inventar
#8 erstellt: 09. Aug 2010, 08:57

pm2025 schrieb:
Blödsinn, naklar kann die Xbox 1366x768 ausgeben! Habe ich gerade nachgeschaut! ausserdem sollte bei der Xbox nur das höchst mögliche anwählbar sein was der Monitor/Fern. ausgeben kann! also in seinem Fall 1366x768.

Warum sie das nicht macht, mhh keine Ahnung sollte sie aber eig. nicht!

Weil der Fernseher selber auch sagt, was er verarbeiten kann und was nicht. Da geben aber gerade ältere Fernseher, die "nur" HD-Ready sind, durchaus nur die üblichen Fernsehauflösungen aus. Das heißt der Fernseher sagt der X-Box schlichtweg nicht, dass er nur 1366x768 an Auflösing hat, weil er diese Auflösung am Eingang vermutlich tatsächlich nicht verarbeiten kann. Er skaliert also tatsächlich *immer*.

Hagge
Suche:
Das könnte Dich auch interessieren:
720p oder 1080i bei 1368x768 HD-Ready
mokko2007 am 16.01.2008  –  Letzte Antwort am 22.01.2008  –  5 Beiträge
hd ready.
tahiri07 am 15.03.2009  –  Letzte Antwort am 15.03.2009  –  2 Beiträge
Auflösung 1080i = ?
Sturmhai am 14.12.2009  –  Letzte Antwort am 19.02.2010  –  9 Beiträge
Full HD oder HD-Ready?
Wolf_R. am 28.01.2008  –  Letzte Antwort am 29.01.2008  –  6 Beiträge
HD Ready oder Full HD?
Moritz16 am 23.11.2008  –  Letzte Antwort am 24.11.2008  –  3 Beiträge
Full HD oder HD READY
psychoo2 am 05.10.2007  –  Letzte Antwort am 05.10.2007  –  2 Beiträge
Ist mein LCD HD Ready?
Raidn am 15.12.2005  –  Letzte Antwort am 18.12.2005  –  20 Beiträge
LCD TV 1080x720 Frage zum Scaling
Micha1000 am 09.12.2004  –  Letzte Antwort am 10.12.2004  –  5 Beiträge
Was bedeutet Full HD (HD-Ready 1080p) ?
Vertikal am 23.12.2008  –  Letzte Antwort am 23.12.2008  –  2 Beiträge
wirklich hd ready ???
Henner_2 am 09.05.2006  –  Letzte Antwort am 09.05.2006  –  3 Beiträge
Foren Archiv
2010

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.900 ( Heute: 2 )
  • Neuestes Mitgliedhaydenmacdowell
  • Gesamtzahl an Themen1.556.851
  • Gesamtzahl an Beiträgen21.666.730

Hersteller in diesem Thread Widget schließen