Gehe zu Seite: |vorherige| Erste Letzte

Diskussion über HDMI-Kabel

+A -A
Autor
Beitrag
Onbekend
Inventar
#51 erstellt: 01. Mai 2017, 20:18

Forenjunkie (Beitrag #3955) schrieb:
Und wieso steht hier was von 4K 24p 10Bit und NUR 4:4:4
wenn die Blurays mit 4:2:0 gemastert sind?

Ihr dürft etwas nicht durcheinander bringen:
- Das Farbformat der Quelle.
- Das Farbformat bei der Übertragung vom Player zum TV.
- Das Farbformat mit dem intern der Prozessor rechnet.
- Das Farbformat das tatsächlich angezeigt wird.

Auch bei der normalen Bluray ist nur 4:2:0 abgespeichert.
Diese Quelle durchläuft ganz viele Bearbeitungsschritte, bis es angezeigt wird.
Beispiel:
Von dem Bluray-Format (1920x1080, 24 Hz, 8-bit, 4:2:0 Farbcodierung) wird beim A1 3840x2160, 10-bit, RGB und je nach MotionFlow Einstellung sogar 96 Hz.
Was dazwischen passiert ist mitunter recht kompliziert.
Und welches Gerät welchen Zwischenschritt in der Konvertierung übernimmt ist die spannende Frage.


[Beitrag von Onbekend am 01. Mai 2017, 20:25 bearbeitet]
CharleySay's
Stammgast
#52 erstellt: 01. Mai 2017, 20:30
Ich finde in dem Beitrag wird es sehr gut beschrieben (englisch)

http://www.acousticfrontiers.com/uhd-101-v2/

LG Charleyy
hmt
Inventar
#53 erstellt: 01. Mai 2017, 20:30
Jetzt versucht er seine Blödsinn im Nachhinein zurechtzubiegen und auch noch nebenbei Nachzutreten. Typisch.
Dass alte Kable mit 4K und HDR zu 95% nicht laufen ist weiterhin falsch. Die Kategorie High speed gibt es schon lange und die funktioniert. Erst recht wenn nur zB 2m zurückgelegt werdne müssen.


[Beitrag von hmt am 01. Mai 2017, 20:33 bearbeitet]
Onbekend
Inventar
#54 erstellt: 01. Mai 2017, 20:34

zukosan (Beitrag #3956) schrieb:
Aaaaalso gehen wir ganz zum Anfang.

[...]

HDMI Signal ist Digital. Da gibt es nur 1 oder 0. Kein Bildrauschen wie bei analog, was schlechte Abschirmung bedeutet.

[...]

Also als Fazit nochmal: Es kann nicht jedes HDMI Kabel, alles durchschleusen, was der aktuelle Stand der 2.0 Technik ist.

Hmmmm....

tut mir leid, zukosan... gestatte mir hier eine Bemerkung: du hast immer noch nicht beschrieben, was am Kabel anders sein soll. Du hast die Anforderungen an das Kabel beschrieben, die mir vorher sehr klar und bekannt waren. Du hast aber leider noch nicht beschrieben, was am Kabel anders ist, wenn die Abschirmung keine Relevanz haben sollte (sind die Drähte dicker, anderes Material, oder oder oder?).

Also... auch ein Kabel, das digitale Signale überträgt, benötigt eine Abschirmung. Ganz klar. Nehme als Beispiel Netzwerkkabel. Selbstverständlich haben sie eine Abschirmung, und je höher die Bandbreite, für die sie spezifiziert sind, desto besser die Abschirmung.

Die von mir oben angegebene Kabeltypen gab es bereits als HDMI 1.4 spezifiziert wurde. (Bis auf die Kabel, die das Premium HDMI Cable Certification Program durchlaufen sind.)
In der von dir angegebene Burosch Quelle wird außerdem klar wiederholt, was ich gesagt habe.

Interessant wird es erst bei den Chips, die das Signal verarbeiten müssen, und diese müssen zum Standard spezifiziert sein und sind tatsächlich anders.


[Beitrag von Onbekend am 01. Mai 2017, 20:41 bearbeitet]
hmt
Inventar
#55 erstellt: 01. Mai 2017, 20:39
Und wie gesagt ist ein Beweis, dass man mit irgendwelchen uralt Kabeln auch am PC einen 4K Monitor mit 4:4:4 und 60Hz betreiben kann. Das reizt nämlich hdmi 2.0 ebenso aus wie HDR mit 4:2:0.
Onbekend
Inventar
#56 erstellt: 01. Mai 2017, 20:44
Bezüglich Planet Earth II:
habe gerade nachgeschaut... das Material ist 10 bit, 4:2:0 Kodierung, 24 FPS.
Schöne Grüße.
Forenjunkie
Inventar
#57 erstellt: 01. Mai 2017, 20:57

Onbekend (Beitrag #3957) schrieb:

Forenjunkie (Beitrag #3955) schrieb:
Und wieso steht hier was von 4K 24p 10Bit und NUR 4:4:4
wenn die Blurays mit 4:2:0 gemastert sind?

Ihr dürft etwas nicht durcheinander bringen:
- Das Farbformat der Quelle.
- Das Farbformat bei der Übertragung vom Player zum TV.
- Das Farbformat mit dem intern der Prozessor rechnet.
- Das Farbformat das tatsächlich angezeigt wird.

Auch bei der normalen Bluray ist nur 4:2:0 abgespeichert.
Diese Quelle durchläuft ganz viele Bearbeitungsschritte, bis es angezeigt wird.
Beispiel:
Von dem Bluray-Format (1920x1080, 24 Hz, 8-bit, 4:2:0 Farbcodierung) wird beim A1 3840x2160, 10-bit, RGB und je nach MotionFlow Einstellung sogar 96 Hz.
Was dazwischen passiert ist mitunter recht kompliziert.
Und welches Gerät welchen Zwischenschritt in der Konvertierung übernimmt ist die spannende Frage.

Also dass der A1 die Auflösung auf die nativen 4K des Panels skaliert ist klar, aber aus einem 8Bit Farbraum wird nicht automatisch ein ECHTER 10 Bit Farbraum nur weil der A1 10Bit kann. Klar, "kann" der A1 das mit der X Reality Engine, ob das aber wirklich immer so sinnig ist darüber lässt sich streiten. Dieser Farbraum Skalierung, die Sony ja als großes Feature verkauft, stehe ich eher skeptisch gegenüber. Da kommt es zwangsläufig auch zu Farbverschiebungen im negativen Sinne. Sprich Farben die bei der Aufnahme korrekt aufgenommen und sich auch auf dem Medium (z.B. einer 8 Bit Bluray) befunden haben werden "verfälscht" wiedergegeben und das sehe ich nicht unbedingt als Feature an. Einiges mag damit "besser" (bunter) aussehen, aber definitiv nicht alles.

Deshalb wäre es mir auch wichtig, dass z.B. eine 4K 24p 10Bit 4:2:0 Bluray auch mit genau dieser Kodierung vom Player zum TV übertragen und dort dementsprechend angezeigt wird. Ohne jegliche Konventierung oder Umkodierung. Daher finde ich das jetzt schon wieder merkwürdig, dass in der HMDI 2.0 Spezifikation nur was von 4:4:4 bei 4k 24p 10Bit steht...


[Beitrag von Forenjunkie am 01. Mai 2017, 21:11 bearbeitet]
Dannyboy1984
Stammgast
#58 erstellt: 01. Mai 2017, 21:02
Blöde Frage, aber lässt sich pauschal sagen was jetzt am besten wäre hinsichtlich der Farbunterabtastung? Oder ist dies nur ein Merkmal und es gibt kein besser oder sonst was?

Okay, dass sagt wikipedia:

https://de.wikipedia.org/wiki/Farbunterabtastung

Wenn Speicherplatz egal wäre, wäre also 4:4:4 (wo keine stattfindet) bei der höchsten Bitrate (z.B. 16Bit) das Beste richtig? Aber der dafür aufzubringende Speicherplatz wäre zu riesig. Also spart man den Platz mit z.B. 4:2:0 für 4K50/4K60 und z.B. 10 Bit.


[Beitrag von Dannyboy1984 am 01. Mai 2017, 21:19 bearbeitet]
zukosan
Hat sich gelöscht
#59 erstellt: 01. Mai 2017, 21:15

hmt (Beitrag #3961) schrieb:
Und wie gesagt ist ein Beweis, dass man mit irgendwelchen uralt Kabeln auch am PC einen 4K Monitor mit 4:4:4 und 60Hz betreiben kann. Das reizt nämlich hdmi 2.0 ebenso aus wie HDR mit 4:2:0.


Lass doch einfach dein primitves Halbwissengepöbel einfach. Okay? Es nervt langsam... Danke!

Onbekend, die HDMI Kabel sind innerlich unterschiedlich aufgebaut. Wie genau soll ich es dir denn noch erklären? In einem werden die neueren, hochwertigeren Leiterkabel genutzt, welche eine höhere Bandbreite durchlassen und in älteren halt nicht.

Wenn Eure Theorie stimmen würde, warum gibt es dann 5 verschiedene, offizielle Standards die bei HDMI Kabeln gekauft werden können? Wenn es nach Euch geht, müsste es ja gar keine Bezeichnung mehr geben bei den Kabeln, da ja alle für alles funktionieren. Dann bräuchte man kein Schild mit High-Speed oder eins mit extra ARC etc.

Erklärt mir doch dann mal bitte das. Kann ja nun auch mal dann gegenfragen, als durchgehend von einem HMT hier bepöbelt zu werden.

Dann erklärt mir doch mal, warum alle Kabel für alle Standards funktionieren sollen und warum es dann nicht nur ein einziges gelabelt gibt. Einfach die ganze Zeit sagen "Is aber so" kann ich auch machen. Nun erklärt mir das doch mal, warum.

Wie gesagt, am meisten interessiert mich Eure Erklärung, warum es dann "Standard, Standard Ethernet, Standard Automotive, High-Speed und High-Speed Ethernet" gibt. Sollte ja jedes Kabel, jeden Alters dann können oder? Gibt ja keine Unterschiede nach Eurer Auffassung.
chrisly77
Stammgast
#60 erstellt: 01. Mai 2017, 21:23
Leute - langsam wird´s nervig. Führt Eure Kabeldiskussionen doch bitte in einem anderen Thread.

Hier geht´s um den A1.
Danke!
zukosan
Hat sich gelöscht
#61 erstellt: 01. Mai 2017, 21:24

chrisly77 (Beitrag #3966) schrieb:
Leute - langsam wird´s nervig. Führt Eure Kabeldiskussionen doch bitte in einem anderen Thread.

Hier geht´s um den A1.
Danke!

Grumbler
Inventar
#62 erstellt: 01. Mai 2017, 21:25

Dannyboy1984 (Beitrag #3964) schrieb:
Blöde Frage, aber lässt sich pauschal sagen was jetzt am besten wäre hinsichtlich der Farbunterabtastung? Oder ist dies nur ein Merkmal und es gibt kein besser oder sonst was?

Ja, bei 4:4:4 ist die Farbe Pixelgenau, ebenso wie die Helligkeit (immer). Helligkeit ist der erste Wert.

Jetzt kommt noch dazu, dass die meisten TVs die Bildbearbeitung auch nur in 4:2:0 abfrühstücken und - wenn überhaupt - nur in speziellen Modi wie "PC" oder "Grafik" 4:4:4 wirklich auf den Schirm bringen.
Also pixelgenaue Farbe.
Dann aber ohne Videoprozessing, also z.B. wie Zwischenbildberechnung.
Keine Ahnung wie es der A1 macht, aber HDTVtest testet das z.B. mit.

Am Ende ist 4:2:0 praktisch das was wir im Moment fürs Heimkino haben.
zukosan
Hat sich gelöscht
#63 erstellt: 01. Mai 2017, 21:27

Grumbler (Beitrag #3968) schrieb:

Dannyboy1984 (Beitrag #3964) schrieb:
Blöde Frage, aber lässt sich pauschal sagen was jetzt am besten wäre hinsichtlich der Farbunterabtastung? Oder ist dies nur ein Merkmal und es gibt kein besser oder sonst was?

Ja, bei 4:4:4 ist die Farbe Pixelgenau, ebenso wie die Helligkeit (immer). Helligkeit ist der erste Wert.

Jetzt kommt noch dazu, dass die meisten TVs die Bildbearbeitung auch nur in 4:2:0 abfrühstücken und - wenn überhaupt - nur in speziellen Modi wie "PC" oder "Grafik" 4:4:4 wirklich auf den Schirm bringen.
Also pixelgenaue Farbe.
Dann aber ohne Videoprozessing, also z.B. wie Zwischenbildberechnung.
Keine Ahnung wie es der A1 macht, aber HDTVtest testet das z.B. mit.

Am Ende ist 4:2:0 praktisch das was wir im Moment fürs Heimkino haben.



So isses.
hgdo
Moderator
#64 erstellt: 01. Mai 2017, 21:52

zukosan (Beitrag #3915) schrieb:
GANZ schlimmes Halbwissen... allein der Schwachsinn die Bezeichnung wurde verboten. Der Typ hat null Ahnung.

Du solltest vor dem Posten mal anfangen zu denken und dich besser zu informieren.

1. Der verlinkte Beitrag vom Kollegen Passat ist von 2015 und daher nicht mehr ganz aktuell. Zum damaligen Zeitpunkt war er aber korrekt.

2. Im Dokument "What are the rules for referencing HDMI version numbers?", nachzulesen bei hdmi.org, steht: "Effective January 1, 2012, when marketing an HDMI Product, any references to HDMI version numbers is prohibited." Hast du eine bessere Übersetzung für "prohibited" als "verboten"?

3. Die 5 genannten, zulässigen Bezeichnungen für HDMI-Kabel sind unverändert gültig. Um sicher zu stellen, dass Kabel die Ansprüche an die Bandbreite von HDMI 2.0b erfüllen, wurde ein Zertifizierungs- und Testprogramm für High Speed HDMI Kabel eingeführt. Entsprechend zertifizierte Kabel dürfen dann als Premium High Speed HDMI Kabel bezeichnet werden.


[Beitrag von hgdo am 01. Mai 2017, 22:05 bearbeitet]
zukosan
Hat sich gelöscht
#65 erstellt: 01. Mai 2017, 21:57
Edit by hgdo: lass doch bitte diese überflüssigen Komplettzitate!

Und WAS sage ich anderes? Hier wurde Passats Aussage als AKTUELL richtig betitelt. NUR darum gehts. Und Punkt 3 bestätigt MEINE Aussage und leider nicht die von HMT, der meint jedes Kabel sei für alles geeignet. Was totaler Quatsch ist. Aber danke für die Bestätigung.

Ich nehme gerne die Aussage Passats gegenüber zurück. Aber bestätigt, dass HMT keine Ahnung hat, wenn er es heute noch für bare Münze zählt.


[Beitrag von hgdo am 01. Mai 2017, 22:03 bearbeitet]
hmt
Inventar
#66 erstellt: 01. Mai 2017, 22:00
Falsch, denn es bedeutet eben NICHT dass es neue Kabel gibt und NICHT, dass die alten prinzipiell nicht funktionieren. Netter versuch, deinen Unsinn im Nachhinein zu rechtfertigen, aber eben immer noch falsch.
hmt
Inventar
#67 erstellt: 01. Mai 2017, 22:04
Passats Quelle ist immer noch richtig, es gibt keine neuen Kabel nur für hdmi 2.0.
Und genau darum geht es, die alten Kabel funktionieren bei kurzen Distanzen so gut wie immer, die Premium Kategorie bedeutet lediglich, dass sie getestet wurden. Dies bedeutet nicht, dass jedes alte Kabel mit HDR und 4K nicht funktioniert. Meine Kabel hier sind ein Bespiel.
Zertifizierung != neue Kabel. Ganz einfach.


[Beitrag von hmt am 01. Mai 2017, 22:05 bearbeitet]
zukosan
Hat sich gelöscht
#68 erstellt: 01. Mai 2017, 22:04

hmt (Beitrag #3973) schrieb:
Falsch, denn es bedeutet eben NICHT dass es neue Kabel gibt und NICHT, dass die alten prinzipiell nicht funktionieren. Netter versuch, deinen Unsinn im Nachhinein zu rechtfertigen, aber eben immer noch falsch.


Ich lass es. Jemand der nicht ein einziges mal mit Fakten kommen kann, ist nicht mehr beachtenswert. Das wars von mir zu dir. Wer nicht eine Frage beantworten kann und macht nur n Kasperletheater...

Deine Argumente haben noch nicht ein einzigen technischen Hintergrund erklärt, die deine Aussage im Ansatz bestätigen würde. Aber geht ja eh nicht.

Also Prost und verbreite ruhig weiter deinen angelesenen Quatsch.
hmt
Inventar
#69 erstellt: 01. Mai 2017, 22:06
Na, das sagt ja der Richtige. Hier am Stück Bullshit posten, sich den kriecherisch vorm Mod zurechtbiegen und dann auch noch behaupten anderen erzählen unsinn.
Der technische Hintergrund wurde dir von mir und anderen bereits x mal erklärt, wenn du zu dämlich bist das zu verstehen ist das nicht meine Schuld.


[Beitrag von hmt am 01. Mai 2017, 22:07 bearbeitet]
hgdo
Moderator
#70 erstellt: 01. Mai 2017, 22:08
Und noch ein Zitat von hdmi.org:

Can existing HDMI cables support the higher bandwidths of HDMI 2.0 Specification?
Yes, existing High Speed HDMI Cables (wire only) will support the new higher bandwidths (up to 18Gbps).

Link

High Speed Kabel sind demnach für 18 GBps ausgelegt. Es gibt für HDMI 2.0 keine neuen Kabel.
zukosan
Hat sich gelöscht
#71 erstellt: 01. Mai 2017, 22:14

hgdo (Beitrag #3978) schrieb:
Und noch ein Zitat von hdmi.org:

Can existing HDMI cables support the higher bandwidths of HDMI 2.0 Specification?
Yes, existing High Speed HDMI Cables (wire only) will support the new higher bandwidths (up to 18Gbps).

Link

High Speed Kabel sind demnach für 18 GBps ausgelegt. Es gibt für HDMI 2.0 keine neuen Kabel.


Puuuuuuuuuh, dir erzähl ich es gern nochmal. Es gab schon HighSpeed Zertifizierung BEVOR es laaaaange 2.0 gab. Diese HighSpeeds konnten maximal 10,2GBit durchleiten.

Seit 2.0 sind die HighSpeed Kabel nun für 18Gbit tauglich. Die Mindestanforderung der Spezifikationen der HighSpeed Zertifizierung hat sich geändert. Der Standard für "HighSpeed" wurde von HDMI erhöht. In einem Jahr wird es immer noch maximal HighSpeed geben, dann können diese aber schon knapp 30Gbit durchleiten bei 2.1!

2014 musste ein Kabel 10Gbit können um HighSpeed genannt zu werden.
2016 musste ein Kabel 18Gbit können um HighSpeed genannt zu werden.

Es wird immer nur HighSpeed heißen, um die Kunden nicht zu verwirren. Gab vor knapp 3 Jahren einen ausführlich Bericht darüber von den Verantwortlichen.
hgdo
Moderator
#72 erstellt: 01. Mai 2017, 22:15
Jetzt beruhigt euch mal wieder und unterlasst bitte die persönlichen Angriffe.
Ich werde jetzt die ganze Diskussion, da hier absolut offtopic, herauslösen und in einen separaten Thread packen.
hgdo
Moderator
#73 erstellt: 01. Mai 2017, 22:49

zukosan (Beitrag #50) schrieb:
Also als Fazit nochmal: Es kann nicht jedes HDMI Kabel, alles durchschleusen, was der aktuelle Stand der 2.0 Technik ist.


Sorry, den Beitrag habe ich erst jetzt beim Verschieben gelesen. Was du dort und im letzten Beitrag schreibst, ist richtig.

Die Anforderungen an High Speed Kabel wurden angehoben. Mit älteren Kabeln kann man Glück haben, man kann aber nicht erwarten, dass 18 Gbit fehlerfrei übertragen werden.

Im Handel dürften eigentlich nur noch aktuelle High Speed Kabel verkauft werden. Aber die meisten Händler werden gar nicht wissen, dass es einen Unterschied gibt und ihre Restposten auch nicht aussortieren oder umbenennen.

Wer sicher sein will, sollte daher zum Premium High Speed Kabel greifen.
hmt
Inventar
#74 erstellt: 01. Mai 2017, 22:52

zukosan (Beitrag #71) schrieb:

hgdo (Beitrag #3978) schrieb:
Und noch ein Zitat von hdmi.org:

Can existing HDMI cables support the higher bandwidths of HDMI 2.0 Specification?
Yes, existing High Speed HDMI Cables (wire only) will support the new higher bandwidths (up to 18Gbps).

Link

High Speed Kabel sind demnach für 18 GBps ausgelegt. Es gibt für HDMI 2.0 keine neuen Kabel.


Puuuuuuuuuh, dir erzähl ich es gern nochmal. Es gab schon HighSpeed Zertifizierung BEVOR es laaaaange 2.0 gab. Diese HighSpeeds konnten maximal 10,2GBit durchleiten.

Seit 2.0 sind die HighSpeed Kabel nun für 18Gbit tauglich. Die Mindestanforderung der Spezifikationen der HighSpeed Zertifizierung hat sich geändert. Der Standard für "HighSpeed" wurde von HDMI erhöht. In einem Jahr wird es immer noch maximal HighSpeed geben, dann können diese aber schon knapp 30Gbit durchleiten bei 2.1!

2014 musste ein Kabel 10Gbit können um HighSpeed genannt zu werden.
2016 musste ein Kabel 18Gbit können um HighSpeed genannt zu werden.

Es wird immer nur HighSpeed heißen, um die Kunden nicht zu verwirren. Gab vor knapp 3 Jahren einen ausführlich Bericht darüber von den Verantwortlichen.


Nein, da steht, dass alte Kabel weiter verwendet werden können (existing hdmi cables). Das ist auch richtig so, denn eine strengere Zertifizierung bedeutet nicht, dass alle schon vorhanden Kabel nicht mehr mit HDR funktionieren. Bei geringen Längen wird dies der Regelfall sein, dank 20% Overhead in der Bandbreite gibt es da in der Praxis kaum Probleme. Kritisch wird es mit den Zertifizierungen bei langen Kablen, die an die Grenzen der Spezifikation gehen.


[Beitrag von hmt am 01. Mai 2017, 23:01 bearbeitet]
Onbekend
Inventar
#75 erstellt: 02. Mai 2017, 05:30

Forenjunkie (Beitrag #57) schrieb:
Also dass der A1 die Auflösung auf die nativen 4K des Panels skaliert ist klar, aber aus einem 8Bit Farbraum wird nicht automatisch ein ECHTER 10 Bit Farbraum nur weil der A1 10Bit kann. Klar, "kann" der A1 das mit der X Reality Engine, ob das aber wirklich immer so sinnig ist darüber lässt sich streiten.

Es verhält sich genau wie mit dem Skalieren. Nur weil es skaliert ist, ist es kein echtes 4K.

Dieser Farbraum Skalierung, die Sony ja als großes Feature verkauft, stehe ich eher skeptisch gegenüber. Da kommt es zwangsläufig auch zu Farbverschiebungen im negativen Sinne. Sprich Farben die bei der Aufnahme korrekt aufgenommen und sich auch auf dem Medium (z.B. einer 8 Bit Bluray) befunden haben werden "verfälscht" wiedergegeben und das sehe ich nicht unbedingt als Feature an. Einiges mag damit "besser" (bunter) aussehen, aber definitiv nicht alles.

"Im negativen Sinne" ist die große Frage und durchaus für manche zu bestreiten. Allein eine Kontrastanpassung verändert das Bild abweichend vom Medium / von der Quelle. Und wenn das Bild danach für mich hübscher aussieht, ist das für mich ein Plus, definitiv kein Minus.
Übrigens: auch wenn die Kamera mit 8-bit aufgenommen hätte (was es wahrscheinlich nicht getan hat), durchläuft die Aufnahme diverse Anpassungen und Veränderungen durch. Die "echte 8-bit Farbe" kommt auf das Medium eh nicht so an.

Deshalb wäre es mir auch wichtig, dass z.B. eine 4K 24p 10Bit 4:2:0 Bluray auch mit genau dieser Kodierung vom Player zum TV übertragen und dort dementsprechend angezeigt wird. Ohne jegliche Konventierung oder Umkodierung. Daher finde ich das jetzt schon wieder merkwürdig, dass in der HMDI 2.0 Spezifikation nur was von 4:4:4 bei 4k 24p 10Bit steht...

Tut es wohl ganz offensichtlich nicht. Deswegen ist es wichtig, dass der Player einen guten Prozessor hat... Bluray Player ist nicht gleich Bluray Player. Wenn der Player einen guten Prozessor hat, ist das nicht unbedingt ein Nachteil. Die Konvertierung auf 4:4:4 muss eh stattfinden.

Übrigens, hier noch ein weiterer Aspekt: Die Bildinformationen auf der Bluray sind noch nicht mal mit der vollen 8-Bit Bandbreite codiert... die Werte zwischen 0 und 16 sind nämlich ausgespart, genauso wie zwischen 240 (glaube ich) bis 256.
Wie das bei der UHD Bluray ist, weiß ich nicht.


[Beitrag von Onbekend am 02. Mai 2017, 06:06 bearbeitet]
pa-freak2
Hat sich gelöscht
#76 erstellt: 02. Mai 2017, 06:28
Ich verwende ebenso ein sehr altes hdmi kabel noch aus plasma zeiten und 4k funktioniert auf die 2m kabellänge bestens. (4:2:0 10bit)
hagge
Inventar
#77 erstellt: 02. Mai 2017, 07:00
Krass, wie das hier über HDMI abgeht.

Dabei ist es doch ganz einfach. Neue HDMI-Standards verlangen höhere Frequenzen. Nicht jedes Kabel kann jede Frequenz übertragen, aber das äußert sich nicht in geht/geht nicht, sondern mit zunehmender Länge nimmt die Dämpfung zu. Und ja, auch das Kabelmaterial selbst kann besser oder schlechter sein, zum Beispiel die Verdrillung der differenziellen Aderpaare, die Abschirmung zwischen den Aderpaaren, das Material und damit der Übergangwiderstand an den Steckern, usw. Bei hohen Frequenzen spielt sogar der Krümmungsradius eine Rolle. Es kann also sein, dass es klappt, wenn das Kabel gerade liegt und nicht mehr klappt, wenn das Kabel stark gebogen ist. Solche Dinge spielen bei diesen hohen Frequenzen einen Rolle.

Bei einem kurzen Kabel von 1 bis 2 m Länge ist die Dämpfung noch recht gering, da ist der größte Verlust an den Steckern selbst. Außerdem kann es natürlich gut sein, dass ein High-Speed-Kabel schon lange vor HDMI-2.0 verfügbar war. Wer so ein Kabel schon hat, hat natürlich auch mit HDMI 2.0 keine Probleme, erst recht nicht, wenn es ein kurzes Kabel ist. Insofern ist es schon möglich, was hmt sagt, dass das Kabel noch weiterhin funktioniert. Aber zukosan hat definitiv auch recht, nämlich dass man für die neuen Normen schon hochwertigere Kabel braucht. Ein Kabel, das zu Zeiten von HDMI 1.4 gefertigt wurde, muss bei HDMI 2.0 nicht mehr zwangsweise funktionieren. Und erst recht nicht mehr, wenn wir über HDMI 2.1 mit nochmal deutlich höheren Datenraten reden. Und ich wette mit hmt, dass sein Kabel mit 48 GBit-Signalen nicht mehr funktioniert, auch wenn es nur einen Meter lang ist. Da braucht es dann schon andere Kabeltechniken als noch zu HDMI-1.4-Zeiten. Und natürlich wird dieser Unterschied umso deutlicher, je länger das Kabel ist.


hmt (Beitrag #42) schrieb:
wenn auf der BR nur 4:2:0 enthalten sind, kann man es auch so übertragen. Klar, geht auch 444, in dem Fall übernimmt dann der Player das Chroma Upsampling.

Vor HDMI-2.0 *musste* der Player auf 4:2:2 oder 4:4:4 umrechnen, denn erst in HDMI-2.0 wurde 4:2:0 auf dem Kabel definiert, und das auch nur für die hochfrequenten Signale, also 50/60Hz. Das heißt auch jetzt muss ein BluRay-Player eine ganz stinknormale FullHD-BluRay auf 4:4:4 wandeln!!! Zumindest verlangt das der HDMI-Standard so. Dass die Geräte vielleicht in dieser Beziehung auch mal mehr konnten, als vom Standard verlangt war, und auch Formate mit niedrigerer Datenrate mit 4:2:0 übertragen können, ist eine andere Sache.


Forenjunkie (Beitrag #57) schrieb:
Also dass der A1 die Auflösung auf die nativen 4K des Panels skaliert ist klar, aber aus einem 8Bit Farbraum wird nicht automatisch ein ECHTER 10 Bit Farbraum nur weil der A1 10Bit kann. Klar, "kann" der A1 das mit der X Reality Engine, ob das aber wirklich immer so sinnig ist darüber lässt sich streiten. Dieser Farbraum Skalierung, die Sony ja als großes Feature verkauft, stehe ich eher skeptisch gegenüber. Da kommt es zwangsläufig auch zu Farbverschiebungen im negativen Sinne. Sprich Farben die bei der Aufnahme korrekt aufgenommen und sich auch auf dem Medium (z.B. einer 8 Bit Bluray) befunden haben werden "verfälscht" wiedergegeben und das sehe ich nicht unbedingt als Feature an. Einiges mag damit "besser" (bunter) aussehen, aber definitiv nicht alles.

Hier kommt wieder der alte Fehler durch: Bittiefe ist nicht mit Farbraum gleichzusetzen. Nur weil ein Film 10-Bit Bittiefe hat, muss er noch keinen anderen Farbraum nutzen. Das heißt ob auf dem Kabel mit 8, 10 oder 12 Bit übertragen wird, ist egal, der TV muss es *immer* auf seine Bittiefe umsetzen. Man konnte auch schon früher sog. Deep-Color mit 12-Bit pro Pixel übertragen, auch wenn der TV nur ein 8-Bit-Panel hatte. Deswegen war keine Farbe falsch.

Gruß,

Hagge
hmt
Inventar
#78 erstellt: 02. Mai 2017, 08:17
@ hagge

Es ist aber afaik keineswegs so gedacht, dass nun jeder Player schon das Upsampling vornehmen muss. Die 4:2:0 gibt es ja nur, weil sonst in bestimmten Konfigurationen die Bandbreite nicht ausreicht. Dass man nun auch FullHD im Player Upsamplen kann ist eher ein Nebeneffekt.
hagge
Inventar
#79 erstellt: 02. Mai 2017, 08:29
Nochmal: Bei HDMI-1.4 gab es kein 4:2:0 auf dem Kabel. Nie! Also *muss* der Player das auf 4:4:4 hochhieven.

Hagge
hmt
Inventar
#80 erstellt: 02. Mai 2017, 08:37
Hdmi 1.4 unterstützt 4:2:2 und 4:4:4. Afaik war ersteres der Standardübertragungsmodus.
hagge
Inventar
#81 erstellt: 02. Mai 2017, 08:48
Ja, oder eben 4:2:2. Aber das ändert nichts an der Tatsache, dass der Player das Signal anfassen und konvertieren musste. 4:2:0, was auf der Scheibe üblicherweise drauf ist, ging eben gerade nicht.

Gruß,

Hagge
Forenjunkie
Inventar
#82 erstellt: 02. Mai 2017, 10:35

Onbekend (Beitrag #75) schrieb:

Forenjunkie (Beitrag #57) schrieb:
Also dass der A1 die Auflösung auf die nativen 4K des Panels skaliert ist klar, aber aus einem 8Bit Farbraum wird nicht automatisch ein ECHTER 10 Bit Farbraum nur weil der A1 10Bit kann. Klar, "kann" der A1 das mit der X Reality Engine, ob das aber wirklich immer so sinnig ist darüber lässt sich streiten.

Es verhält sich genau wie mit dem Skalieren. Nur weil es skaliert ist, ist es kein echtes 4K.

Dieser Farbraum Skalierung, die Sony ja als großes Feature verkauft, stehe ich eher skeptisch gegenüber. Da kommt es zwangsläufig auch zu Farbverschiebungen im negativen Sinne. Sprich Farben die bei der Aufnahme korrekt aufgenommen und sich auch auf dem Medium (z.B. einer 8 Bit Bluray) befunden haben werden "verfälscht" wiedergegeben und das sehe ich nicht unbedingt als Feature an. Einiges mag damit "besser" (bunter) aussehen, aber definitiv nicht alles.

"Im negativen Sinne" ist die große Frage und durchaus für manche zu bestreiten. Allein eine Kontrastanpassung verändert das Bild abweichend vom Medium / von der Quelle. Und wenn das Bild danach für mich hübscher aussieht, ist das für mich ein Plus, definitiv kein Minus.
Übrigens: auch wenn die Kamera mit 8-bit aufgenommen hätte (was es wahrscheinlich nicht getan hat), durchläuft die Aufnahme diverse Anpassungen und Veränderungen durch. Die "echte 8-bit Farbe" kommt auf das Medium eh nicht so an.

Deshalb wäre es mir auch wichtig, dass z.B. eine 4K 24p 10Bit 4:2:0 Bluray auch mit genau dieser Kodierung vom Player zum TV übertragen und dort dementsprechend angezeigt wird. Ohne jegliche Konventierung oder Umkodierung. Daher finde ich das jetzt schon wieder merkwürdig, dass in der HMDI 2.0 Spezifikation nur was von 4:4:4 bei 4k 24p 10Bit steht...

Tut es wohl ganz offensichtlich nicht. Deswegen ist es wichtig, dass der Player einen guten Prozessor hat... Bluray Player ist nicht gleich Bluray Player. Wenn der Player einen guten Prozessor hat, ist das nicht unbedingt ein Nachteil. Die Konvertierung auf 4:4:4 muss eh stattfinden.

Übrigens, hier noch ein weiterer Aspekt: Die Bildinformationen auf der Bluray sind noch nicht mal mit der vollen 8-Bit Bandbreite codiert... die Werte zwischen 0 und 16 sind nämlich ausgespart, genauso wie zwischen 240 (glaube ich) bis 256.
Wie das bei der UHD Bluray ist, weiß ich nicht.

Ist mir schon klar, dass hochskaliertes 4K keinem echten 4K entspricht.
Ein hochskaliertes Bild sieht aber eigentlich immer besser aus als wenn die Original-Auflösung dargestellt wird.
Zumindest ist das bei SD zu Full-HD definitiv der Fall und ab einer gewissen Diagonalen und einem geringen Betrachtungsabstand wird das auch bei einer Skalierung von 2K zu 4K der Fall sein. Es findet also keine Verfälschung bzw. Verschlechterung des Originalbildes statt.

Klar, ist eine Kontrast Anhebung/Veränderung schon zu einem gewissen Maße eine Verfälschung des Bildes. Ich möchte auch gar nicht abstreiten, dass diese künstliche Erweiterung des Farbraumes oder gar künstliches HDR auch durchaus gut aussehen kann. Das Problem ist nur, dass es auch sehr schnell unnatürlich wirken kann. Z.B. wenn das Grün eines Rasens oder von Pflanzen, Holzfarben oder noch schlimmer Hautöne zu kräftig/gesättigt dargestellt werden. Ein blauer Himmel oder ein Sonnenuntergang der verschönert wurde fällt dagegen natürlich nicht so schnell negativ auf. Es kommt halt wirklich drauf an.
Natürlich entspricht das fertig gemasterte Bild auf einer Bluray wahrscheinlich im seltensten Fall dem was ursprünglich die Kamera einmal aufgenommen hat. Post-Produktion, CGI und co. lassen grüßen, aber ich möchte halt möglichst das Bild so sehen, wie z.B. der Regisseur es sich gedacht hat bzw. wie die das Bild gemastert wurde.

Vermutlich ist die Konvertierung der Farbcodierung da noch das geringste Übel, denn wenn wie du sagst der Prozessor und die Software des Players gut ist, wird man vermutlich keinen Unterschied im negativen Sinne feststellen. Den Punkt kann man vermutlich wirklich vernachlässigen.
Fuchs#14
Inventar
#83 erstellt: 02. Mai 2017, 10:42

Forenjunkie (Beitrag #82) schrieb:
Ein hochskaliertes Bild sieht aber eigentlich immer besser aus als wenn die Original-Auflösung dargestellt wird.

Nein, aber z. B. ein nicht skaliertes HD Bild bei 4k würde den Bildschirm nur zu 1/4 nutzen, der Rest wären schwarze Balken. Daher gibt es gar kein unskaliertes Bild wenn der TV eine höhere Auflösung als die Quelle hat.

Edit: ist aber OT, hat nix mit dem HDMI Kabelthema zu tun um das es hier geht


[Beitrag von Fuchs#14 am 02. Mai 2017, 10:48 bearbeitet]
hmt
Inventar
#84 erstellt: 02. Mai 2017, 11:20
Der Klassiker. Immer wieder nett zu sehen, dass viele nicht wissen, was Skalierung bedeutet.
Forenjunkie
Inventar
#85 erstellt: 02. Mai 2017, 11:33
@Fuchs#14:
Der Thread wurde von einem Moderator erstellt und stammt ursprünglich aus einer "Diskussion" im Sony A1 OLED Thread.

Was die Skalierung angeht hatte ich eben wohl einen Gedankenfehler...
Klar wird das Bild immer skaliert wenn die Quelle eine geringere Auflösung hat als der TV und das Bild dennoch formatfüllend anzeigt wird. Dachte da eben an den Fall, dass die Quelle (z.B. eine DVD) vorher von einem externen Skaler (z.B. DVD- oder Bluray-Player) hochgerechnet wird und dieser besser ist als der des TV´s und dann einfach das Ergebnis der Skalierung besser ist... Sag ja, Gedankenfehlen...


[Beitrag von Forenjunkie am 02. Mai 2017, 11:57 bearbeitet]
Fuchs#14
Inventar
#86 erstellt: 02. Mai 2017, 11:41
Ja das habe ich mitbekommen, trotzdem hat das von dir angesprochene "skalieren sieht besser aus" nix mit dem HDMI Kabel zu tun.
Und Quatsch ist es auch noch...


[Beitrag von Fuchs#14 am 02. Mai 2017, 11:41 bearbeitet]
Forenjunkie
Inventar
#87 erstellt: 02. Mai 2017, 12:29

hagge (Beitrag #77) schrieb:

Forenjunkie (Beitrag #57) schrieb:
Also dass der A1 die Auflösung auf die nativen 4K des Panels skaliert ist klar, aber aus einem 8Bit Farbraum wird nicht automatisch ein ECHTER 10 Bit Farbraum nur weil der A1 10Bit kann. Klar, "kann" der A1 das mit der X Reality Engine, ob das aber wirklich immer so sinnig ist darüber lässt sich streiten. Dieser Farbraum Skalierung, die Sony ja als großes Feature verkauft, stehe ich eher skeptisch gegenüber. Da kommt es zwangsläufig auch zu Farbverschiebungen im negativen Sinne. Sprich Farben die bei der Aufnahme korrekt aufgenommen und sich auch auf dem Medium (z.B. einer 8 Bit Bluray) befunden haben werden "verfälscht" wiedergegeben und das sehe ich nicht unbedingt als Feature an. Einiges mag damit "besser" (bunter) aussehen, aber definitiv nicht alles.

Hier kommt wieder der alte Fehler durch: Bittiefe ist nicht mit Farbraum gleichzusetzen. Nur weil ein Film 10-Bit Bittiefe hat, muss er noch keinen anderen Farbraum nutzen. Das heißt ob auf dem Kabel mit 8, 10 oder 12 Bit übertragen wird, ist egal, der TV muss es *immer* auf seine Bittiefe umsetzen. Man konnte auch schon früher sog. Deep-Color mit 12-Bit pro Pixel übertragen, auch wenn der TV nur ein 8-Bit-Panel hatte. Deswegen war keine Farbe falsch.

Stimmt, da bin ich von ausgegangen, dass mit der höheren Bittiefe auch automatisch der erweiterte Farbraum gemeint ist. Sprich auch von einer Farbraumtransformation. Deshalb sprach ich von "falschen Farben". Du verstehst was ich meine oder?
Dachte aber auch dass Deep Color, HDR und co. immer mindestens 10 Bit voraussetzen. Ist dem nicht so?


[Beitrag von Forenjunkie am 02. Mai 2017, 12:37 bearbeitet]
hmt
Inventar
#88 erstellt: 02. Mai 2017, 13:01
Nein, HDR geht auch mit 8 bit, das sieht dann aber nicht sehr gut aus (Banding). HDR selbst beschreibt erstmal nur einen höheren Dynamikumfang, die Bittiefe hat praktische Gründe.
Auf dem PC sind 8 bit eine Möglichkeit, die angeboten wird. Es ist nur eben so, dass 256 Graustufen nicht ausreichend für eine hohe Qualität sind und man deswegen gleichzeitig auf eine 10 bit Farbtiefe setzt.
langsaam1
Inventar
#89 erstellt: 02. Mai 2017, 13:37
Und wie bitte kann man selbst nachmessen welche "Geschwindigkteit" das vorliegende Kabel hat?
Oder welche Signale das Kabel "uebertragen" soll?
Hab hier Kabel denen ist egal was "draufsteht" ...
Wichtig ist was tatsaechlich im individuellen Setting uebertragen wird oder eben auch nicht.
Aus reiner Eigenerfahrung - auf die Beschriftung (egal welche ...) ist leider wohl manchmal kein Verlass.
pa-freak2
Hat sich gelöscht
#90 erstellt: 02. Mai 2017, 15:24

Fuchs#14 (Beitrag #83) schrieb:

Forenjunkie (Beitrag #82) schrieb:
Ein hochskaliertes Bild sieht aber eigentlich immer besser aus als wenn die Original-Auflösung dargestellt wird.

Nein, aber z. B. ein nicht skaliertes HD Bild bei 4k würde den Bildschirm nur zu 1/4 nutzen, der Rest wären schwarze Balken. Daher gibt es gar kein unskaliertes Bild wenn der TV eine höhere Auflösung als die Quelle hat.

Edit: ist aber OT, hat nix mit dem HDMI Kabelthema zu tun um das es hier geht


Nicht unbedingt , panasonic hat so eine nette funktion die heißt "1 pixel to 4pixel" , funktioniert so das ein pixel der full hd quelle 2pixel horizontal und 2pixel vertikal belegt , scaliert wird hier nicht und der 4k bildschirm ist trotzdem ausgefüllt.
hmt
Inventar
#91 erstellt: 02. Mai 2017, 15:28
Fullpixel ist auch nur eine Methode der Skalierung.
pa-freak2
Hat sich gelöscht
#92 erstellt: 02. Mai 2017, 15:30
Die bildengine braucht hier nichts auf den pixelraster rechnen , also keine scalierung.
Forenjunkie
Inventar
#93 erstellt: 02. Mai 2017, 15:34
Interessant! Funktioniert natürlich nur bei Full HD zu 4K. Aber immerhin. Da würde ich gerne mal einen Vergleich zu einem 2K to 4K Upscaling sehen.
pa-freak2
Hat sich gelöscht
#94 erstellt: 02. Mai 2017, 15:38
Meistens sieht es schlechter aus wie die scalierung da bei der scalierung treppenkanten geglättet werden
hmt
Inventar
#95 erstellt: 02. Mai 2017, 15:42

pa-freak2 (Beitrag #92) schrieb:
Die bildengine braucht hier nichts auf den pixelraster rechnen , also keine scalierung.


"Gerechnet" wird hier auch, nur eben simpler. Daher ist es eine Skalierung, die nennt sich auch nearest neighbor (das ist der Name dieser Methode).


[Beitrag von hmt am 02. Mai 2017, 15:44 bearbeitet]
pa-freak2
Hat sich gelöscht
#96 erstellt: 02. Mai 2017, 15:58
Bin zwar nicht deiner meinung aber lassen wir das thema mal , gehört nicht zum hdmi kabel thema.
hagge
Inventar
#97 erstellt: 02. Mai 2017, 20:03
Skalierung ist, wenn von einer auf eine andere Auflösung umgerechnet wird. Wenn also 1920x1080 Pixel reingehen und 3840x2160 Pixel rauskommen, dann ist das eine Skalierung. Was dann das Verfahren dahinter ist, ist erst mal egal, es heißt alles Skalierung. Auch eine simple Verdopplung bzw. Vervierfachung der Pixel ist darum sehr wohl eine Skalierung. Eine einfache, die einen sehr großen Aliasingfehler verursacht, aber es ist eine. Auch umgekehrt das Weglassen von Pixeln bei einer Verkleinerung ist eine Skalierung.

Nahezu jedes andere Skalierungsverfahren ist bei realen Bildern besser geeignet und erzeugt schönere Bilder, aber in manchen Testfällen ist so eine Skalierung ganz praktisch. Möchte man z.B, zeigen, wie ein Full-HD-Bild bei dieser Bilddiagonale aussehen würde, dann ist so eine 2x2-Erwiterung ganz praktisch, weil ziemlich genau so würde ein gleich großer Full-HD-Fernseher dann aussehen. Und wenn man dann zu einem anderen Skalierungsverfahren umschaltet, sieht man auch gleich, dass das dann deutlich besser aussieht. Gerade in der Anfangszeit der 4K-Fernseher wollten das viele Leute nicht glauben, dass ein von Full-HD auf 4K skaliertes Bild auf einem 4K-TV besser aussehen kann als das native Full-HD-Bild auf einem gleich großen Full-HD-TV.

Gruß,

Hagge
Larli
Inventar
#98 erstellt: 05. Mai 2017, 05:39
Also ich habe mit Oehlbach gesprochen. Die Kabel (Carb Connect aus 2013) und die neuen ab 2016 (als MK II) gekennzeichnet sollen (angeblich) absolut identisch sein. Demnach soll auch das alte Kabel die 18 GBits schaffen (obwohl seinerzeit lediglich mit 10.2 Gbits angegeben). Sie hätten lediglich minimal etwas am Steckeraufbau geändert.

Was mich jetzt noch brennend interessiert ist HDMI 2.1 (48 GiBits, dynamisches HDR, Auflösung bis 10K... etc.) da ich ja gerade einen TV bestellt habe, der HDMI 2.1 definitiv nicht an Bord hat. Der TV soll zu einem späteren Zeitpunkt ein Update auf Dolby Vision und HLG erhalten. Dies sind ja bereits dynamische HDR Formate. Diese werden ja irgendwie mit dem gerade aktuellen HDMI Standard laufen. Sprich also auch mit einem derzeit erhältlichen DV-fähigen 4K BluRay Player, oder?
Also worin liegt denn jetzt genau der entscheidende Vorteil von HDMI 2.1 angenommen man benötigt keine Auflösung jenseits von 4K? Die Bandbreite des aktuellen HDMI Standards reicht ja für die aktuellen Medien aus.

Danke Euch.


[Beitrag von Larli am 05. Mai 2017, 05:52 bearbeitet]
Onbekend
Inventar
#99 erstellt: 05. Mai 2017, 06:03

Larli (Beitrag #98) schrieb:
Was mich jetzt noch brennend interessiert ist HDMI 2.1 (48 GiBits, dynamisches HDR, Auflösung bis 10K... etc.) da ich ja gerade einen TV bestellt habe, der HDMI 2.1 definitiv nicht an Bord hat. Der TV soll zu einem späteren Zeitpunkt ein Update auf Dolby Vision und HLG erhalten. Dies sind ja bereits dynamische HDR Formate. Diese werden ja irgendwie mit dem gerade aktuellen HDMI Standard laufen. Sprich also auch mit einem derzeit erhältlichen DV-fähigen 4K BluRay Player, oder?
Also worin liegt denn jetzt genau der entscheidende Vorteil von HDMI 2.1 angenommen man benötigt keine Auflösung jenseits von 4K? Die Bandbreite des aktuellen HDMI Standards reicht ja für die aktuellen Medien aus.

Meines Wissens nach ist der einzige Vorteil die Unterstützung vom dynamsichen HDR10 Standard ("HDR10+"), der von SAMSUNG entwickelt wurde, es sei denn man ist Zocker und möchte variable Frameraten oder mehr als 4K.
Übrigens: HLG ist NICHT dynamisch, soweit mir bekannt ist.
Unklar ist, ob HLG über HDMI überhaupt spezifiziert ist. (Zumindest gebe ich zu, dass ich das nicht weiß.)
Ebenfalls nebenbei gesagt: Es ist zumindest theoretisch möglich, dass SONY per Update die Unterstützung von HDR10+ für den derzeitigen HDMI einführt. Dies ist aber überhaupt nicht klar, ob man das mit der SONY HW machen kann.
HDR10+ ist auch noch nicht in UHD-Bluray Standard enthalten.


[Beitrag von Onbekend am 05. Mai 2017, 06:04 bearbeitet]
Suche:
Gehe zu Seite: |vorherige| Erste Letzte
Das könnte Dich auch interessieren:
Oehlbach HDMI Kabel
Matrix555 am 18.09.2007  –  Letzte Antwort am 19.09.2007  –  8 Beiträge
Oehlbach
Jan_HH am 05.12.2006  –  Letzte Antwort am 06.12.2006  –  3 Beiträge
Oehlbach HDMI Kabel
Krieger_des_Donners am 28.09.2004  –  Letzte Antwort am 28.09.2004  –  2 Beiträge
Taugt das Oehlbach Kabel etwas ?
apovis2105 am 26.11.2008  –  Letzte Antwort am 26.11.2008  –  6 Beiträge
Monster Kabel oder Oehlbach ?
Solid_Snake am 22.10.2006  –  Letzte Antwort am 23.10.2006  –  3 Beiträge
Welches Oehlbach Kabel ist besser
flo87 am 03.09.2008  –  Letzte Antwort am 05.09.2008  –  5 Beiträge
Oehlbach DVI Kabel
buxi am 21.01.2005  –  Letzte Antwort am 28.11.2006  –  3 Beiträge
Ist OFC + vergoldetes Kabel besser?
mILLhAuS am 27.10.2004  –  Letzte Antwort am 28.10.2004  –  2 Beiträge
Oehlbach HDMI Stecker Maße?
axel11 am 14.10.2005  –  Letzte Antwort am 06.05.2008  –  6 Beiträge
Oehlbach HF Kabel oder normales Kabel?
thomaslehner am 15.05.2006  –  Letzte Antwort am 18.05.2006  –  4 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder927.682 ( Heute: 3 )
  • Neuestes Mitgliedfrodobaggins
  • Gesamtzahl an Themen1.556.209
  • Gesamtzahl an Beiträgen21.654.269

Hersteller in diesem Thread Widget schließen