HIFI-FORUM » Fernseher & Beamer » Neue Technologien » Open TV Standard | |
|
Open TV Standard+A -A |
||||||
Autor |
| |||||
ohjemine
Ist häufiger hier |
#1 erstellt: 29. Mrz 2015, 15:47 | |||||
Hallo, auch wenn es wieder ein thread ist, der wohl zu nichts Konkretem führt... Ich habe mir überlegt, unter welchen - technischen - Rahmenbedingungen Fernseher wieder eher den Bedürfnissen ihrer Besitzer anstatt den Gewinnen der Eigentümer der Herstellerfirmen genügen könnten. Dieses Samsung One Connect, das proprietär und viel zu teuer ist, hat mich auf die Idee einer besseren Modularisierung gebracht. (Wir hatten übrigens mal so einen Phillips Matchline (CRT), das war schon vor ca. 25 Jahren modular aufgebaut, mit einer großen Röhre, einem TV-Tuner und einem Audio-Verstärker. Schweineteuer, aber das Konzept war nicht so blöd und man konnte tatsächlich einzelne Dinge austauschen, auch welche von anderen Firmen. Tja, das war halt der Vorteil von lauter analogen Schnittstellen.) Leider krankt es momentan an den kabelgebundenen digitalen Schnittstellen, die haben allesamt kaum noch Luft nach oben. Es gibt für Netzwerke (z.B. Parallelcomputer) schon noch besseres als HDMI, Displayport & Co., ist aber preislich völlig uninteressant um damit z.B. einen offenen Standard zwischen was auch immer und einem Panel zu definieren. Die integrierten Kisten von heute haben das Problem ja nicht, weil sie intern die Signale auf einer Leiterplatte führen. Gäbe es also am Fernseher einen Einheitsslot, in den man - so ähnlich wie dieses Samsung-Ding - den Internet-Anteil, den Satellitenempfänger, den PC-Port usw. hineinstecken könnte, wären so einige Probleme der Zukunftssicherheit durch Umtausch elegant lösbar. Gibt es offene Standards für Erweiterungskarten? Natürlich, PCIe, das ist auf längere Zeit noch schnell genug, billig, wird mit Sicherheit weiterentwickelt, solange PCs entwickelt werden, und das einzige, was es dazu noch braucht, wäre die Definition eines übergeordneten herstellerunabhängigen, offenen "Multimedia-Protokolls" über PCIe. Selbst mechanisch könnte man die Sachen so lassen wie sie beim PC sind, elektrisch braucht man das Rad auch nicht neu erfinden. Ich für meinen Teil hätte mir so jetzt gemütlich den Fernseher mit dem für meine Rahmenbedingungen besten Bildschirm ausgesucht und mir über 4K_RGB888@HDMI(2.0), HEVC, HDCP und all ihre Versionsnummern und Unterversionsnummern keine Gedanken gemacht, die mich nun veranlaßt haben, den Kauf eines neuen Fernsehers um mindestens eine Chipgeneration zu verschieben. |
||||||
Passat
Inventar |
#2 erstellt: 30. Mrz 2015, 15:18 | |||||
Das wird es so nicht geben, weil man damit kein Geld verdienen kann. Und was die "Gewinne" angeht: Das TV-Geschäft ist aufgrund des gnadenlosen Preiskampfes für die allermeisten Firmen ein heftiges Verlustgeschäft. Philips hat deswegen seine TV-Sparte verkauft, Pioneer hat deswegen seine TV-Sparte komplett aufgegeben etc. etc. Grundig ging es deswegen in den 70ern und 80ern so schlecht, Nordmende, Saba, Telefunken etc. etc. sind deswegen alle pleite gegangen, Loewe purzelt deswegen seit vielen Jahren von Pleite zu Pleite (es findet sich immer wieder ein Dummer, der da noch Geld rein pumpt) usw. Grüße Roman |
||||||
|
||||||
ohjemine
Ist häufiger hier |
#3 erstellt: 30. Mrz 2015, 19:31 | |||||
Meinst Du customer oriented engineering an sich, oder das offene Display mit PCI Slots? Auf Umwegen könnte das schon noch Realität werden, da der Nutzen eines Standard-PCs mit Standardschnittstellen (mit oder an einem großen Bildschirm) gegenüber Nicht-Standard-Computern mit großen, fest angebauten Displays (was anderes sind Fernseher ja heute im Prinzip nicht), auf Dauer auch durch noch so ruinösen Wettbewerb nicht ausgeglichen werden kann. Außer Apple hat es niemandem etwas gebracht, auf seinem eigenen geschlossenen System zu beharren, Atari, Amiga... obwohl die sowohl technisch als auch im Preis/Leistungsverhältnis um Welten besser waren als die IBM-XTs. Da Fernseher immer mehr zu Computern werden, ist die Strategie, mit Komfortvorteilen und geringeren Verkaufspreisen dagegen halten zu wollen, auf lange Sicht eher nicht aussichtsreich. Daß man Displayport so verdammt offensichtlich extremst ungern einbaut und eine riesige Lücke in der Bildschirmdiagonale zwischen UHD-PC-Monitoren und UHD-Fernsehern klafft, scheint mir wie der verzweifelte Versuch, sich möglichst noch lange gegen die Integration mit dem Standard-PC zu wehren. Und doch, am Ende der Entwicklung wird man, glaube ich, zu Hause nach wie vor einen großen Bildschirm haben wollen. Nur wird der eben ins "intelligente Heim" integriert sein und zwar eben - sinnvoller Weise - als ein reines Anzeigegerät. Daher wäre es klug, sich genau darauf zu konzentrieren, auf die Displays, klüger jedenfalls langfristig, als die dafür schon heute geeigneten Schnittstellen zu boykottieren und dafür allen möglichen anderen Kram ins Gerät zu stopfen.
Es liegt schon auch an der Industrie selbst. Ich bin nicht der einzige, der gerne den Fernseher als Computermonitor mitbenutzen würde oder umgekehrt, ich habe auch hier genug ähnliche Anfragen gefunden - leider kaum positive Antworten. Ich bin sicher auch nicht der einzige, den dieses Katz-und-Maus-Spiel mit künstlichen Hindernissen, Kopierschutz, nicht verbindlichen Standards und absichtlichen von den Herstellungskosten her nicht argumentierbaren Fehlkonstruktionen (Geizhals, heute: billigster UHD-TV ohne DP: 420.-, billigster UHD-TV mit DP: 1540.- ...zwar andere Panels, 40 vs. 50 Zoll, aber trotzdem ein völlig überzogener, unverschämter "Aufpreis" für die Integration einer zusätzlichen digitalen Standardschnittstelle - sozusagen) derartig nervt, daß er sich im Zweifelsfall eben gar keinen Fernseher kauft. Man kann vielleicht die Bilanzen kurzfristig aufbessern, aber langfristig Gewinne macht man eben nicht dadurch, daß man die Leute mutwillig verärgert. |
||||||
Passat
Inventar |
#4 erstellt: 30. Mrz 2015, 19:55 | |||||
Ich wollte kein Computerbild auf dem TV haben. Dafür ist deren Auflösung viel zu schlecht. Bei meinem 27" habe ich 2560x1440 Pixel. Bei 1920x1080 bekommt man bei den geringen Sehabständen doch Augenkrebs. Und mehr als 27" brauchts bei PC-Monitoren auch nicht. Das ist IMHO die sinnvolle Obergrenze. Bei noch größeren Monitoren muß man den Kopf drehen, weil man die Bildschirmränder nicht mehr im Blickfeld hat, wenn man frontal drauf schaut. Grüße Roman |
||||||
ohjemine
Ist häufiger hier |
#5 erstellt: 30. Mrz 2015, 20:45 | |||||
Wer sagt denn, daß der Abstand zum PC-Monitor gering sein muß? Ich fände es höchst angenehm, wenn er etwas weiter weg wäre, vielleicht dadurch auch ein wenig mehr vom Fenster weg im Schattten und vor dem Monitor gibt es eben großzügig Platz auf dem entsprechend tiefen Tisch. Mein UXGA mit 20" ist mir jedenfalls derzeit schon ein wenig zu weit weg. Beim Fernsehen hingegen wäre es mir egal, die Auflösung zu verschenken, genau in der Situation möchte ich den Kopf nicht drehen, sondern "betten". Doch dazu muß ich mich einfach nur ein paar Meter weiter weg setzen. Effektiv für mich dann eben nur noch HD, aber immerhin HD.
Bei der Arbeit finde ich es überhaupt nicht anstrengend, den Kopf zu drehen, dort arbeitet ja auch jeder mit dem Laptop-Screen und zusätzlich mit einem HD-Monitor, natürlich dreht man da den Kopf und das viel mehr, als wenn es ein einzelner entsprechend größerer Schirm wäre und zusätzlich muß sich das Auge jedes Mal auf unterschiedliche Kontraste und Helligkeiten der beiden Displays einstellen. Das geht aber in paar Zehntelsekunden, also wesentlich müheloser und schneller als Fenster zu verschieben bzw. aus dem Hintergrund zu holen etc. Und im Vergleich zu vier einzelnen HD-Schirmen gelänge dies auf einem UHD mit den selben DPI natürlich noch besser - mit der Einschränkung, daß man die einzelnen Schirme so drehen kann, daß man kein Problem mit der Blickwinkelabhängigkeit bekommt. Aber wenn er halbwegs blickwinkelstabil ist, warum kein großer PC-Monitor? Könnte ja auch die Augen schonen, wenn sie sich auch mal auf eine etwas weitere Distanz als immer konstant 50 cm fokussieren können. LG! |
||||||
eraser4400
Inventar |
#6 erstellt: 31. Mrz 2015, 20:46 | |||||
Wir hier sind FREAKS! Ist nun mal so. Die "da draussen" um die es der Industrie geht, sind Normalos. Die wollen keinen "scheiss"PC im Wohnzimmer der "scheisse"kompliziert ist und alles Mögliche kann, die wollen den TV Abends ein und gegen Nacht wieder ausschalten und dazwischen nur gucken. Ergo: Zielgruppe für sowas>Winzig. Also: Unrentabel. Punkt. Und diese Leute wollen ihren Monitor auch auf dem Schreibtisch und nicht irgendwo ins Nirwana schieben. |
||||||
ohjemine
Ist häufiger hier |
#7 erstellt: 08. Apr 2015, 20:58 | |||||
Danke für Deine tröstenden Worte. Daß der neuen Palette von Panasonic - die bauten als einzige einen Displayport ein - eben jener nun fehlt, jetzt, wo sie endlich HEVC hingekriegt haben, ist wieder so eine Fehlentwicklung, bzw. einfach eine Gemeinheit. Ich beginne fast schon zu vermuten, daß diese Firmen ein Kartell gebildet haben, um mich in die Paranoia zu treiben. Dem aufgebohrten HDMI Anschluß traue ich noch immer nicht über den Weg. Es ist schlicht nicht herauszufinden, ob diese Geräte (ich meine jetzt zwar primär die Panasonics, aber bei anderen Firmen schaut es auch nicht viel anders aus) ihr Display nun per "HDMI-2.0" voll ansteuern können (also 4KxRGB888@60Hz) oder nicht. Auch kein Wort über den Input-Lag. Was soll dieses Versteckspiel bringen? Welcher halbwegs geistig gesunde Mensch kauft sich um mehrere bis zig Hundert Euro ein Gerät, bevor sich diese Dinge, also ganz grundlegende technische Eigenschaften herumgesprochen haben? Also warum bitte nicht gleich veröffentlichen? [Beitrag von ohjemine am 08. Apr 2015, 21:07 bearbeitet] |
||||||
Passat
Inventar |
#8 erstellt: 08. Apr 2015, 23:54 | |||||
Der Input-Lag spielt bei TV-Herstellern absolut gar keine Rolle, da das TVs sind und keine Computermonitore für Gamer. Und was hilft 4k mit voller Farbauflösung, wenn das Panel es nicht umsetzen kann? Erinnert mich an HD-Ready-Geräte. Deren Panel hatte auch nur 1366x768 Pixel, aber die konnten über HDMI Signale mit 1920x1080 annehmen. Aber die haben das natürlich auf die Panelauflösung heruntergerechnet. Grüße Roman |
||||||
ohjemine
Ist häufiger hier |
#9 erstellt: 09. Apr 2015, 18:11 | |||||
Naja, am Fernseher Videospiele zu spielen ist keine ganz sooo exotische Anwendung, daher scheint man bei den meisten Geräten die Bildverarbeitungspipelines für "Spiele-" oder "Computer-Modi" abschalten zu können. Für die Computerarbeit ergibt sich halt eher zufällig die gleiche Forderung nach kurzen Latenzzeiten wegen der Mausbewegungskoordination.
So wie ich es verstanden habe, ist der Flaschenhals tatsächlich die HDMI-Schnittstelle, also vermute ich, daß es nicht an den LVDS Leitungen zum Panel hin liegt oder an den Panels selber. Und diese Leitungen sind vermutlich nicht streng genormt, aber auch immer in etwa das selbe. Zumindest 256 Helligkeitsstufen hätte ich also schon bei jedem Panel vorausgesetzt (für jede der drei Farben und für jedes einzelne Pixel). Auch eine Normung genau dieser LVDS-Schnittstellen könnte den Weg zu einem Baukastensystem ebnen. Aber huch, da würde die Filmindustrie ordentlich an die Decke springen, wenn das jemand ernsthaft propagieren würde.
Und da dieser Betrug weder vom Gesetzgeber noch von den Kunden bestraft wurde, geht dieses Spielchen weiter und weiter, immer dreister und dreister, und so läßt man das "ready" (...was genau das Gegenteil von "ready" bedeutet hat...) bei 4K einfach gleich weg. Aber vielleicht kommt ja noch ein Full-4K (für RGB888) und ein Full-Deep-4K (für RGB101010) und ein Full-Ultra-Deep-4k für 12 bit. Aber vorher kommt sicher noch 8K, wo die Farbinformation nur für jedes achte Pixel übertragen wird. Oder halt für jedes, aber nur mit 4 bit. Oder sonst irgendein Mist, z.B. eine Videokomprimierung der Daten am HDMI-Ausgang. |
||||||
Passat
Inventar |
#10 erstellt: 09. Apr 2015, 18:21 | |||||
Was für ein Betrug? 4K bezieht sich nur auf die Pixelauflösung. Der Farbstandard oder Bildwiederholraten spielen da gar keine Rolle. Selbst ein 4k-TV, der nur Schwarz/Weiß mit 16 Graustufen und 50 Hz interlaced könnte, wäre ein 4k-TV. Jemand, der so etwas als 4k-TV anbieten würde, würde gegenkein Gesetz der Welt verstoßen und seine Aussage bzgl. 4k wäre völlig korrekt. Grüße Roman |
||||||
ohjemine
Ist häufiger hier |
#11 erstellt: 10. Apr 2015, 00:02 | |||||
Ich bezog mich oben primär auf "HD-ready". Das bedeutete "bereit für HD" und es war anzunehmen, daß die Geräte - auch wenn noch kein HDTV Programm gesendet wurde oder viele Satellitenreceiver noch kein HD empfangen konnten - für HD Empfang, also für den Empfang und die Darstellung von HD "bereit" gewesen wären. In Wirklichkeit waren sie von Haus aus mangels Pixelanzahl dazu eben nicht vorbereitet. Ein Fernseher hat nun mal die primäre Aufgabe, ein Bild nicht nur elektronisch zu empfangen (und sich intern am Bitstrom zu erfreuen und vielleicht gibt's ja auch noch was zum entschlüsseln), sondern es auch darzustellen. Das ist die ureigenste Aufgabe eines TV-Geräts und kein nice-to-have. Immerhin wäre dann ausnahmslos jeder PAL- oder SW-Fernseher auch "HD ready" gewesen, man hätte ja einen HDTV-Receiver über SCART oder zur Not eben einen Hf-Modulator anschließen (oder einbauen) und HDTV "grundsätzlich schon irgendwie empfangen" können. Also mal ehrlich, würdest Du Dir nicht verarscht vorkommen, wenn Du ein Deep-Colour-Ready-Gerät kaufst um hinterher festzustellen, daß es zwar Videodaten mit 10 bit Farbtiefe empfangen kann, die letzten beiden Bits aber einfach abschneidet, bevor es sie zum Panel weiterleitet? Mit 4K an sich und der Auflösung hättest Du mit Deinem konstruierten Beispiel eines reinen SW Geräts recht - wenn klar drauf steht, daß es ein SW Gerät ist und wieviele Graustufen es mit welcher "Horizontalfrequenz" darstellen kann. Wenn aber die jeweils maximale Bildfrequenz genannt wird und die Farbtiefe und die Auflösung, aber nichts von Einschränkungen der Art, wie wir sie derzeit erleben, nämlich volle chromatische Auflösung nur bei 30 Hz, ist es meiner Meinung nach bzw. nach meinem moralischen Empfinden ein hinterlistiger Täuschungsversuch schon dann, wenn dies nicht genau so groß zu lesen ist wie "4K" und all die anderen Daten, sondern sich irgendwo auf Seite 173 der Bedienungsanleitung versteckt. Und das ist noch nicht alles, ein Display in ein Gerät einzubauen und dieses Gerät dann nicht mit einer Schnittstelle auszurüsten, die das Panel nach seiner vollen Spezifikation betreiben kann - obwohl es solche Schnittstellen sehr wohl schon längst gibt (z.B. Displayport) - ist eine Sache und zwar eine fiese und gemeine Sache. wenn man das nicht deutlich "auf die Verpackung draufschreibt". Eine andere Sache ist es, daß es vom technischen Standpunkt einfach nur bescheuert ist. Also wenn sich jemand so eine eklatante Fehlleistung bei einer technischen Diplomarbeit erlaubte, mit der Aufgabe, ein ihm zur Verfügung gestelltes LCD Panel mit toller neuer großartiger Auflösung anzusteuern, würde ich ihn mit Pauken und Trompeten durchfallen lassen, da er schon beim ersten und banalsten Schritt versagt hätte, nämlich eine dem Display adäquate Schnittstelle auszuwählen. |
||||||
Passat
Inventar |
#12 erstellt: 10. Apr 2015, 07:21 | |||||
Naja, man wird ja auch woanders verar..... Beispielsweise "LED"-Fernseher. Alles, was da bisher so bzeichnet wurde und wird ist KEIN LED-Fernseher, sondern ein LCD-Fernseher mit LED Hintergrundbeleuchtung. Ein LED-Fernseher hat keine Hintergrundbeleuchtung, sondern jedes Pixel hat eine separate LED. Grüße Roman |
||||||
|
|
Das könnte Dich auch interessieren: |
Fernsehqualität - wieder so ein unnützer Thread.. KicksForFiesta am 14.01.2022 – Letzte Antwort am 14.01.2022 – 3 Beiträge |
Hat sich in 4 Jahren Entwicklung nichts getan? Höllenhund am 14.05.2013 – Letzte Antwort am 14.10.2013 – 3 Beiträge |
Digitalfotos auf HDR-TV besserer? stefan516 am 14.12.2021 – Letzte Antwort am 18.12.2021 – 10 Beiträge |
Heist der zukünftige Standard 8k 3d? V._Sch. am 03.04.2024 – Letzte Antwort am 05.04.2024 – 14 Beiträge |
Eine Idee zum Entspiegeln der Hochglanz-TV's? Joh832 am 23.08.2021 – Letzte Antwort am 21.09.2021 – 11 Beiträge |
Der allgemeine Heim-3D-Thread Sabcoll am 10.02.2016 – Letzte Antwort am 22.06.2024 – 5548 Beiträge |
3D Technik im Tv marc3005 am 05.05.2010 – Letzte Antwort am 07.05.2010 – 4 Beiträge |
Neue Fernseher Serien 2014 Reva am 11.03.2014 – Letzte Antwort am 16.03.2014 – 3 Beiträge |
Streit-Thread OLED vs. LCD-LED chaotiker am 20.04.2015 – Letzte Antwort am 29.04.2015 – 21 Beiträge |
Nvidia 3D Vision + 200Hz LED TV micky91 am 14.04.2012 – Letzte Antwort am 18.04.2012 – 15 Beiträge |
Anzeige
Top Produkte in Neue Technologien
Aktuelle Aktion
Top 10 Threads in Neue Technologien der letzten 7 Tage
- Govee WLAN TV | /Ambilight) Beleuchtung Kit mit Kamera
- Philips Hue Sync Box - potentielle Lösung für Probleme bei der Lichtsynchronisation
- Unterschied HDR10+ und HDR10 Pro
- Der allgemeine Heim-3D-Thread
- Govee Geräte mit zwei Handy´s steuern ?
- Verständnisfragen: LG Active HDR - HDR HLG -Dolby Vision
- Farbtiefe; Deep Color und 12bit
- Amazon Prime Video auf Panasonic TV
- Am Beamer besser 3D H-SBS oder H-OU ?
- Unterschied Dolby Vision und Dynamisches HDR (HDMI2.1)?
Top 10 Threads in Neue Technologien der letzten 50 Tage
- Govee WLAN TV | /Ambilight) Beleuchtung Kit mit Kamera
- Philips Hue Sync Box - potentielle Lösung für Probleme bei der Lichtsynchronisation
- Unterschied HDR10+ und HDR10 Pro
- Der allgemeine Heim-3D-Thread
- Govee Geräte mit zwei Handy´s steuern ?
- Verständnisfragen: LG Active HDR - HDR HLG -Dolby Vision
- Farbtiefe; Deep Color und 12bit
- Amazon Prime Video auf Panasonic TV
- Am Beamer besser 3D H-SBS oder H-OU ?
- Unterschied Dolby Vision und Dynamisches HDR (HDMI2.1)?
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder927.697 ( Heute: 6 )
- Neuestes MitgliedDerelor
- Gesamtzahl an Themen1.556.248
- Gesamtzahl an Beiträgen21.654.956