HIFI-FORUM » Fernseher & Beamer » Projektoren / Beamer » Dolby Vision für Projektoren - großer Mehrwert? | |
|
Dolby Vision für Projektoren - großer Mehrwert?+A -A |
||||||||||
Autor |
| |||||||||
hmwieland
Stammgast |
#1 erstellt: 04. Jul 2016, 14:41 | |||||||||
Ist Dolby Vision zu HDR 10 abwärtskompatibel? Oder anders gefragt wird der vw 5000 einmal Dolby Vision darstellen können? Sicher ist die Frage noch etwas zukunftsbehaftet, da es noch keine UHD Blu rays mit Dolby Vision gibt und die Sony, Panasonic und Samsung Gilde, sofern ich richtig informiert bin auch nicht bei TVs damit planen, aber LG geht da ja einen anderen Weg. Anfang Jahr auf der CES war Dolby Vision noch kein Thema, darum habe ich auch nicht nachgefragt. Vielleicht hat ja jemand diesbezüglich eine Antwort parat? Wäre cool! Hinweis der Moderation: Das Thema wurde aufgeteilt und einige themenfremde Beiträge wurden hierher verschoben. Das alte Thema lautet: Sony VPL-VW5000ES [Beitrag von George_Lucas am 06. Jul 2016, 07:35 bearbeitet] |
||||||||||
Impatient
Stammgast |
#2 erstellt: 04. Jul 2016, 16:51 | |||||||||
Ja und Nein. Ja, Dolby Vision ist zu HDR10 abwärtskompatibel, da Dolby Vision als optionaler Extra Layer zum verpflichteten Base HDR10 Layer umgesetzt ist. Nein, der VW5000 wird vermutlich nie Dolby Vision darstellen können. Denkbar wäre dies nur durch ein vermutlich sehr kostspieliges Hardware Upgrade. Jedes Dolby Vision Display Device besitzt einen Hardware Dolby Vision Composer der das Dolby Vision Signal wieder aus den beiden Streams rekonstruiert und interpretiert und einem Hardware Display Manager / Mapper der das vollständige Dolby Vision Signal auf die eigenen Fähigkeiten adaptiert. Rein theoretisch sind diese beiden Funktionen auch per SW lösbar, jedoch ohne dedizierte Hardware nur mit hoher Rechenleistung welche in einem Projektor nicht vorhanden ist. |
||||||||||
|
||||||||||
hmwieland
Stammgast |
#3 erstellt: 04. Jul 2016, 20:34 | |||||||||
" impatient" danke für die Ausfuehrung. Somit ist es kein notwendiges, dass Dolby Vision implementiert Ist. Da sozusagen Hdr 10 kompatibel. Und der Mehrwert von Dolby Vision nicht allzu gross ist. |
||||||||||
Cine4Home
Gesperrt |
#4 erstellt: 04. Jul 2016, 21:49 | |||||||||
Anscheinend plant Dolby einen neuen Formatkrieg im Kampf um Lizenz-Einnahmen. Das Gedöns kennen wir ja schon aus dem Audiobereich, hatte eigentlich gehofft, dass wir im Bildbereich von so etwas verschont bleiben.
Genau, wie viel von Dolby Vision reine Marketing-Hyperei ist und wie viel wirklich bei einem Beamer auf der Leinwand ankommt, sind zwei Paar Stiefel. Warten wir erstmal ab, das UHD-Premium / HDR Bild des VW5000 ist jedenfalls im hier und jetzt spektakulär. Heute mal in Deadpool reingeschaut Gruß, Ekki [Beitrag von Cine4Home am 04. Jul 2016, 21:56 bearbeitet] |
||||||||||
surbier
Inventar |
#5 erstellt: 05. Jul 2016, 05:08 | |||||||||
Sofern Dolby Vision tatsächlich so sein soll, dass man - laienhaft ausgedrückt - danach nicht mehr nach jedem Film die HDR Einstellungen manuell nachbessern muss (was ich bisher aus den Diskussionen herauslesen konnte), wäre es durchaus ein Fortschritt in Richtung Allgemeintauglichkeit für HDR. Gruss Surbier |
||||||||||
Cine4Home
Gesperrt |
#6 erstellt: 05. Jul 2016, 06:30 | |||||||||
Sorry, aber das ist Unsinn. Wenn man den Beamer einmal(!) richtig eingestellt hat, kann man problemlos alle UHD-Blurays gucken, ohne nachzubessern. Das habe ich aber auch mehrmals schon erläutert jetzt. Gruß, Ekki [Beitrag von Cine4Home am 05. Jul 2016, 06:31 bearbeitet] |
||||||||||
surbier
Inventar |
#7 erstellt: 05. Jul 2016, 07:34 | |||||||||
Hi Ekki Du selbst fragst Dich ja auch, wieso die logischen Handgriffe für eine optimale HDR Einstellung eines VW5000 nicht auch auf den VW520 übernommen werden können. Für mich bedeutet es nichts anderes, als dass man ausserhalb des VW5000 eben immer noch "Handstände" ausführen muss, um ein "optimales" HDR zu geniessen. Nicht gerade sehr ermutigend für User, die den Beamer einschalten und HDR einfach so geniessen wollen ... Dazu kommt, dass die beiden bisher erhältlichen UHD Player und Beamer punkto HDR dem einen oder anderen User nachlesbar Probleme bereiteten. Was nicht ist, kann selbstverständlich noch werden. Gemäss jetzigem Stand der Dinge jedoch nicht die beste Voraussetzung, um HDR massentauglich zu machen. Daher leitete ich aus solchen Berichten ab, dass Dolby Vision eine Art "automatisches HDR" sein könnte. Für User, die sich keinen VW5000 leisten. Gruss Surbier [Beitrag von surbier am 05. Jul 2016, 07:35 bearbeitet] |
||||||||||
Impatient
Stammgast |
#8 erstellt: 05. Jul 2016, 09:59 | |||||||||
Dolby Vision ist "automatisches HDR". Dolby Vision ist eine End-To-End-Lösung von der Produktion bis hin zur Wiedergabe. Ich persönlich warte auf Dolby Vision bevor ich in UHD relevante Komponenten investiere. Ich bin von der greifbar nahen Dolby Vision Lösung schlicht überzeugt. HDR10 ist noch lange nicht da wo Dolby Vision heute schon ist. Dies soll nicht heissen dass man mit einem gut eingestellten HDR10 Device keinen Spaß haben kann, mit einem sehr guten HDR10 Device wie dem VW5000 umso mehr. |
||||||||||
Nudgiator
Inventar |
#9 erstellt: 05. Jul 2016, 10:11 | |||||||||
Erstmal abwarten, ob sich Dolby-Vision überhaupt durchsetzt. Ich hab da so meine Zweifel. |
||||||||||
screenpowermc
Inventar |
#10 erstellt: 05. Jul 2016, 14:46 | |||||||||
Also funktioniert jetzt HDR beim Sony VW520 ebenso so gut wie beim JVC X5000/ 7000? Vorgestern hast Du noch geschrieben: Es geht doch, warum nicht auch beim Vw520 so? [Beitrag von screenpowermc am 05. Jul 2016, 14:49 bearbeitet] |
||||||||||
Impatient
Stammgast |
#11 erstellt: 05. Jul 2016, 18:46 | |||||||||
Dolby Vision ist final, HDR10 ist eine Plattform die alles anderes als final ist, der Standard Teil der dynamische Metadaten bei HDR10 ergänzt, hat derzeit erst 80 Prozent Fertigstellungsgrad. Selbstverständlich nimmt Dolby Vision einen Serienschnitt für das Mapping an und selbstverständlich wird man Beamer auch mit Dolby Vision weiterhin kalibrieren müssen, wie das vermutlich funktioniert ist u.a. bei SpectralCal beschrieben. |
||||||||||
Nudgiator
Inventar |
#12 erstellt: 05. Jul 2016, 18:51 | |||||||||
@Impatient Kleiner Tipp: unterhalte Dich wegen DV mal mit Experten auf dem Gebiet. Dann wirst Du sehr schnell feststellen, daß es mit großer Wahrscheinlichkeit ein Rohrkrepierer wird. Die Leute, die DV in den siebten Himmel loben, haben allesamt selbst starkes finanzielles Interesse an DV. Aber nicht, weil es Sinn macht, sondern um Kohle zu verdienen, Stichwort: SpectraCal. [Beitrag von Nudgiator am 05. Jul 2016, 18:52 bearbeitet] |
||||||||||
Cine4Home
Gesperrt |
#13 erstellt: 05. Jul 2016, 19:00 | |||||||||
Jo, kalibrieren auf eine "verhandelte Referenz" für das besagte Gerät, alle "Kompromisse" werden von Dolbys "Wunderchip" automatisch "optimal gewichtet". Also eine "relative Kalibrierung", das ist Marketing-Nonsense pur. Eigentlich wärmt Dolby hier nur die dynamischen Farb- & Kontrastoptimierer wieder auf, die TV & Beamer Herstellern seit gefühlten 100 Jahren verbaut haben. Hat keine Sau interessiert, weil es Effekthascherei ist. Dolby ist da natürlich schlauer, die versichern natürlich, dass dies alles 100% authentisch zum gewollten Original ist. Eigentlich erscheint Dolby nur sinnvoll für TVs, die in ihren optischen Eigenschaften sehr eingeschränkt sind und meilenweit entfernt sind von den "originalen" Masteringvorgaben. Also eher für die Billigklasse der TVs, die weder DCI voll treffen, noch 1000nits. Das bestätigt ja sogar die Software-Industrie. Gruß, Ekki |
||||||||||
Impatient
Stammgast |
#14 erstellt: 05. Jul 2016, 23:13 | |||||||||
Jo, nur ist bei DCI und 1000 nits noch lange nicht Schluss. Ein Mapping Algorithmus ist IMHO so lange sinnvoll solange UHD Mastering und Wiedergabegeräte voneinander abweichen und der UHD Standard auf beiden Seiten nicht ausgeschöpft ist. Von DCI ist es noch ein langer Weg zu BT.2020, von 1000 nits zu 10000 nits ebenso. Mit einem Mapping Algorithmus könnte man eine z.B. UHD BluRay nur einmal im höchsten Standard veröffentlichen und die gleiche Scheibe sieht von Jahr zu Jahr mit besserer Wiedergabekette besser aus bis die vollen UHD Möglichkeiten beidseitig erreicht sind, dann erst wird ein Mapping in der Tat überflüssig. Es ist auch nicht richtig Dolby Vision nur auf das Mapping zu reduzieren. Dolby Vision unterstützt u.a. dynamische Metadaten und 12 Bit Codierung. HDR10 arbeitet noch an dynamischen Metadaten und ist auf absehbare Zeit auf 10 Bit beschränkt. Es bleibt spannend ob sich Dolby Vision durchsetzt. Nicht immer gewinnt die bessere Technik. Ende diesen Jahres, spätestens 2017 erhoffe ich mir hier mehr Klarheit. [Beitrag von Impatient am 05. Jul 2016, 23:24 bearbeitet] |
||||||||||
Nudgiator
Inventar |
#15 erstellt: 05. Jul 2016, 23:42 | |||||||||
In der Tat, ich glaube aber nicht daran. |
||||||||||
Cine4Home
Gesperrt |
#16 erstellt: 06. Jul 2016, 00:33 | |||||||||
Vorab Frage an die Mods: Das ist hier ja alles ziemlich offtopic, könnt Ihr die Diskussion auslagern in einen eigenen Thread z.B. nach dem Motto "Sinn & Unsinn von Dolby Vision" ?
Klar, 10bit ist besser als 12bit, 16k Auflösung wäre auch besser als 4k, oder? Da wurde das "Perceptual EOTF" vollmundig von Dolby so entwickelt, dass es mit 10bit einen Dynamikumfang bis 10,000nits ohne Artefakte abbilden kann und auf einmal proklamieren sie die 10bit als schlecht und erst 12bit als gut. Abgesehen davon, dass die 12bit Übertragung auch ohne Dolby kein Problem darstellen würde, kommt mit den Beamern und TVs bildtechnisch nichts davon an, die haben mit ihrer Pulsweitenmodulation schon bei 10bit arge Probleme. Ist wie die 16Mp Kamera ohne entsprechendes Objektiv, willkommen in der Marketingfalle. Und was sollen dynamische Metadaten für sichtbare Vorteile bringen, außer für Mapping? Auf die Antwort bin ich nun echt gespannt ;-) Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 00:50 bearbeitet] |
||||||||||
George_Lucas
Inventar |
#17 erstellt: 06. Jul 2016, 07:33 | |||||||||
Hinweis der Moderation: Erledigt. |
||||||||||
Impatient
Stammgast |
#18 erstellt: 06. Jul 2016, 09:18 | |||||||||
Hmm, es stimmt natürlich dass dynamische Metadaten nur beim Mapping Sinn machen. Ist das Grading- und Wiedergabedevice in allen Aspekten gleich und invariant, braucht es kein Display Mapping und dann auch keine statischen oder dynamischen Metadaten mehr... Mein Fehler. Nur bis wir da angekommen sind, vergehen noch ein paar Jahre. Solange es starke Abweichungen zwischen Grading und Wiedergabedevices gibt und sich beide Seiten, bis u.a. BT.2020 erreicht ist, weiterentwickeln, ist es aus meiner Sicht eben deutlich besser ein gutes Color / Tone Mapping zu haben als ein schlechtes oder keines. Wie gut das Display Mapping nun von Dolby Vision konkret ist, wird sich zeigen wenn es erste Konsumer Projektoren mit DV gibt, die vermutlich wesentlich höhere Limitierungen (und damit ein stärkeres Display Mapping benötigen) als die Dual Laser Christie Projektoren in den Dolby Cinemas. [Beitrag von Impatient am 06. Jul 2016, 09:22 bearbeitet] |
||||||||||
Cine4Home
Gesperrt |
#19 erstellt: 06. Jul 2016, 10:30 | |||||||||
Im "topaktuellen" Kino haben wir DCI-P3 mit 32ftl (rund 100nits) Lichtleistung, das erreichen die guten Heimkino-Projektoren alle schon jetzt. Vielleicht habe ich es nur nicht mitbekommen, aber mir ist nicht bekannt, dass die Kinos in absehbarer Zeit auf größere Farbräume umschwenken wollen (obwohl es natürlich schon technisch möglich ist)? Also wofür ein Color-Mapping? Zum ersten Mal haben wir mit DCI P3 endlich genau den Kinofarbraum daheim, mehr brauchen wir auf absehbare Zeit nicht.
Wie willst Du denn "gut" bewerten? Bisher haben wir im Heimkino das als "gut" angesehen, was authentisch am Kino-Original lag, dafür ja die Kalibrierung. Nur wie authentisch soll denn das „dunkle" und " „blasse“ 100nits / DCI Original aus dem Kino, das für daheim auf sagenhafte „virtuelle“ 10,000nits und BT2020 umgemastert wird, schließlich auf einem TV, der nicht mal DCI erreicht und bestenfalls 1,000nits darstellen kann, überhaupt sein? Von hinten durch die Brust ins Auge? Das sind so hanebüchene und widersprüchliche Versprechen von Dolby, dass man das nun wirklich nicht ernst nehmen kann. Die Realität wird sein: Die „Wunder-Algorithmen“ werden darauf optimiert, aus egal wie schlechter Hardware / Software ein „Eye Popping“ Bild zu zaubern, damit man den leichtgläubigen Consumer und wohlgesonnenen Journalisten „flasht“ und einen Hype erzeugt, um die lukrative Lizenzvergabe anzukurbeln. Eigentlich ist das alles nichts anderes als ein subventionierter „Shopmodus“ mit dem Feigenblatt, als Unternehmen (Dolby), das auch echte Kinos ausstattet, um Authentizität bemüht zu sein. Sorry, aber das ist einfach Volksverblödung. Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 11:03 bearbeitet] |
||||||||||
audiohobbit
Inventar |
#20 erstellt: 06. Jul 2016, 12:08 | |||||||||
HDR hat aber mit dem Kinooriginal auch schon nix mehr zu tun... |
||||||||||
Cine4Home
Gesperrt |
#21 erstellt: 06. Jul 2016, 12:27 | |||||||||
Für alte Filme nicht unbedingt, stimmt. Wurde erst vorgestern bei einem Händler zurecht diskutiert: Will man eigentlich einen "Lawrence of Arabia" in HDR remastered haben? Ich meine ja, wenn man HDR nicht für Effekte missbraucht und den originalen Film verfremdet, sondern es nur soweit nutzt, dass das Original in seiner damaligen "Neupracht" erscheint. Analoger Film hat ja durchaus eine hohe Schärfe, tolle Farben und sehr guten Dynamikumfang, viel besser, als SDR es je bot. Für neue Filme ist es wiederum anders, denn HDR im Kino gibt es ja nun mittlerweile Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 13:31 bearbeitet] |
||||||||||
audiohobbit
Inventar |
#22 erstellt: 06. Jul 2016, 12:33 | |||||||||
Ja und es nennt sich Dolby Vision... Flächendeckend wird sich HDR im Kino sicher nicht durchsetzen. mit DLPs die nur unter Idealbedingungen 2000:1 schaffen, wenn überhaupt. Aus dem Grund glaube ich auch nicht, dass irgendein Filmemacher beim Dreh etc. an HDR denkt. Da werden mit Sicherheit die Filme in normalen Mischkinos mit 2000:1 DLPs für ebensolche gemastert, Dolby hübscht das dann für seine Dolby Cinemas selber auf (sowie IMAX auch schon sein eigenes Postprocessing macht) und für den Heimbereich wird das dann auch auf HDR getrimmt. Mit dem Kinooriginal hat das dann alles nix mehr zu tun. |
||||||||||
George_Lucas
Inventar |
#23 erstellt: 06. Jul 2016, 13:12 | |||||||||
Was heißt eigentlich "Kino-Original"? Du schreibst es ja selbst, dass viele Kinos die vorhandene Bildqualität nicht darstellen können, weil die Projektoren (und der Raum) die limitierenden Faktoren sind. Das DCP besitzt durchaus das Potential, um mit einem Kontrastverhältnis von >10.000:1 projiziert zu werden. Darüber hinaus stellt sich natürlich auch die Frage, wann haben wir in der Vergangenheit "Kino-Originale" gesehen? Ich erinnere mich nur zu gut an 35-mm-Filmband-Vorstellungen, denen es an Schärfe, Farbtreue, Leuchtkraft, Detaildarstellung und Kontrast fehlte; nicht zu letzt, weil bereits die Kopien der 5.-Generation suboptimal/verlustbehaftet waren. Wenn beispielsweise "Ben Hur" gut gemastert wird in Dolby Vision, HDR-10, dann sind (hoffentlich!) die Details zu sehen, die auf der Blu-ray im Schwarz absaufen - oder ins Weiß überstrahlen. |
||||||||||
Cine4Home
Gesperrt |
#24 erstellt: 06. Jul 2016, 13:19 | |||||||||
Flächendeckend wird sich HDR auch beim TV-Konsumenten daheim nicht durchsetzen, aus einem ganz einfachen Grund: Ein 4000nits bis 10,000 nits TV ist in entsprechenden Szenen einfach anstrengend für die Augen. Die Leute wollen aber abends daheim nach einem anstrengenden Arbeitstag entspannt einen Film sehen. Unsere Augen sind nicht für 24Std Tageslichtbedingungen gemacht, es wird nicht lange dauern, dann kommt die Frage nach dem Abschaltknopf. Das Ganze geht zu 90% den Weg von 3D, weil die Hersteller es wie immer übertreiben müssen. Aber für uns "Heimkino-Nerds" ist und bleibt es natürlich ein spannendes Thema Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 13:33 bearbeitet] |
||||||||||
Cine4Home
Gesperrt |
#25 erstellt: 06. Jul 2016, 13:27 | |||||||||
Da hast Du Recht, das bisherige SDR war ja bei weitem nicht gut genug, die Qualität solcher Klassiker adäquat abzubilden. Das hängt auch eben nach wie vor davon ab, wie gewissenhaft und "seriös" die ColorTimer ihren Job beim Mastering machen. Bei solchen Klassikern ist es angebracht, die neuen HDR-Möglichkeiten so zu nutzen, dass das analoge Original in voller Pracht rekonstruiert wird, ohne die Bildkomposition zu verfremden. Gruß, Ekki |
||||||||||
George_Lucas
Inventar |
#26 erstellt: 06. Jul 2016, 13:28 | |||||||||
|
||||||||||
leon136
Hat sich gelöscht |
#27 erstellt: 06. Jul 2016, 14:01 | |||||||||
Ist das so, habe den Film noch nie im Kino gesehen und ohne direkten Vergleich finde ich die 2 Disc Blueray Version nicht schlecht, was mich aber nicht sonderlich wundert alle letzten Kinobesuche bleiben auf der Strecke im Vergleich zu Hause Ist die 35mm Kinoversion so viel besser ? Auch bei HDR o. DolbyVision kann man doch nur raten, im Endeffekt entscheidet doch immer der persönliche Geschmack, es sei ich habe den Projektor genau per Sensor auf Norm getrimmt. Genau da sehe ich schon an den ganzen Diskussionen wie viele "wahllos" an den Reglern umherschrauben nach dem Motto jo jetzt ist gut oder, oder ..... |
||||||||||
Cine4Home
Gesperrt |
#28 erstellt: 06. Jul 2016, 15:32 | |||||||||
Richtig, wer es genau will, der kalibriert seinen Projektor und kann sich sicher sein, dass sein Projektor sich neutral verhält. Bei Dolby Vision kalibriert er auf irgendwelche Geräte-Individual-Zielwerte, und Dolby verspricht dann, dass seine "Wunderalgorithmen" das Bild danach schon "irgendwie" authentisch "rechnen". Und das auch, wenn der TV weit von den Kino oder HDR-Normen entfernt ist. So eine Art Serien-Profilierung durch Dolby. Das ist ja gerade der Punkt, eine Kalibrierung wird damit ad absurdum geführt, weil die eigentliche Video-Norm ausgehebelt wird. Und das ist ja auch so gewollt, um eine Abhängigkeit zum Wunderchip-Hersteller zu erzwingen und damit stetigen Geldfluss zu erzeugen. Vollkommen logisch, dass Unternehmen wie Samsung oder Sony auf so ein Monopol keine Lust haben, Wunderschaltungen können die auch selber produzieren, ohne sich abzocken zu lassen. Sorry, aber solche tollen Algorithmen gab es doch schon immer: Panasonic hatte damals extra diesen renommierten Hollywood Color-Timer "Bernstein" auf seine Beamer losgelassen, der jedes Heimkino-Model individuell abgestimmt hat, Sony hat Triluminos / HDR / Mastered in 4K Algorithmen verbaut usw usw.. Das fing doch sogar schon mit einem Sanyo Z4 an. "Panasonic worked with leading Hollywood colorist David Bernstein and photography directors to achieve the most accurate image reproduction possible. This collaboration resulted in new integrated circuitry and core image optimizers that help the PT-AE1000U deliver true “Hollywood picture quality”—images that faithfully convey the director’s artistic intent." Hmm, klingt irgendwie bekannt, ist das echt schon 10 Jahre alt??? Sie alle haben Kino-Authentizität versprochen, die Ergebnisse waren auch immer sehr "ansprechend", aber eben nicht wirklich authentisch. Ist ja auch klar, denn authentisch verkauft sich eben nicht so gut wie "Shopmodus". Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 15:50 bearbeitet] |
||||||||||
leon136
Hat sich gelöscht |
#29 erstellt: 06. Jul 2016, 16:27 | |||||||||
Ich glaube nicht das DolbyVision bei der Heimkinoprojektion irgend etwas verbessert, ähnlich der Frage warum keine Laser-Projektoren mit größerer Leistung oder 3 farbige Laser. Bei den LED male ich mir die größten Chancen aus, LED im Cluster ohne extra Cinema Filter (Lichtverlust) für besonders reine Farben und als austauschbares Modul wenn zu viele der LED`s verreckt sind Die Übertragung der dynamischen Daten und Echtzeitverarbeitung bei Kabellängen um 10m ? andere Schnittstelle (SDI) ? , hätte doch keiner gedacht das ausgerechnet Kabel Probleme bereiten. |
||||||||||
mule
Hat sich gelöscht |
#30 erstellt: 06. Jul 2016, 18:22 | |||||||||
Grundsätzlich gebe ich Dir zwar Recht, ABER: Ein wenig fühle ich mich im Bezug auf das Thema Algorythmen einige Jahre in den Stereo-Audiobereich zurückversetzt bzw. bei manchen Hardcore-HighEndern ist es auch heute noch verpönt: Raumkorrektur per DSPs. Hier waren die Geräte und Hersteller mit Ihren Algorythmen unter den "echten Highendern" auch als "Verschlimmbesserer und Originalklangverfälscher" verpönt. Das war in den ersten Jahren der Entwicklung sicherlich auch aufgrund mangelnder Processing-Power korrekt. Wer das Thema aber heute mal neutral und ohne Scheuklappen betrachtet und testet wird erkennen, das derartige "Algorythmen" sehr wohl ein probates Mittel sind, um Unzulänglichkeiten im Raum in Grenzen auszubessern, um so dem Original sogar näher zu kommen. Daher bin ich Algoriyhmen zunächst einmal grundsätzlich gegenüber aufgeschlossen und erst die Praxis wird meiner Meinung nach wirklich zeigen, was sie taugen oder eben nicht. Hier ist mir die Diskussion derzeit etwas zu schwarz bzw. weiß und klingt auch etwas danach, als wolle man an alten Tugenden wie der manuellen Kalibirierung auch die nächsten Jahrzehnte festhalten bzw. Algorythmen grundsätzlich verteufeln, wie es eben auch die Stereo-HighEnder machen bzw. gemacht haben. Ich finde die Idee (die Gesamtkette zu betrachten, dabei aber auf gerätespezifische Eigenheiten einzugehen) zunächst einmal gut. Ob sie auch gut umgesetzt wird oder lediglich die finanziellen Interessen vorgehen und das eigentliche Ziel dadurch aus den Augen verloren wird, wird sich zeigen. Hier erlaube ich mir persönlich auf rein theoretischer Basis oder vom Hörensagen kein abschließendes Urteil. Und meist ist ja auch eine erste Version noch nicht der Weisheit letzter Schluss. Vielleicht heißt der erste "richtige" Algorythmus dann nicht Dolby Vision, sondern Super-Vision und kommt auch nicht von Dolby. [Beitrag von mule am 06. Jul 2016, 18:24 bearbeitet] |
||||||||||
audiohobbit
Inventar |
#31 erstellt: 06. Jul 2016, 18:41 | |||||||||
Das kann man nicht vergleichen. Raumkorrektursysteme müssen zwingend mit Messmikro selbst einmessen, was einer Autokalibrierung MIT Sensor gleich kommt. Im Audiobereich könnte man das eher grob mit sowas wie THX-Schaltungen (von früher) vergleichen, die pauschal irgendwas irgendwie korrigiert haben ohne den jeweiligen Raum und die Lautsprecher eingemessen zu haben. Übrigens: Auch im Audiobereich wird der Algorithmus mit "i" geschrieben, wenngleich die Nähe zum Rhythmus hier eher gegeben wäre... Ein Algorithmus ist außerdem auch nix anderes als eine (eigentlich feste) Handlungs- bzw. Programmablaufanweisung. Der Begriff wird oft (wie auch hier) etwas fälschlich verwendet. Ein starres Upscaling von Auflösung x auf Auflösung y würde bspw. einem Algorithmus folgen. Der einfachste bei 2k auf 4k bspw. wäre die Pixelvervierfachung. |
||||||||||
Cine4Home
Gesperrt |
#32 erstellt: 06. Jul 2016, 18:47 | |||||||||
Der Audio-Vergleich hinkt gewaltig, denn hier sind die Limitationen wesentlich größer als im Bild, die perfekte Tonreproduktion bleibt eine Utopie und hier muss der Anwender immer mit erheblichen Kompromissen leben. Im Übrigen lässt sich die Akustik eines Raumes schließlich doch nur durch eine Raumoptimierung wirklich perfektionieren. Last but not least wird im Audiobereich soviel Schindluder getrieben und Vodoo betrieben, dass man stets genauso viele unterschiedliche Antworten bekommt, wie man "Experten" fragt. Sowas ist natürlich ein Traum für die Industrie, deshalb wollen sie da im Bildbereich auch hin, wie man sieht. In Sachen Bild ist es viel einfacher die Qualität objektiv zu bewerten, denn ein Bild lässt sich leicht vermessen und ein schwarzer Raum hat darauf keinen Einfluss. Das erschwert das Marketing, denn "Hard Facts" sind da stets hinderlich. Das gilt natürlich nur solange, es Normen gibt, die man überprüfen kann. Kann sich jeder denken, wen das stört und warum Die (vorhersehbare) Unterstellung, es ginge um die Verteidigung der manuellen Kalibrierung zieht auch nicht, das Gegenteil ist der Fall: Denn Dolby ist natürlich so schlau, die Kalibrier-Industrie mit einzubeziehen, wie der Dolby Werbetext von Spectracal ja beweist. Mit anderen Worten: Die Kalibrierer verdienen weiterhin Ihr Geld, sie sollen nur auf Dolbys Pseudo-Norm kalibrieren, statt auf eigentliche Videonormen. "Win Win" für alle: Kalibrierer verdient Geld, Dolby verdient (sehr viel) Geld, SpectraCal verdient Geld. Deshalb erwarte ich sogar, dass viele kommerzielle Kalibrierer sich geradezu auf Dolby Vision stürzen werden, weil sie sich von Dolbys Marketingpower einen Umsatzschub für Kalibrierungen versprechen. Nudgiator hat es ja auch schon angedeutet. So sollte man sich aber meiner Meinung nach eben nicht korrumpieren lassen, weil man seine eigene Glaubwürdigkeit dadurch verliert. Ich will hier gar nichts verteufeln, Dolby bringt ja HDR auch in den Kinos nach vorne, was sehr lobenswert ist. Und auch HDR10 basiert ja u.a. auf Untersuchungen von Dolby. Aber nach der bisherigen Marketing-Kampagne zu Dolby Vision für TVs sehe ich kein wirklich schlüssiges Konzept, das Dolby da vorlegt. Es werden nur Marketing-Floskeln ("12bit, Dynamische Metadaten, Intelligente Bild-Algorithmen" etc.) rausgehauen, die in Kombination mit der Dolby-Marke beim unbedarften Konsumenten schnell verfangen (wie man auch hier sieht), sich aber beim genauen Hinsehen widersprechen. Dies und die bekannte Vorgehensweise von Dolby in Lizenz-Systemen stimmen mich mehr als skeptisch. Daher ist die Ausgangsthese "Dolby Vision ist besser" in meinen Augen einfach so absolut haltlos. Wenn man dafür sachlich schlüssige Argumente hat, können wir die gerne diskutieren, dafür ist der Thread ja da... damit haben wir ja auch schon begonnen, oder? Vielleicht kommen ja noch bahnbrechende Erkenntnisse in Sachen Dolby Vision ans Tageslicht, bisher sind sie nur noch nicht zu erkennen. Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 19:09 bearbeitet] |
||||||||||
mule
Hat sich gelöscht |
#33 erstellt: 06. Jul 2016, 19:53 | |||||||||
@Ekki: Weshalb nimmst Du es gleich persönlich? Zu Deinem Vorwurf "Unterstellung", die von mir nie beabsichtigt war: Willst Du anzweifeln, das es technisch möglich ist eine Technik zu entwickeln, die in sämtliche Geräte einer Wiedergabekette integriert wird und dabei die spezifischen Geräteparameter berücksichtigt, so dass das an der Quelle eingehende Signal möglichst originalgetreu durch das Display reproduziert wird und zwar automatisch? Das wir diesen Stand heute bei Weitem nicht erreicht haben und auch mit DV in der anstehenden Version nicht haben werden, ist mir auch klar und bei Beamern wird es durch "den Raum" (inklusive Leinwand) sicherlich nicht einfacher. Aber diese Herausforderung hat man im Audiobereich ja auch. DolbyVision geht aber zumindest einmal den Weg einen ganzheitlichen Ansatz zu verfokgen und eben nicht jedes Gerät unabhängig von den restlichen Geräten der Wiedergabekette sein eigenes Süppchen kochen zu lassen. Wie gesagt möchte ich mir aber (und da geht es wohl allen anderen hier genauso) mangels echter praktischer Erfahrungswerte keine Bewertung abgeben. Und zum Thema Audio-Vergleich: Dieser sollte doch kein direkter Vergleich zu DolbyVision sein, sondern lediglich aufzeigen, das Ideen grundsätzlich nicht von Beginn an funktionieren müssen, sie deshalb aber auch nicht gleich verteufelt werden müssen und schon gar nicht weil man es anders gewohnt ist. Wie gesagt ist mir die Diskussion zu sehr schwarz und weiß, denn ich empfinde den Grundgedanken von DV mit dem ganzheitlichen Ansatz grundsätzlich gut. Ob dies dann in der Praxis funktioniert oder nicht bzw. ab welcher Version, steht dann auf einem anderen Blatt. Was ich aber überhaupt nicht verstehe ist, das man bei einem Bild die Qualität viel einfacher als im Audiobereich messen kann. Weshalb? Im Audiobereich ist der Bewertungsansatz doch vollkommen identisch: Zuvor fest definierte Testsignale werden gemessen und anschließend können die Messergebnisse objektiv bewertet werden. Also vollkommen identisch zum Bildbereich. Und zur Aussage "schließlich doch nur durch Raumoptimierung": Es ist richtig, das heute längst nicht alle Audio-Parameter durch eine Raumkorrektur per DSP korrigiert werden können. Aber heute ist bereits Einiges möglich und die Entwicklung geht weiter. Es ist daher bereits heute oftmals erheblich sinnvoller in eine Raumkorrektur zu investieren, als in ein Verstärker- oder Lautsprecher-Upgrade. Man muss halt nur manchmal alte Zöpfe abschneiden. [Beitrag von mule am 06. Jul 2016, 19:55 bearbeitet] |
||||||||||
audiohobbit
Inventar |
#34 erstellt: 06. Jul 2016, 20:01 | |||||||||
Das messen ist nicht so das Problem...
Ja, und zwar eine physikalische. Nach wie vor. (Mein Auto hat auch eine "Sport"-Schaltung, und fühlt sich dann sportlicher an. Trotzdem hats dann nicht plötzlich mehr Leistung...) [Beitrag von audiohobbit am 06. Jul 2016, 20:01 bearbeitet] |
||||||||||
leon136
Hat sich gelöscht |
#35 erstellt: 06. Jul 2016, 20:04 | |||||||||
Ist wie im Kino, Dolby Atmos und kein Auro 3D und wenn das nicht reicht kommt DTS-X und schon ist Auro "platt". Dann stellt man großzügig den Studios noch die Technik zusammen und schon passt der Deal OT: was ein laaangw.... Spiel/ Ballgeschupse P.S. Oh da gab es wohl eine Standpauke vom Trainer [Beitrag von leon136 am 06. Jul 2016, 20:09 bearbeitet] |
||||||||||
mule
Hat sich gelöscht |
#36 erstellt: 06. Jul 2016, 20:20 | |||||||||
Sorry, aber das ist ja nun ein absolut sinnfreier Vergleich! Heute können sich physikalische und elektronische Maßnahmen wunderbar ergänzen. Denn auch der physikalischen sind Grenzen gesetzt, sofern man nicht in einem Tonstudio wohnt und nicht nur eine einzige Hörposition hat. |
||||||||||
Cine4Home
Gesperrt |
#37 erstellt: 06. Jul 2016, 20:55 | |||||||||
Diese Frage zeigt doch schon das Problem: Was bedeutet denn "möglichst originalgetreu"?
Leinwand und Raum sind bei einem hochwertigen Heimkino noch das geringste Problem. Raum Schwarz matt machen und eine Leinwand mit ordentlicher Qualität kaufen, dann sind diese Einflüsse ausgeschaltet. Aber klar, Bildgröße, Lampenalterung, Projektionsabstand / Zoom, Lampenmodus, Serienstreuung usw usw konterkarieren das "Auto-System" nur noch weiter, HDR im Wohnzimmer wird ohne Spezialleinwand eh schwierig, aber das ist nochmal ein anderes Thema.
Irrtum, genau das Gegenteil ist der Fall: Durch Videonormen kocht eben kein Gerät "sein eigenes Süppchen", genau das ist ja der Sinn von Normen. Und wenn ein Gerät dies nicht richtig kann, ist das einfach zu "enttarnen" (siehe Sony HW50 Problem.-Thread ;-) ). Und diesen ganzheitlichen Ansatz versucht Dolby zu durchbrechen. Sie wollen eigentlich die transparenten Videonormen ausschalten, um dann Lizenzgebühren zu kassieren. Eine relativ einfache Thematik wird künstlich verkompliziert, um dann die "bequeme Lösung" als die bessere zu suggerieren. Wie man sieht, funktioniert das anscheinend ja schon, auf einmal wird aus einer glasklaren und für alle Geräte gültigen Videonorm bar jeder Ratio ein "eigenes Süppchen"...
Schwarz / Weiß gemalt haben andere: Diese Diskussion startete deshalb, weil manche hier proklamierten, dass Dolby Vision pauschal besser sei als HDR10. Und das ist einfach eine unhaltbare Aussage nach wie vor. Nach den derzeitigen Dolby-Veröffentlichungen ist extrem viel Skepsis angesagt. Wenn sie die technisch fundiert noch ausräumen, prima, dann bin ich der erste, der einen positiven Bericht über DV veröffentlichen wird. Aber bisher gibt es dafür noch keine Anzeichen, nur sehr "verdächtiges" Marketing Bla-Bla, das überraschend viele sehr unkritisch so übernehmen.
Wenn Du mal einer professionellen akustischen Raumvermessung und der daraus folgenden notwendigen Raum-Optimierung beiwohnst, wirst Du diese Frage nicht mehr stellen. Das ist in Sachen Bild einiges einfacher. Gruß, Ekki [Beitrag von Cine4Home am 06. Jul 2016, 21:04 bearbeitet] |
||||||||||
hajkoo
Inventar |
#38 erstellt: 07. Jul 2016, 05:22 | |||||||||
Ekki, ich hoffe Du wirst erfolgreich sein dabei das "Volk" von der neutralen und sachlichen Betrachtung zu überzeugen. Ich befürchte jedoch, dass bei einigen die Hoffnung bzw. der Wunsch das eigene System/Bild mit DolbyVision tunen zu können, das gesunde Misstrauen gegenüber solchen Dingen einfach ausschaltet. Tausend Dank für Deinen Einsatz! so long... |
||||||||||
George_Lucas
Inventar |
#39 erstellt: 07. Jul 2016, 07:21 | |||||||||
Bei all der Begeisterung und Kritik bleibt festzuhalten: Momentan ist Dolby Vision für Projektoren eine Marketingblase. Es wird sich zeigen, ob diese Blase platzt - oder die Nutzer in wunderbare Farben eingehüllt werden, sobald Filme und Hardware Ende des Jahres erhältlich sind. Auch auf die Nachhaltigkeit bin ich schon neugierig. Wie lange werden wir mit "Dolby Vision"-Filmen versorgt? - Auf der IFA und CEDIA 2016 sollte ein Trend erkennbar sein. Erste Hardware mit Dolby Vision wird dort vorgestellt? [Beitrag von George_Lucas am 07. Jul 2016, 07:23 bearbeitet] |
||||||||||
*Mori*
Inventar |
#40 erstellt: 07. Jul 2016, 07:53 | |||||||||
Es ist ja nichts Neues, dass Firmen Produkte oder Dienstleistungen mit mehr oder weniger Brimborium ankündigen. Die richtige Mischung zwischen Skepsis und Offenheit macht's. Am Ende des Tages wird entscheidend sein (zumindest für mich), was tatsächlich da ist und nicht das, was versprochen wurde. Der Ursprung dieses Threads war ja die Frage, ob der Sony VW5000 Dolby Vision fähig sein würde. Eine vermutlich recht grosse Anzahl von Usern scheut sich halt davor, Geräte zu kaufen, die nach kurzer Zeit angeblich veraltet sein sollen und wieder ersetzt werden sollen (wenn es nach den Marktschreiern ginge). Viele halten gerade dies beim Thema HDR für möglich oder sogar wahrscheinlich. Ich gehöre auch dazu. Ich halte HDR grundsätzlich für eine sehr sinnvolle Innovation, warte aber gerne ab, bis sich der Nebel lichtet, um zu beurteilen, was sinnvoll ist und was nicht. Sinnvolles wird sich durchsetzen und sicherlich auch bei mir Einzug halten. |
||||||||||
Cine4Home
Gesperrt |
#41 erstellt: 07. Jul 2016, 10:01 | |||||||||
Dass man sich Zukunftssicherheit wünscht, ist verständlich, erstrecht in hohen Preisklassen. Nur gehört HDR10, was der VW5000 und die anderen Beamer ja unterstützen, definitiv obligatorisch zur UHD-BD, da ist man ja schonmal auf der sicheren Seite. Selbst DV-Titel müssen also verpflichtend HDR10 beinhalten. Und auch Amazon & Netflix haben bereits angekündigt, beides zu unterstützen. Mit anderen Worten: HDR10 bekommt man bei garantiert jedem Film, Dolby Vision hingegen nur bei "bezahlfreudigen" Studios und Herstellern. Also sehe ich nicht, dass man Gefahr läuft, im Laufe der Nutzungsdauer der aktuellen Beamergeneration auf dem Trockenen zu landen. Gruß, Ekki [Beitrag von Cine4Home am 07. Jul 2016, 10:03 bearbeitet] |
||||||||||
leon136
Hat sich gelöscht |
#42 erstellt: 07. Jul 2016, 10:19 | |||||||||
Ich frage mich aber schon, was ist mit den anderen Herstellern los, worauf warten die alle ? Es gibt jetzt genau 2X UHD-Player, noch nicht mal von Sony als "Antreiber" oder Marantz, Denon, Oppo und wie sie alle da sind, lauern die jetzt alle auf Dolby oder warum kommen die so langsam in fahrt [Beitrag von leon136 am 07. Jul 2016, 10:19 bearbeitet] |
||||||||||
Cine4Home
Gesperrt |
#43 erstellt: 07. Jul 2016, 10:33 | |||||||||
Pff das ist eigentlich recht einfach: Samsung hat mit dem 8500er den BD-Player Markt direkt so zerschossen, dass da eh kein Geld mehr groß verdient wird. Ich denke, zur IFA werden die nächsten Geräte angekündigt. Gruß, Ekki |
||||||||||
Nudgiator
Inventar |
#44 erstellt: 07. Jul 2016, 10:58 | |||||||||
Soweit ich mitbekommen habe, verbauen Samsung und Panasonic eigene Chips in den UHD-Playern. Bis Chips für andere Hersteller zur Verfügung stehen, dauert es noch etwas. Daher läuft das so langsam an. |
||||||||||
Jogitronic
Inventar |
#45 erstellt: 07. Jul 2016, 11:19 | |||||||||
Demnächst kommt schon mal die Xbox One S für 299 €, das wird sicher die Preislage bei den Playern beeinflussen [Beitrag von Jogitronic am 07. Jul 2016, 11:21 bearbeitet] |
||||||||||
surbier
Inventar |
#46 erstellt: 07. Jul 2016, 11:44 | |||||||||
Zerschossen? Sowohl Panasonic als auch Samsung haben den Preis für ihre UHD Player DEUTLICH über dem Preisniveau der jeweiligen "Top Modelle" angesetzt. 400 Euro für einen Samsung Player ist ein stolzer Preis - die Märchenpreise für die hochskalierten UHD Scheiben nicht mit eingerechnet. Gruss Surbier [Beitrag von surbier am 07. Jul 2016, 11:49 bearbeitet] |
||||||||||
audiohobbit
Inventar |
#47 erstellt: 07. Jul 2016, 11:46 | |||||||||
Ich würde eh auf nen Oppo warten. Die sind schon dran. |
||||||||||
Nudgiator
Inventar |
#48 erstellt: 07. Jul 2016, 12:56 | |||||||||
Du kannst einen BD-Player nicht mit einem UHD-Player vergleichen. Die ersten BD-Player lagen weit jenseits von 1000€.Dagegen ist der K8500 spottbillig |
||||||||||
Nudgiator
Inventar |
#49 erstellt: 07. Jul 2016, 12:58 | |||||||||
Naja, die BD-Player von Oppo sind auch alles andere als Robust und fehlerfrei. Frag mal Ekki dazu |
||||||||||
surbier
Inventar |
#50 erstellt: 07. Jul 2016, 13:12 | |||||||||
Im Vergleich zu den Top Geräten der jeweiligen Hersteller der aktuellen Generation wurden die Preise, wegen des UHD Emblems, extrem angehoben. Was interessiert mich der Markt von gestern? Nicht, dass ich mich als Käufer darüber beklage. Ich hätte ja nicht zu kaufen brauchen. Ich möchte lediglich darauf hinweisen, dass aus meiner Sicht der Markt alles andere als "zerschossen" ist. |
||||||||||
hajkoo
Inventar |
#51 erstellt: 07. Jul 2016, 13:30 | |||||||||
Was glaubst Du denn, wie so ein Hersteller seine Entwicklungskosten neuer Technologien finanziert. Und am Ende jammern dann alle dass es nur noch zwei Player Hersteller gibt, oder zweieinhalb Projektoren Hersteller, oder die Fertigungsqualität immer schlechter wird, usw. Davon kann man allein aus dem letzten Jahr zig Beispiele hier im Forum finden. so long... |
||||||||||
|
|
Das könnte Dich auch interessieren: |
Besseres HDR auf Projektoren mit Low Latency Dolby Vision (LLDV)? Abaqus68 am 17.11.2019 – Letzte Antwort am 21.06.2023 – 106 Beiträge |
Projektoren und 3D George_Lucas am 04.09.2024 – Letzte Antwort am 03.11.2024 – 104 Beiträge |
Dolby Vision/HDR Firmwareupgrades bei aktuellen 4 K Beamern? worf1234 am 25.02.2017 – Letzte Antwort am 12.03.2017 – 6 Beiträge |
Xiaomi Laser Cinema 2: Erster 4K-Laserprojektor mit Dolby Vision Heimkinopirat am 09.11.2021 – Letzte Antwort am 15.01.2022 – 10 Beiträge |
Großer Projektionsabstand, Teleoptiken für Beamer bekannt? Gaaston!! am 05.08.2005 – Letzte Antwort am 05.08.2005 – 2 Beiträge |
Bewegungsschärfe Projektoren haddoz am 03.11.2009 – Letzte Antwort am 04.11.2009 – 5 Beiträge |
Barco Vision 700 sma am 04.05.2004 – Letzte Antwort am 03.06.2004 – 10 Beiträge |
Erste 3D Projektoren mit nativen 120Hz Rafunzel am 20.06.2009 – Letzte Antwort am 30.01.2010 – 52 Beiträge |
Projektoren Reaktionszeit Kel_Thalas am 28.08.2007 – Letzte Antwort am 30.08.2007 – 4 Beiträge |
Projektoren für Video RGB Torti77 am 05.02.2004 – Letzte Antwort am 09.02.2004 – 4 Beiträge |
Foren Archiv
2016
Anzeige
Produkte in diesem Thread
Aktuelle Aktion
Top 10 Threads in Projektoren / Beamer der letzten 7 Tage
- JVC DLA-NP5 / NZ7, NZ8, NZ9
- Epson EH-LS11000 & EH-LS12000 2021 Laser, 3LCD, Shift 4k
- Deckenhalterung Beamer- Bild verkehrt herum?
- Wo Steckdosen in der Decke platzieren für meinen Beamer?
- XGIMI Horizon Pro Beamer Gespräche, Tipps und Tricks
- Beamer macht Lila bild pls help
- Fleck INNEN in der Linse!
- EPSON EH-TW7000 und EH-TW7100: 4K PRO-UHD Nachfolger der EH-TW6700 und EH-TW6800
- nebula capsule max mit apps bespielen
- Sony Beamer 2022 - VPL-XW5000ES - ( VPL-XW6000ES in Amerika ) / VPL-XW7000ES
Top 10 Threads in Projektoren / Beamer der letzten 50 Tage
- JVC DLA-NP5 / NZ7, NZ8, NZ9
- Epson EH-LS11000 & EH-LS12000 2021 Laser, 3LCD, Shift 4k
- Deckenhalterung Beamer- Bild verkehrt herum?
- Wo Steckdosen in der Decke platzieren für meinen Beamer?
- XGIMI Horizon Pro Beamer Gespräche, Tipps und Tricks
- Beamer macht Lila bild pls help
- Fleck INNEN in der Linse!
- EPSON EH-TW7000 und EH-TW7100: 4K PRO-UHD Nachfolger der EH-TW6700 und EH-TW6800
- nebula capsule max mit apps bespielen
- Sony Beamer 2022 - VPL-XW5000ES - ( VPL-XW6000ES in Amerika ) / VPL-XW7000ES
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder927.449 ( Heute: 17 )
- Neuestes MitgliedNicksloda
- Gesamtzahl an Themen1.555.698
- Gesamtzahl an Beiträgen21.643.213