HIFI-FORUM » Do it yourself » Lautsprecher » Was der Wasserfall / das CSD bedeutet? | |
|
Was der Wasserfall / das CSD bedeutet?+A -A |
||||
Autor |
| |||
ratziofarm
Hat sich gelöscht |
#1 erstellt: 01. Aug 2007, 12:25 | |||
Ahoi, In den Postillen und anderen Publikationen, die sich speziell an Bastler und andere Freizeitler wenden, findet der Leser sogenannte Wasserfälle oder CSDs (Cummulative Spektral Decay), Abklingspektren. Die Bedeutung erscheint unmittelbar klar. Sofern sich bei irgendwelchen Frequenzen Grate über längere Zeit hinziehen, handelt es sich um eine "Resonanz", und Resonanzen sind sowieso schlecht, weil die hört man als Dröhnen, Klingeln, Zirpen, Sausen oder was sonst auch. Wie so oft ist's anders als man denkt. Die Wasserfälle werden dadurch erstellt, dass der gemessene Impuls über ein in der Zeit vorrückendes Bewertungsfenster immer wieder erneut auf einen Amplitudenfrequenzgang hin ausgewertet wird. Wie das im einzelnen passiert, kann dahingestellt bleiben. Aus der Konstruktion des Wasserfalls ergibt sich aber sogleich, dass er nicht mehr Informationen enthalten kann, als sie schon der Impuls enthält. Weil aber auch der Amplituden- mit Phasenfrequenzgang eine vollständige erschöpfende Umsetzung der Impulsmessung ist, enthält der Wasserfall auch gegenüber dem Ampl.- und Phasenfrequenzgang nichts neues! Der Wasserfall ist eine andere Darstellung der im Impuls vorliegenden Daten, und keine selbstständige Messung. Leider erleichtert der Wasserfall das Verständnis der Impulswiedergabe nicht. Richtig ist, dass Reonanzen die bekannten Grate erzeugen können - sie müssen aber nicht. Andersherum ist auch nicht jeder Grat eine Resonanz. Vielmehr führen überproportionale Phasenverschiebungn, Änderungen der Gruppenlaufzeit zu den Graten. Anders gesagt sind die Grate eine verkappte Darstellung der GLZ und von Pegelunregelmäßigkeiten und sonst nichts. Zum Beleg kann man ja mal mittels Texteditor eine "Resonanz" erzeugen, indem man in einer Datei die Phasenlage drastisch ändert, den Frequenzgang in einen Impuls rückkonvertiert und dann daraus einen Wasserfall rechnen lässt. Folgende physikalische Vorgänge können zu Graten in Wasserfällen führen: Resonanzen, Reflektionen und allgemein Zeitverzögerungen bestimmter Spektralanteile. Der Wasserfall gibt dabei keinerlei Information über die Herkunft des Grates noch über die gehörsame Wirkung. Weil das CSD im Falle Lautsprecher nichts und gar nichts anderes als die Darstellung des Ampl./Phasenverlaufes ist, kann man sich statt darauf auch gleich auf die aussagekräftigere Darstellung stürzen. Nämlich auf den Frequenzverlauf der Gruppenlaufzeit. Zu dem gibt es äussert frohe Kunde. Wenn die Gruppenlaufzeit im Mittelton bei Knackimpulsen ~1ms oder bei Musik 8(!)ms nicht überschreitet, ist vom Gehör her alles im Lack. Man hört es nicht, selbst wenn der Wasserfall nach Meinung meinungsführender Ingenieure fürcherlich aussieht. Praxisrelevant wird diese Unterscheidung dann, wenn man für sich statt für die Qualitätsvorstellungen meinungsführender Ingenieure basteln will. Beispielsweise nehme man sich sogenannte NXT-panels aka DML (Distributed Mode Loudspeaker) her. Die sind a) je mehr Reso' desto und b) mit einem CSD versehen, in dem man sich verirren möchte. Trotzdem "klingen" professionelle, qualitätsorientierte Ausführungen absolut einwandfrei, manche sogar richtiggehend ausgezeichnet. Hier liegt der Fall vor, dass das CSD mit großem Spektakel nichts anders sagt als die Gruppenlaufzeit, und dass selbst "Reso's" keineswegs von vorneherein abträglich sind. Immer schön den Kopf oben halten und kräftig lang durchziehen! - Ich schlage dieses Essay für die FAK vor. Es kommt ja doch immer wieder zu überbordenden Fehlinterpretationen, aus denen man ohne ein volles Maß math. Verständnis (und wer hat das schon?) nicht rauskommt. [Beitrag von ratziofarm am 01. Aug 2007, 12:27 bearbeitet] |
||||
Fosti
Inventar |
#2 erstellt: 01. Aug 2007, 13:04 | |||
Moin, "Gute Besserung"! Sehr gut und anschaulich beschrieben, besser als von den meisten Physiklehrern oder was ihnen unterstellt wird. Also ab in die FAQ, Murray! |
||||
|
||||
Christoph_Gebhard
Inventar |
#3 erstellt: 01. Aug 2007, 13:06 | |||
Gäähhnn! Rein theoretisches Argument! Fourier-Transformation...blablabla...interessiert `nen Toten! CSD, Sprungantwort und Amplitudenfrequenzgang sind vielleicht mathematisch miteinander verknüpft, es ist einem normalsterblichen Bastler aber nicht möglich selbstständig aus einem gegebenen Diagramm auf die anderen zu schließen. Das Argument, was keines ist und in der Praxis schlicht nicht interessiert! |
||||
detegg
Inventar |
#4 erstellt: 01. Aug 2007, 13:12 | |||
... besser nicht! Detlef |
||||
Cpt._Baseballbatboy
Inventar |
#5 erstellt: 01. Aug 2007, 13:14 | |||
Moin, ebend. Es kommt nämlich auch darauf an, wie Daten präsentiert werden. Das CSD macht das anschaulich, auch wenn es etliche Fehler enthält und andere kaschiert. Das ist das viel größere Problem, was hier leider nicht erwähnt wird. Siehe dazu bei Linkwitz oder meinereiner: http://esweep.berlios.de/theorie/new_csd/new_csd_method.html Shaped tone bursts sind da viel besser, weil dann nämlich Resonanzen von Reflexionen unterschieden werden können. BTW, wie wirken sich wohl Reflexionen auf die GLZ aus, hm? Gruß Cpt. |
||||
Fosti
Inventar |
#6 erstellt: 01. Aug 2007, 13:15 | |||
[quote="Thanner"] Gäähhnn! [/quote] Hi Christoph, was Ratio.. hier anschaulich beschreibt, ist vielleicht Dir und mir klar aber nicht zwangsläufig jedem Hobbybastler. Der ("gemeine" Bastler) nimmt dann aber entsprechende Interpretationen der CSD's in einschlägigen Gazetten für voll! Insofern ist diese formellose Beschreibung sehr hilfreich. Grüße, Christoph [Beitrag von Fosti am 01. Aug 2007, 13:26 bearbeitet] |
||||
ratziofarm
Hat sich gelöscht |
#7 erstellt: 01. Aug 2007, 13:17 | |||
Hallo Horst, In der Praxis ist das CSD nicht interpretierbar! Wer weiss schon, ab welcher Ausprägung ein Grat hörbar wird? Grenzwerte sind vn der Gruppenlaufzeit her bekannt. Also sollte man die Darstellung doch in der Gruppenlaufzeit belassen. Weil das CSD mathematisch, theoretisch und deshalb auch "praktisch" nichts neues bietet, und aber - für sich - auch eben nicht interpretierbar ist, weg damit. Ich halte den Weg, auf den zur Zeit damit verwiesen wird für falsch. Die allermeisten CSDs sind total unkritisch, werden aber trotzdem wegen Kleinigkeiten gegen ansonsten hervorragende Treiber werwendet. Wichtig und verständlich ist die GLZ und der Amplitudengang in der fertigen Box und die leider unvermeidliche Nichtlinearität (Klirr, IM, Chaos). Noch ist es Meinung, in der FAQ wäre es FAKT ... . |
||||
ratziofarm
Hat sich gelöscht |
#8 erstellt: 01. Aug 2007, 13:23 | |||
Du meinst also, das CSD sei ein fehlerhaftes Konzept? Ganz sicher komme es stark darauf an, wie Daten präsentiert werden, das CSD sei jedoch nicht geeignet? Tja, der "Alte", mit seiner stored energy kann der mich nicht überzeugen. Ich hab da nix gegen, solange die GLZ stimmt. Ob mit inhärent gefensterten bursts oder verfensterter Impulsion ... . so long PS @detegg: WIESO NICHT?! |
||||
Cpt._Baseballbatboy
Inventar |
#9 erstellt: 01. Aug 2007, 13:24 | |||
Moin,
erkläre doch mal anschaulich die Gruppenlaufzeit... Gruß Cpt. |
||||
ratziofarm
Hat sich gelöscht |
#10 erstellt: 01. Aug 2007, 13:31 | |||
... nö. Das braucht "es" auch nicht. GLZ ist ein Konzept, zu dem Untersuchungen im Zusammenhang mit dem Gehör vorliegen. Also kann man die Messung der GLZ daraufhin vergleichen, ob es "gut genug" == "besser braucht nicht" ist. Solche Kriterien bezüglich des CSD liegen nicht vor. Stattdessen soll ein CSD immer "ideal" sein, was tatsächlich unnötig und irreführend ist. Die Bedeutung der GLZ ergibt sich aus dem Kontext. Eigentlich ist auch das Konzept "Frequenz" nicht in allen Kontexten das gleiche ... Bastler wollen halt einfach ein paar dicke Striche auf der Straße ... können sie in Sachen GLZ haben. ciao |
||||
Fosti
Inventar |
#11 erstellt: 01. Aug 2007, 13:32 | |||
Hi Cpt., da kommen die Leuts dann noch eher hinter, als aus einer Impulsantwort ein CSD zu berechnen (ich weiß, dass du es kannst ). Na gut aber wohl nicht alle: also wenn man die Geschwindingkeit als zurückgelegte Strecke innerhalb einer Zeitspanne versteht, sollte man auch die GLZ als Änderung der Phase(nlage) innerhalb einer Frequenzsspanne verstehen können. Grüße, Fosti [Beitrag von Fosti am 01. Aug 2007, 13:39 bearbeitet] |
||||
Cpt._Baseballbatboy
Inventar |
#12 erstellt: 01. Aug 2007, 13:58 | |||
Moin,
also wird der "Bastler" genau so dumm gelassen wie beim CSD. Nochmal: das größte Problem am CSD ist nicht die möglicherweise nicht vollständige Aussage über die Hörbarkeit als vielmehr die durch seine Berechnung induzierten Fehler. Das CBSD wie es bei ARTA genannt wird ist da um Längen besser. @Fosti: klar, GLZ ist die Ableitung des Phasengangs über der Frequenz. Und weiter? Inwiefern kann der "Bastler" durch die GLZ Aussagen über
gewinnen? Wieso eigentlich hat sich das CSD weltweit so stark durchgesetzt? Unwissenheit der Ingenieure? Oder doch vielleicht die Anschaulichkeit? Gruß Cpt. P.S.: als Eintrag in die FAQ könnte eine Abhandlung über die Aussagen und Fehler eines CSDs, die Verbesserung durch das CBSD und dann eine Erwähnung mit der alternativen Betrachtung der Gruppenlaufzeit sein. Die reine Aussage "CSD scheiße - GLZ gut" kann das nicht sein. Und nochmal: wenn Reflexionen im CSD Probleme verursachen, was machen die dann mit der GLZ? [Beitrag von Cpt._Baseballbatboy am 01. Aug 2007, 14:02 bearbeitet] |
||||
detegg
Inventar |
#13 erstellt: 01. Aug 2007, 13:59 | |||
... meine "Kritik" an Post #1 bezog sich auf Ungereimtheiten in der Aussage und unbelegte "Facts" (8ms GLZ im MT-Bereich). Gruß Detlef |
||||
Fosti
Inventar |
#14 erstellt: 01. Aug 2007, 14:05 | |||
Nun CSD's sehen hübsch bunt aus, ahnlich wie die bunten FEM Bilder, aber die richtige Interpretation ist schon dem geübten Betrachter überlassen. Bei der GLZ kann man Grenzwerte, ähnlich wie bei Geschwindigkeitsbegrenzungen aufstellen. Was es für die Impulsantwort bedeutet: nun für eine gute Impulsantwort sollte sich die GLZ innerhalb der (frequenzabhängigen) "Geschwindigkeitsbegrenzungen" ähhh du weisst schon befinden [Beitrag von Fosti am 01. Aug 2007, 14:06 bearbeitet] |
||||
Fosti
Inventar |
#15 erstellt: 01. Aug 2007, 14:10 | |||
CSD's sind nix Falsches, wenn man von den vom Cpt. angesprochenen Berechnungsfehlern absieht. @Cpt.: kannst du mir eine Quelle für die Berechnung des CBSD's geben? Grüße, Fosti |
||||
Cpt._Baseballbatboy
Inventar |
#16 erstellt: 01. Aug 2007, 14:18 | |||
Moin,
weiter oben habe ich das schon verlinkt, vorletzter Abschnitt. Ist ne ganz einfache Sache. Mit "Impulswiedergabe" meinte der Medikamentenverkäufer wohl eher die Auswirkungen auf z. B. einen shaped tone burst, sowas wird ja gemeinhin auch mal als "Impuls" bezeichnet. Wie hilft die Gruppenlaufzeit diese Vorgänge zu verstehen? Grenzwerte sind ja gut und schön, aber was nutzen einem Grenzwerte einer Größe die man gar nicht versteht? Und wie ist das mit den Vergleichen? Wird ein einfacher Nutzer, besonders derjenige der das Problem nicht versteht, nicht dennoch Jagd auf das "beste" Chassis machen, ohne sich um Grenzwerte zu scheren? Gruß Cpt. |
||||
ratziofarm
Hat sich gelöscht |
#17 erstellt: 01. Aug 2007, 14:21 | |||
EbenT. Ich frage dann, wozu soll ein CSD oder CBSD überhaupt gut sein? Sag' bitte nicht "Ausschwingverhalten", das ist ein ganz ganz böses i-bäh-Wort. Ich hypothetisiere mal, wichtig für ein erfolgreiches und befriedigendes Boxenbasteln ist eine Orientierung an den physiologischen Eigenheiten des Hörens. Wie ist das Gehör, das Hören beschrieben (implizit zum Teil bereits durch MP3)? Meine Idee ist, ich kann an der GLZ sehen, obs jemand als "falsch" hören könnte, wenn er sich auf Teifi anstrengt. Am CSD oder CBSD kann ich das nicht. Da liegt auch die Antwort auf die Frage nach den Refleksen. Haas-Effekt usw., sowas muss anhand des Gehörs beschrieben werden, und nicht anhand einer ausgefuchsten Messmethodik mit unklarer Ergebnisformulierung: was wäre denn "Ausschwingverhalten", wenn Du ohne dieses komische Wort nicht auskommen willst? Nochmals ;-) Gruppenlaufzeit ist ein Konzept, das man schonmal messend gegen das Gehör gehalten hat. Ausschwingverhalten ist ein Konzept( was für eins genau?) für welches das nicht zutrifft. so long |
||||
Fosti
Inventar |
#18 erstellt: 01. Aug 2007, 14:23 | |||
Danke, den Link hatte ich übersehen |
||||
_MARVELOUDIO_
Hat sich gelöscht |
#19 erstellt: 01. Aug 2007, 14:48 | |||
FAK ? >>> F.U.C.K. Alda , Deine STEREO Schwäche wird Dir mahl widerlich zum PhÖhrHängniss *g* schließlich spült es für Leute mit zwei gesunden Ohren am Denkapparatus doch eine Rolle wenn die Schpieker zweikanalig asynchron wackeln : FIZIX 2-DAY !! Häppy GruppenLaufzeit !! (& immer schön auf Phasenbananenschalen unterwäx achten slippery when wet wet wet *g*) PS: damit Du nicht weiterhin audiofeel hinter dem Mond sägelst hier noch das wäsentliche was ich mir aus dem mehr oder wehniger aktuellem Meinungskundtugewinde bei DIWhyAudio rausgeschnibbelt habe ..... They have shown that we are extremely sensitive to phase/delays for frequencies below 1K. That might be a surprise, but you can detect delay difference of about 13microsec at frequency of 500Hz. There goes your soundstage and imaging. Put XO right there? no thanks. That sensitivity goes to nada near 1.5K. Beyond that we have increased sensitivity to amplitude variations and from around 3K we have most sensitivity for that. This leaves a gap between 1.5K and 3K where the "physiological crossover" is. Its the range where we are not good at either kind of localization and things are fuzzy. Fact that we have the most absolute sensitivity in 3K range isn't neccessarily meaning that amplitude linear crossover at 1.5K is audible. Selection of 1.5K was my conclusion based on goal of placing any phase distortions of XO into range we are least sensitive to, at the same time avoiding most sensitivity to linear distortions at 3K. If you observe equal loudness curves http://hyperphysics.phy-astr.gsu.ed...und/eqloud.html then you can easily notice that ear is less sensitive between 1K and 1.5K than below and above and is basically flat from 500 to 1K. This further makes me prefer focusing on phase issues rather than be afraid of ear sensitivity at 3K. My conclusion is that range near 1.5K is most forgiving for XO. >As freq goes up wavelength goes down and it gets increasingly harder to localize sound sources above 7khz or so due to our physiological limitations. The distance between our ears makes it easiest to locate sounds above ~250hz and below 7khz where the wavelength gets too short for our heads to be 1/4 wavelength wide. Below ~250hz there is not enough difference in amplitude between the ears due to the very long wavelength for our brains to locate the sound. Phasing is of the utmost importance for localization and with a crossover at 500hz you are shooting yourself in the foot, speaking metaphorically. >Remember that the article deals with the localization due to ITD and ILD, IOW differences between the two ears. This is not the same thing as the waveform distortion from a cross over. >So the reasoning is that a crossover in the 250-1.5kHz region will screw things up because we're especially sensitive to acoustic phase in this region, right?. OK, thanks for clarifying, that wasn't obvious to me. >Next question, does this really matter? If we choose to cross in a region where the phase of the drivers is not rotating, won't the phase of the speaker be relatively smooth? Looking at the graphs I have on hand, I can't detect the crossover point by looking at the acoustic phase... >A phase accurate/TP x-over side step the problem but there is still the issue with off axis dispersion, which may be one of the factors that makes a x-ing audible. Again, remember that phase detection BETWEEN the two ears is not the same thing as phase distortion in the absolute sense. >Actually, I'd rather wonder if phase accurate XO is what really needs the question - does it matter. We don't really hear the phase of the signal, at all, unless there are severe and abrupt changes in the phase response. http://www.ethanwiner.com/phase.html The only thing that we hear in relation to phase, is exactly differences between the two ears. IMO, phase accurate XO is not required, as long as phase is same on both channels and response is smooth. What matters is channel matching and avoiding bad acoustic interactions between drivers at XO. Thats best simply avoided rather than dealt with. By placing XO into phase sensitive hearing range, we need more care with XO component matching, polar response issues, etc. >Phase is important for imaging. Assuming everything else is perfect (i.e. quality binaural recordings with headphones, or with speakers with cross-talk cancellation preprocessing of the sound taking into account the speaker/room setup geometry), then I think phase problems will become a good deal more audible, at least in certain frequency ranges (according to THIS, phase issus in the low frequencies do not matter). http://www.silcom.com/~aludwig/Sysdes/Crossove_Design.htm More interesting discussion of phase, though in another context, is HERE. http://www.audiosign...und%20different.html >phase distortion as induced by crossovers in the midrange has been prooved to be audible by several studies now. Also absolute polarity is audible on some materiel. >I agree with that findings. However phase distortion in the midrange does not affect imaging. It only affects transient response and may lead to sound smearing. A simple way to avoid this is using XO filters with minimal group delay. For example, BW3 (inverted driver polarity) is a good choice for a midrange XO filter target. OTOH, I would avoid the popular LR4 below 1...2 kHz. >Phase itself is not important for imaging. Not a single driver has linear phase response anyway, let alone flat. For imaging, interaural timing is important. Timing has relation with phase, but its not synonymous. XO causes timing changes, so does baffle step. You can adjust timing, and you need only limited precision in that within channel. If that wasn't so, you'd have to position your tweater with micrometer precision. Chasing for perfect phase accuracy is futile, and gives really nothing. You get your square wave only in very precise point in space, and any move from that spot destroys the square wave. Linear phase of XO and acoustic phase response of physical drivers over XO point are very different things. Accounting for that requires XO device thats far from phase accurate. The very value of the localization article is that it explains the cues human ear is using for imaging, and reasons. Its useful in gaining further understanding what changes are audible. I focused precisely on imaging. The article shows why channel phase match is important below 1.5k and not important above 3k. What you do want is to avoid acoustic source changing its physical location in phase sensitive range, to keep phase differences between channels as small and linear as possible. It is difficult to achieve unless you keep all the phase sensitive freq range on the same driver. >"Although not in large numbers, previous research in investigation of the audibility of phase distortion has proven that it is an audible phenomenon. Lipshitz et al. [7] has shown that on suitably chosen signals, even small midrange phase distortion can be clearly audible. Mathes and Miller [8] and Craig and Jeffress [9] showed that a simple two-component tone, consisting of a fundamental and second harmonic, changed in timbre as the phase of the second harmonic was varied relative to the fundamental. The above experiment was replicated by Lipshitz et al., with summed 200 and 400 Hz frequencies, presented double blind via loudspeakers resulting in a 100% accuracy score. An experiment involving polarity inversion of both loudspeaker channels resulted in an audibility confidence rating in excess of 99% with the two-component tone, although the effect was very subtle on music and speech. Cabot et al. [10] tested the audibility of phase shifts in two component octave complexes with fundamental and third-harmonic signals via headphones. The experiment demonstrated that phase shifts of harmonic complexes were detectable." >Also you could check up pcabx.com for a file where you can see if you are able to hear the phase distortion of a 4th LR in mid frequencys. People I trust has reported a very different sound on fingersnapps for example, using this test. Could be done with headphones. >Studying phase using headphones does not show how we perceive phase problems in the real world. We don't hear things in only one ear, sound is heard by both ears and the temporal and level differences create the picture we hear. The interaction between the speakers signals when it reaches our ears is the issue. >Again, remember that phase and timing between the ears is one thing, phase distortion as introduced by a crossover is another thing. The audibility of crossover distortion can be checked with headphones to avoid certain issues with a stereo speaker set up. Wether further effects can show up when listening to loudspeaekrs, I don´t know, probably. Though I believe that phase distortion from crossovers is audible, I don´t think it necessarily have so much with imaging and localization to do, but more about how it sounds and how it affects listening fatigue and such things. That said, the most natural soundstage, imaging and localization I have heard when listening to loudspeakers, has been from 1st or low order filters with good attention to room acoustics. >Did you read the actual paper? This excerpt is just mentioning results of previous work, its NOT result the quoted Koya paper reached. Andrew is blatantly misquoting Koya! "Hidden agenda" alarms are ringing. Read the results: http://www.music.miami.edu/programs...5/chapter_5.htm and notice that content that even remotely exceeded random chance correlation (result >8) was for 70Hz sawtooth and impulse with 4ms group delay distortion. For rest, 8ms was random chance - no correlation. Note how audibility results dropped dramatically when going from headphones to speakers. Yes, I do not trust Lipshitz results, as he uses waveforms suitably chosen, where suitably means discontinuous signals introducing heavy spectral content that isn't intended. People do mistakes. I have conducted ABX on the famous 200+400 Hz signal with phase changes, there is _nothing_ to be heard of difference. What Lipshitz heard was some other distortion. The Koya research established that only gross group delay distortions are audible, where gross means over 4-8ms. And thats the point. What we hear is not phase, but too bad group delays. Phase is attached to frequency, group delay is not. Thats what you can possibly hear in steps and pulses. Thats your "smearing". Your hearing is able to distinguish temporal events, but that resolution is limited, fundamentally. Consider this. 360 degrees phase shift is exactly 1 period of a sinewave. Its a delay of 1 period. Before 1 period of any frequency component has passed, there is even no way to tell that such frequency is present in the signal. Its undeterminate yet. Now, for any higher frequency F at least 2 periods must pass before F/2 is even defined. Your temporal resolution of frequency is fundamentally limited by its period. For 20Hz signal, you simply have no means to detect its occurance timing with better than 50ms precision. Now consider LR4 with cutoff at 300Hz. It has 1.5ms group delay at 300Hz. Thats half the period. And it has 1.5ms delay at 20Hz too. Thats such a small fraction of the possible temporal resolution at 20Hz that it is irrelevant. For higher frequencies group delay falls faster than temporal precision grows - ie. temporal "smearing" is never larger than 1 half of period - at XO frequency. And thats the same for any XO frequency - largest group delay is 1 half period at XO, and is smaller for any other frequency. The paper I posted shows that in midrange resolution of phase _difference between ears_ is orders of magnitude higher than temporal resolution. Thats possibly source of confusion and also audible differences due to mismatch of channels. Infact, the sensitivity is shown to be so incredibly high (13us), that it might be used to argue that 44.1K sampling rate (22.7us) is inadequate to reconstruct that precisely. It shows. You should do them. With headphones, then with speakers. Eliminating sighted bias. Eliminating other more important distortions first, or at least not closing your eyes on them. http://www.pcabx.com/technical/LR-300-3K/index.htm Thats a good source for revelation. Take the samples, ABX them - 20 tries without seeing score. I won't even try scoring ABX, as it is obvious from few tries that there is nothing to be heard. quote - I have always had a feeling of it must be audible. Now I hear and read more and more supporting that. I had similar feelings too. Until I couldn't ABX few completely different looking waveforms under any conditions at home. ABX is revelation. I couldn't believe how much bias affects hearing until I got proof in my face. Now I hear and read more and more that $8000K cable is more "fluid" than $2000K cable, too. Its a quality of tests that matters, not quantity. Proper listening tests to prove audibility of phase alone are difficult to make. There is too much false positives due to secondary effects. ALL references to audibility of phase distortion infact admit that the audibility is very subtle even in face of quite large distortions. That alone should make you very cautious - phase shifts cause so severe waveform changes that you face the core question: either phase change is always immediately audible without effort as pitch or timbre, or it has no or very little correlation with audibility at all. Evidence for the latter is overwhelming. See what John Atkinson has to say about phase: http://www.stereophile.com/reference/100/index3.html Thats what Kevin Voecks has to say about this: http://www.hometheaterhifi.com/volu...cks-4-2004.html under "Do you feel that time-coherence is an important property of a loudspeaker"? Note, thats a man who has conducted 1000+ blind listening tests in unechoic chamber and actually develops speakers. Check the waveforms attached. There are 4 wavs, 200Hz main harmonic with added 400Hz harmonic at 0, 90, 180, -90 degrees phase shift. They all look different, even asymmetric. I can't hear any difference. You could run them in sequence looping, and they would sound as one. I'm using AKG-K401 headphones. >thanks for the zip, I´ll try it soon with my HD600. Regarding phase distoriton being subtle, that´s possible and likely, but I think all sources of errors should be attacked. It´s not necessary to enjoy a rig, but it´s the only way to make progress... eliminating all (as much as possible) alterations to the twodimensional signal. With a "perfect" replica of time and amplitude we can concentrate on teh enormous problem with power response and room acoustic induced "distortion". You talk almost exclusively about sinewaves while I believe that it is mostly the transient distortion and ringing that is problematic with high order analog filters. About Kevin Voecks. I auditioned the studio (or saloon) and then went home to a friends studio where a "phase linear" speaker designed by me was playing, no competition. Allthough I like the Gem, much due to the freedom from phase turns in the midrange I believe. Sure, different electronics and rooms, but still, in the end I always prefer low order filter with nice time behaviour. I will not argue more until I have prooved I can nail phase distortion down in blind tests though ;-). Thanks for a good debate. >markp, my point was that binaural recordings with headphones are the closest thing to reproducing the proper geometry, and making your ears hear what they would have heard had they been in the recording spot. With any other setup, gross problems from recording method to crosstalk (left-speaker-to-right-ear and reverse) would probably mask any of the smaller effects phase has on imaging. What I intended to say was that binaural recordings and headphones are the best way to study the audibility (indirect, as it influences human aural localization) of phase. quote - markp, my point was that binaural recordings with headphones are the closest thing to reproducing the proper geometry, and making your ears hear what they would have heard had they been in the recording spot. With any other setup, gross problems from recording method to crosstalk (left-speaker-to-right-ear and reverse) would probably mask any of the smaller effects phase has on imaging. What I intended to say was that binaural recordings and headphones are the best way to study the audibility (indirect, as it influences human aural localization) of phase. >Quality binaural recordings are impossible to make - they are too highly individual. In addition, whole of our ear canal is participating in aural processing - this would all need to be imitated, and there are no two similar ears on earth. There are though DSP's that imitate head transfer function, making it closer illusion that you are listening to the speakers. That really imitates acoustic interactions of sound waves, so you are back to where you started. Unechoic speaker tests are closest we can make at this point. Though the idea is not bad. quote - It only takes 1/4 wavelength to hear a freq, not one full cycle according to an old professor of mine. Hmm, references? I don't see how thats possible. More likely reverse: 4/1 wavelengths are needed. At 1/4 of wavelength frequency of the wave is completely ambigous. |
||||
ratziofarm
Hat sich gelöscht |
#20 erstellt: 01. Aug 2007, 15:03 | |||
Die 8 milliSekunden: http://www.music.mia...dkoya/title_page.htm Und nochmals ;-) ein CSD oder CBSD sind nichts anderes als die verklausulierte Darstelllung des Ampl.- und Fasenganges. Das "Ausschwingverhalten" hat mit Hören nichts zu tun, solange es sich im Bereich von Millisekunden abspielt ist es so nahrhaft wie Duisburger Currywurst. Wie wollte man auch einen "Hörtest" des "Ausschwingverhaltens" gestalten? Bei sonst gleichem Systemverhalten, insbesondere bezüglich Ampl.frq.gg bleibt einem zum Provozieren von "Ausschwingverhalten" nichts anderes übrig, als an eben der Gruppenlaufzeit zu drehen. Anders ist "Ausschwingen" nicht zu haben, die Entsprechung ist 1:1 - no way out. Und was passiert, wenn man an der GLZ fummelt ist bekannt. Niemand braucht "Ausschwingverhalten" oder "stored energy" als Konzept bezüglich Lautsprechern. Ich warte auf eine Beschreibung des Konzepts "Ausschwingen" bezüglich Hören. Kann man "Ausschwingen" hören und wenn ja in welchem Maße und inwiefern wird das nicht schon durch die GLZ vollständig beschrieben? O/k, 1000 Fliegen irren nicht. Wenn aber doch, ist CSD und meinetwegen auch CBSD ein Treppenwitz (gewesen). s o l ong |
||||
Fosti
Inventar |
#21 erstellt: 01. Aug 2007, 15:08 | |||
Bei einer Glocke kann man schön das Ausschwingen der einzelnen Frequenzen bis zum Grundton hören, aber das sind auch mehrere Zehnerpotenzen Unterschied in der Zeitskala |
||||
hallo,_wie_gehts?
Hat sich gelöscht |
#22 erstellt: 01. Aug 2007, 15:19 | |||
Ich finde es gut, dass auf dieses Thema hinJEwiesen wird. Ich halte jedoch auch die GLZ als eine nicht sonderlich geeingnete Methode. Obwohl wenn es schon Hörschwellen-Dokumentationen gibt. Sobald Reflexionen innerhalb der Fensterung sind, kann man kaum mehr was heraus lesen und wiederrum schlecht von Resonanz und Reflexion unterscheiden und den Pegel der Resonanz oder Reflexion deuten. Außerdem bleiben selbst in der GLZ mit schöner Fensterung destruktive Kantenreflexionen falsch dargestellt (nicht "herausfensterbar"), da wird nämlich die GLZ kleiner, was im Grunde nicht der Realität entspricht. Ich frage mich: Wären Bursts (Cosinus-Bursts) zur Unterscheidung von Reflexion und Resonanz geeigneter? Naja, schon, wie man beim Cpt. sehen kann. Sobald aber die Reflexion so früh ist, dass sie noch "in die ersten Wellenzüge hineinpfuscht", ist wiederrum kaum etwas unterscheidbar. Und die Benutzung des Zeitfensters zue Ausblendung der Reflexionen funzt natürlich auch schon beim normalen CSD. Ich lese gerne die Impulsantwort. Und zur Auswertung bediene ich mich vieler Darstellungsformen und Tricks und Umgehungen. Und dann kommt noch die Hörerei. [Beitrag von hallo,_wie_gehts? am 01. Aug 2007, 15:20 bearbeitet] |
||||
Cpt._Baseballbatboy
Inventar |
#23 erstellt: 01. Aug 2007, 15:26 | |||
Moin,
aufmerksames Lesen sollte ergeben, dass Deine Aussagen nirgendwo bestritten wurden. Ich bin lediglich der Meinung, dass die Gruppenlaufzeit auch nicht viel anschaulicher ist, weil nämlich kaum einer weiß was die GLZ eigentlich bewirkt. Zeig uns doch mal nen Graphen der GLZ und interpretiere ihn. Zumindest beim CBSD kann man mit einem Blick sagen: "dort ist das Chassis malad." Ob die Macke hörbar ist steht auf einem ganz anderen Blatt. Wie ist das eigentlich: das eine Chassis hat bei 1k eine kurze GLZ-Spitze von 9ms, ein anderes zwischen 500Hz und 2k immer ganz knapp unter 8ms. Laut dem Grenzwert ist zweiteres absolut in Ordnung. Der normale Bastler wird aber trotzdem eines nehmen, was noch geringere GLZ-Verzerrungen aufweist, auch wenn es hörphysiologisch unsinnig ist. Aber warum soll man denn nicht das bessere nehmen, vor allem wenn es preislich konkurrenzfähig ist? @Hallo:
Das ist richtig, aber immer noch besser als beim normalen CSD. Dort äußert sich eine Reflexion in undefiniertem Gewaber bei relativ hohem Pegel. Gruß Cpt. [Beitrag von Cpt._Baseballbatboy am 01. Aug 2007, 15:32 bearbeitet] |
||||
_MARVELOUDIO_
Hat sich gelöscht |
#24 erstellt: 01. Aug 2007, 15:43 | |||
>GLZ kleiner Wastelphisiker JohnKräshkovsky hatte sich mit dem Töma ausgiebigst beschäftigt und seinerzeit nachgewiesen dass die Kantenreflektionen minimum-phase sind .... leider ist gerade dieses Töma in meinem Archiv unerklärlicherweise verschwunden daher hier nur ein kurzes quasi-aktuelles Statement : Hi Lynn, I have been following this thread without comment from the start. However, you have alluded to this non-minimum phase behavior before and I would like to point out that the generalization is not correct. Whether or not the summation of multipath sources results in a minimum phase response or not is dependent on the relative strength of the sources. Baffle diffraction in particular does not generally result in a non minimum phase response. I would refer you to the article by Kates, Loudspeaker Cabinet Reflection Effects, JAES May 1979 for an analysis and discussion of the cabinet diffraction problem. Room reflections may result in non minimum phase behavior, depending of the relative strength of the direct and reflected sources. Cepsrtal analysis can be applied to determine the behavior of the room response, if necessary. |
||||
ukw
Inventar |
#25 erstellt: 01. Aug 2007, 16:02 | |||
Hier eine gute Abhandlung zum Thema... http://www.paforum.d...92&highlight=nyquist Menschlich und fachlich auf höherem Niveau |
||||
Dä_Träner
Hat sich gelöscht |
#26 erstellt: 01. Aug 2007, 17:06 | |||
Menschlich und fachlich auf höherem Niveau [/quote schrieb UKW Geht das schon wieder los Jetzt müsste eigentlich auch sogleich der Kratz-Spuck und Jammer-Fred eröffnet werden. Sodann die Frage, wer löscht sich zuerst, wieso, warum und wie lange. [Beitrag von Dä_Träner am 01. Aug 2007, 17:07 bearbeitet] |
||||
ratziofarm
Hat sich gelöscht |
#27 erstellt: 01. Aug 2007, 17:54 | |||
Sire, Ich fische nicht nach Komplimenten. Nach der Lecktüre von SLs Einlassungen und Deinen will ich mal sagen, dass Du auch nur in verkappter Weise die Impulsantwort auswertest. Ob Du dabei bessere Genauigkeit erzielst sei als Übung für die Kinder aufgegeben. Wir 3 sind uns unter anderen aber einig, dass der Wert eines CSD/CBSD begrenzt ist. Eine Optimierung auf eine hübsche Erscheinung in dieser Darstellung ist nicht gefragt. Sobald mein Messkompi wieder frei ist, bin ich so frei und dokumentiere einen infernalisch widerwärtig resonierenden Lsp, der nichts desto Trotz vorzüglich naturgetreu transparent "klingt". Das CSD wird getaufte Jünger des meinungsbildenden Ingenieurs in die Raserei treiben, hoffe ich. Ich hoffe zugleich, ich kann auch ARTA unterstellen, anhand des CBSD den Lsp völlig falsch darzustellen. Mein Kompliment! |
||||
Tom05
Hat sich gelöscht |
#28 erstellt: 01. Aug 2007, 18:32 | |||
Vielleicht sieht man hiermit besser, wie es an- und ausklingt: http://www.dynamic-measurement.de/ Sind einige Mess-Bespiel auf der Seite (linke Menue-Leiste). Aber aus freien Stücken die selber Interpretieren zu können, erfordert sicher eine genaue Auseinandersetzung mit dem Verfahren. Grüße Tom05 |
||||
ratziofarm
Hat sich gelöscht |
#29 erstellt: 01. Aug 2007, 18:50 | |||
Hi Tom, Vielen Dank, trotzdem die Geschichte schon länger bekannt ist. Ich fürchte es taugt genausowenig/viel wie die anderen Verfahren. Es krankt am verfolgten Ziel, nämlich Zeit- Frequenz- und Amplitudendarstellung zu kombinieren. s o l ong |
||||
Fosti
Inventar |
#30 erstellt: 03. Aug 2007, 07:02 | |||
Auch auf der anderen Seite des großen Teiches beschäftigt man sich mit der Aussagekraft von CSD's: http://www.zaphaudio.com/blog.html (August 1, 2007 ) |
||||
ratziofarm
Hat sich gelöscht |
#31 erstellt: 03. Aug 2007, 10:18 | |||
Der Widerstand regt sich! Ab morgen in BILD Ich weiss, ich hatte ein CSD von dem Dingens versprochen UND einen -subjektiven- "Klangbericht". Ich freue mich auch schon drauf. Aber es dauert noch ein paar Tage, bis es soweit ist. Ich muss ja erstmal den Lautsprecher hören, statt immer nur die Musik. Erstaunlich übrigens, dass gerade so elementare Begriffe wie Resonanz und Ein/Ausschwingen so übel falsch verstanden werden, dass dabei Geschichten hervorbrechen wie eine "Resonanztheorie" des Lautsprecherbaus mit Breibändern. Die Lautsprecherresonanz und der Mensch der Postmoderne ... |
||||
|
|
Das könnte Dich auch interessieren: |
Wasserfall-Diagramm bei der Chassi-Wahl BastelGeek am 13.02.2021 – Letzte Antwort am 14.02.2021 – 8 Beiträge |
Suche Klirr/Wasserfall Fostex FE126En & FF125WK kokamola am 26.12.2013 – Letzte Antwort am 27.12.2013 – 3 Beiträge |
Probleme bei Loop Back Messungen im Wasserfall Verrückter am 25.09.2007 – Letzte Antwort am 27.09.2007 – 9 Beiträge |
Was bedeutet F3 in den Diagrammen? Arnop am 10.12.2005 – Letzte Antwort am 10.12.2005 – 6 Beiträge |
Was genau bedeutet Großsignalfestigkeit im Zusammenhang mit Lautsprecherboxen? wp48 am 26.07.2018 – Letzte Antwort am 28.07.2018 – 14 Beiträge |
suche messungen vom monacor spx-20tb eoh am 03.12.2009 – Letzte Antwort am 18.04.2010 – 5 Beiträge |
suche xaw210 diagramme eoh am 04.10.2006 – Letzte Antwort am 05.10.2006 – 13 Beiträge |
Visaton DSM25FFL V.I.B am 04.01.2006 – Letzte Antwort am 04.01.2006 – 4 Beiträge |
Vifa 26 WA 550/4 Granuba am 11.05.2007 – Letzte Antwort am 16.05.2007 – 33 Beiträge |
Tang Band W4-1320, W5-1611 Neodym vs. Ferrit fantom am 15.09.2012 – Letzte Antwort am 23.10.2012 – 8 Beiträge |
Foren Archiv
2007
Anzeige
Produkte in diesem Thread
Aktuelle Aktion
Top 10 Threads der letzten 7 Tage
- Hotel Modus deaktivieren
- "diese anwendung wird jetzt neu gestartet um mehr speicherplatz verfügbar zu machen"
- Von HD+ zurück zu Standard-TV
- Remotekabel anschließen, aber wie und wo?
- Hisense verbindet sich nicht mehr mit dem WLAN
- Audiodeskription ausschalten (in ZDF App) 803er
- Umschalten von TV auf Radio
- Satellitenschüssel was und wie einstellen am TV
- Pro 7 und Sat 1 auf einmal weg.
- Markierung an Lautsprecherkabel - welche Norm?
Top 10 Threads der letzten 50 Tage
- Hotel Modus deaktivieren
- "diese anwendung wird jetzt neu gestartet um mehr speicherplatz verfügbar zu machen"
- Von HD+ zurück zu Standard-TV
- Remotekabel anschließen, aber wie und wo?
- Hisense verbindet sich nicht mehr mit dem WLAN
- Audiodeskription ausschalten (in ZDF App) 803er
- Umschalten von TV auf Radio
- Satellitenschüssel was und wie einstellen am TV
- Pro 7 und Sat 1 auf einmal weg.
- Markierung an Lautsprecherkabel - welche Norm?
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder927.715 ( Heute: 11 )
- Neuestes Mitgliedrockglf
- Gesamtzahl an Themen1.556.308
- Gesamtzahl an Beiträgen21.656.357