Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
Kobe

REALISTISCHE BETRACHTUNGEN

Recommended Posts

Gude!

 

Naja, beim 'Bildungs'stand mancher reicht auch das hier:

 

http://de.wikipedia.org/wiki/Compact_Disc

 

Auszug:

Aufbau einer CD

(...)

Die Pits auf der CD stellen jedoch nicht direkt die Datenbits dar, sondern sind mittels 8-14-Kodierung (engl. Eight to Fourteen Modulation EFM) kodiert. Hierbei ist ein Wechsel (Land/Pit oder Pit/Land) eine logische 1, kein Wechsel eine logische 0. Aus 14 kodierten Bits wird mittels einer Übersetzungstabelle der eindeutige 8-Bit Wert ermittelt. Die kodierten Bits sind jeweils noch durch 3 Füllbits voneinander getrennt. Dies ist nötig, damit auf der CD ein Pit bzw. Land niemals kürzer als 3 Bit und länger als 11 Bit ist, damit beim Abtastvorgang eine sichere Synchronisation gewährleistet ist.

 

Fehlerkorrektur

Damit sich Kratzer nicht negativ auf die Datensicherheit auswirken, sind die Daten mittels Paritätsbits gesichert, so dass Bitfehler erkannt und korrigiert werden können. Weiterhin sind aufeinander folgende Datenbytes per Interleaving auf eine größere Fläche verteilt. Der Cross-Interleave Reed-Solomon code (CIRC) ist dadurch in der Lage einen Fehler von bis zu 3500 Bits (das entspricht etwa 2,4 mm) zu korrigieren und Fehler von bis zu 12000 Bits (etwa 8,5 mm) bei der Audio-CD zu kompensieren.

Diesen Beitrag teilen


Link zum Beitrag

Belege!?! Ach nee, Jacob, lassen wir das lieber...

 

Viel interessanter ist, dass ein Hifi-Dealer einerseits solche erhellenden - nur ein Sophist wie Du reitet da die Detailungenauigkeiten aus! - Dinge schreibt und sogar ins Netz hinausposaunt, andererseits eben genau den Markt, der diese Fakten ignoriert, bedient... Der link ist übrigens, meine ich, schon einmal gepostet worden...

Diesen Beitrag teilen


Link zum Beitrag

Ja, dieser Link wird, genau wie die überaus merkwürdigen Seiten von caspari, immer wieder gern gebracht.

 

Wer es mit den technischen Grundlagen nicht so genau nimmt, wird auch die Ungenauigkeiten/Fehler dieser Betrachtungen nicht weiter schlimm finden; insofern stimmt sicher der Begriff "erhellend" .

 

BTW, jeder Händler betreibt die Art von Marketing, die ihm am gewinnbringendsten erscheint.

 

"Wieso" und nach Belegen fragst Du (oder auch nicht)- wer selbst schwierigen Fragen gern ausweicht, verwirkt irgendwann auch den Anspruch auf Antworten.

 

Grüsse

 

P.S. Wieso regst Du Dich eigentlich sonst immer so über "ad hominem" Anwürfe auf? ;)

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hai Rob :)

 

Kann schon sein - ist mir nicht aufgefallen oder ich habe es vergessen.

Ist aber ja im Grunde egal, denn so ein Link schadet, auch mehrfach gesetzt,

IMO bedeutend weniger als so mancher "guter Rat", mit dem man hier bedacht wird.

 

Hat mich übrigens auch erstaunt sowas von einem Händler zu lesen!

Wird er doch beispielsweise so manchen Digitalkabel Kunden vertreiben :)

 

Eine Freude für Dich dürften doch die Ergebnisse der Hörtests gewesen sein, oder? ;)

 

 

Musikalischer Gruss

Michael

Diesen Beitrag teilen


Link zum Beitrag

Hi tranci,

 

>>Ist aber ja im Grunde egal, denn so ein Link schadet, auch mehrfach gesetzt,

IMO bedeutend weniger als so mancher "guter Rat", mit dem man hier bedacht wird.

 

 

Ja, ich würde sogar so weit gehen, Webbi vorzuschlagen, solche links zu sammeln...

 

>>Hat mich übrigens auch erstaunt sowas von einem Händler zu lesen!

 

Tja, wenn der jetzt in der Schweiz sässe, würde ich da sicher vorbeigehen - ich denke, auch dieser Händler wird seine Klientel finden ;-)

 

>>Eine Freude für Dich dürften doch die Ergebnisse der Hörtests gewesen sein, oder?

 

Ja, mögen gewisse Aspekte des Testdesigns auch suboptimal sein, bestätigen sie zum x-ten Male, was induktiv wie deduktiv sinnstiftend ist - J. folgert daraus natürlich etwas ganz anderes :-)... Naja, ist ja auch nicht mehr originell...

Diesen Beitrag teilen


Link zum Beitrag

"Ja, mögen gewisse Aspekte des Testdesigns auch suboptimal

sein,....."

 

War es nicht Deine hier häufig und intensiv gepostete Meinung, daß einfach blinde Tests ohne jegliche Aussagekraft seien, da man ja wüßte etc. etc. ?

Oder hängt es nur vom Ausgang des Tests ab? Wenn genehm, dann aussagekräftiger Test, wenn nicht, dann ohne Aussagekraft?

 

"... bestätigen sie zum x-ten Male, was induktiv wie deduktiv

sinnstiftend ist -...."

 

Ein kleines Zitat aus dem verlinkten Text:

 

"...Um eine Regelmäßigkeit zu verhindern, wurde pro Durchgang etwa 5 Mal geblufft, also nicht umgeschaltet, obwohl es hätte sein sollen (das hat sich als absolut wichtig erwiesen!)"

 

Wichtig warum? Konnten die Hörer sonst einen Unterschied feststellen? :)

 

Grüsse

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Jakob,

 

ich habe echt keine Lust mehr auf diese sophistischen Spielchen, daher fasse ich mich kurz:

 

>>"Ja, mögen gewisse Aspekte des Testdesigns auch suboptimal

sein,....."

 

War es nicht Deine hier häufig und intensiv gepostete Meinung, daß einfach blinde Tests ohne jegliche Aussagekraft seien, da man ja wüßte etc. etc. ?

Oder hängt es nur vom Ausgang des Tests ab? Wenn genehm, dann aussagekräftiger Test, wenn nicht, dann ohne Aussagekraft?

 

Selbst jemand mit Deiner "Unvoreingenommenheit" kann sich vielleicht dem allgemein akzeptiertem Ansatz "Aussergewöhnliche Behauptungen brauchen aussergewöhnliche (d.h. aussergewöhnlich gute/harte) Beweise". Da die Aussagen des Hifi-Händlers in guter Uebereinstimmung mit den methodisch besten Tests, die zu dem Thema durchgeführt wurden (DBT blablablabla etc. p.p.), sie somit nicht im Widerspruch zu bekanntem Wissen stehen, sind ihre Aussagen zwar nicht im Popperschen Sinne relevant ("Nix Neues"), aber eben auch nicht falsch. Würden sie hingegen im Widerspruch zu durch methodisch optimale Tests gewonnenem Wissen stehen - wie die von Dir so gerne verteidigten HaiEnten-Tests - fordere ich zurecht zunächst die Reproduktion der Ergebnisse in sauberen Tests...

 

 

>>>Ein kleines Zitat aus dem verlinkten Text:

 

"...Um eine Regelmäßigkeit zu verhindern, wurde pro Durchgang etwa 5 Mal geblufft, also nicht umgeschaltet, obwohl es hätte sein sollen (das hat sich als absolut wichtig erwiesen!)"

 

Wichtig warum? Konnten die Hörer sonst einen Unterschied feststellen?

 

Hm, ob es das gebraucht hätte... Es ist aber durchaus reizvoll, in einem methodisch eben nicht optimalem Test (der Heterosuggestion nicht sicher auszuschliessen vermag), zu schauen, ob dort plötzlich einige Zuhörer "Unterschiede" hören, die selbst für Dich wohl nicht wahrscheinlich sind. Dass Dein zweiter Satz noch nicht einmal schöner Nonsens ist, muss ich Dir wohl nicht sagen, oder? Naja, Deine Einstellung zu einem AB-X-Test ist bekannt, aber eben nur eine MEINUNG, und es wird letztlich nur etwas über UNS, nichts über die Sache aussagen, wenn wir diese sinnlosen Diskussionen weiterführten...

Mal rein interessehalber, falls nicht zu privat: Was ist Dein beruflicher Hintergrund, und mit was beschäftigst Du Dich privat?

Diesen Beitrag teilen


Link zum Beitrag

"ich habe echt keine Lust mehr auf diese sophistischen

Spielchen, daher fasse ich mich kurz:"

 

Ich sehe, in der ad hominem Frage bist Du ebenfalls ganz pragmatisch, betrifft es Dich, regst Du Dich auf, verwendest Du solche, ist es in Ordnung.

 

"Selbst jemand mit Deiner "Unvoreingenommenheit" kann sich

vielleicht dem allgemein akzeptiertem Ansatz ....."

 

Methodisch zweifelhafte Tests, bei genehmem Ergebnis, schön zu reden, mag i.S. der Selbstimmunisierung eine notwendiger Vorgang sein, ansonsten ist es ganz sicher keine allgemein akzeptierte Verfahrensweise.

"Methodisch besten" ist nun wahrhaft keine sinnvolle Beschreibung; im Reigen unsinniger Test, wovon es im Audiobereich nun wirklich zahllose gibt, genügte ja schon ein etwas weniger schlechter Test diesem Kriterium.

Zu vielen hier diskutierten Fragen gibt es ganz sicher keine sinnvollen, oder gar wissenschaftlichen Tests, methodisch unangreifbare schon gar nicht.

 

 

"Würden sie hingegen im Widerspruch zu durch methodisch

optimale Tests gewonnenem Wissen stehen - wie die von Dir so

gerne verteidigten HaiEnten-Tests ...."

 

Du kannst sicher ein paar Beispiele nennen, wo ich HaiEnten-Tests verteidigte?

 

Es gibt _keine_ methodisch optimalen Tests, die zur Ermittlung hier relevanten Wissens durchgeführt wurden.

 

"Dass Dein zweiter Satz noch nicht einmal schöner Nonsens ist,

muss ich Dir wohl nicht sagen, oder?"

 

Doch, für eine Erläuterung wäre ich dankbar.

 

"Naja, Deine Einstellung

zu einem AB-X-Test ist bekannt, aber eben nur eine MEINUNG,

und es wird letztlich nur etwas über UNS, nichts über die

Sache aussagen, wenn wir diese sinnlosen Diskussionen

weiterführten..."

 

Wobei die besagten Tests nun anscheinend keine AB-X-Tests waren.

 

"Mal rein interessehalber, falls nicht zu privat: Was ist Dein

beruflicher Hintergrund, und mit was beschäftigst Du Dich

privat?"

 

Entwicklung von Elektronikgeräten, wobei die Entwicklung analoger und digitaler Audiotechnik einen Schwerpunkt darstellt.

 

Gruß

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Rob, dein Eifer und Durchhaltevermögen in allen Ehren, aber es bringt einfach nix. Der junge Freund hier labert schneller Schxxx, als du (oder ich) schreiben kannst. Wenn wir so weitermachen wie er, werden wir in 2 Tagen darüber diskutieren, ob sich die Erde um die Sonne dreht, oder umgekehrt.

 

Aber ein schönes Beispiel hab' ich (ich kann mir's halt doch nicht verkneifen, hier Unsinn zu schreiben):

(Zitat von J.)

"Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab.

Wenn Du gut in Form bist, und die Unterschiede relativ groß, reichen 16 Durchgänge von denen Du 12 richtige haben solltest (SL 0.05)"

(Zitat Ende)

 

Da ich jetzt den Artikel von Leventhal leider nur überflogen habe, kann ich leider nicht schreiben, dass dieses schöne Zahlenbeispiel gerade dazu gewählt wurde, das Problem mit dem Risiko bzw. dem Fehler 2. Art zu illustrieren, da besagtes Risiko (eigentlich ist es ja die Wahrscheinlichkeit) gerade bei diesem Zahlenbeispiel so hoch ist.

Da ich auch den Text nicht gelesen habe, ist mir dort auch folgende Passage entgangen:

 

(Zitat aus dem Artikel von Leventhal aus der Stereophile)

But, with the selection of an r of 12, the table shows that the probability of Type 2 error (concluding that audible differences are inaudible) will be .8334, if audible differences between the two components are so slight that the listener can correctly identify the components only 60% of the time (p = .6). If audible differences were slightly larger and the listener can correctly identify the components 70% of the time (p = .7), then the probability of Type 2 error will be .5501, and so on. (The p values should be interpreted as the proportion of correct identifications the listener will provide when given an infinite number of trials under the conditions of the listening study, even if those conditions are not ideal for making correct identifications.)

 

Thus, with a 16-trial listening test analyzed at the conventional .05 level of significance, the probability of the investigator overlooking differences so subtle that the listener can correctly identify them only 60% of the time is a whopping .8334! Accordingly, when true differences between components are subtle, it is not surprising that 16-trial listening tests with (or without) thc ABX comparator typically fail to find them.

(Zitat Ende)

 

Und wenn man das (so wie ich) leider nicht verstanden hat, kann man erst über solche Passagen lachen:

(Zitat J., der Text in den Anführungszeichen ist von mir)

"Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir

aber mit dem Fehler der 1. Art abfangen) keinen Grund,

anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5

oder 1, Ungenauigkeiten beim Test werden berücksichtigt,

basta."

 

Basta funktioniert nur bedingt.

Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen?

(Zitat Ende)

(Kleiner Hinweis: Besagtes "SL 0.05" aus dem 1. Zitat ist der Fehler 1. Art mit Alpha = 5%.)

Und solche Texte von Leuten, die die Statistik aus dem FF beherrschen... Das ist auch der Grund, warum ich nicht mehr auf Themen wie Güte, Macht oder Power des Tests oder Begriffe wie Konsistent eingehe (mit denen man übrigens den Artikel von Leventhal sehr schön zerlegen kann).

 

Hätte er geschwiegen, hätte man ihn weiterhin für Klug halten können.

 

An dieser Stelle mein persönlicher Rat: Einfach ein schönes Glas Rotwein trinken, und die Sache auf sich beruhen lassen. Beides schützt vor'm Herzkasper. (An dieser Stelle fällt mir ein schönes Wortspiel ein: Hetzkasper. Darf ich das so schreiben?)

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

>"Wieso" und nach Belegen fragst Du (oder auch nicht)- wer

>selbst schwierigen Fragen gern ausweicht, verwirkt irgendwann

>auch den Anspruch auf Antworten.

 

Huch!

 

Aber wenn du schon den lieben Rob dumm sterben lassen willst, dann klär doch bitte wenigstens die Heerscharen der Willigen auf.

 

Bitte, Bitte, Bitte....

 

Gruß, Holli.

Diesen Beitrag teilen


Link zum Beitrag

Sinn einer Diskussion sollte/kann gemeinsamer Erkenntnisfortschritt sein; Deine Auffassung scheint eher eine traurige Pervertierung dieser Idee, ist allerdings in diesem Forum en vogue.

 

Etwas beim Überfliegen mißverstanden zu haben, ist nichts ehrenrühriges; dieses Mißverständnis unbedingt kaschieren zu wollen, ist nicht sinnvoll.

 

""Pausen solltet ihr einplanen; eine sinnvolle Zahl von

Durchgängen hängt von der Größe der Unterschiede, resp. Deiner

Fähigkeit zur Erkennung ab.

Wenn Du gut in Form bist, und die Unterschiede relativ groß,

reichen 16 Durchgänge von denen Du 12 richtige haben solltest

(SL 0.05)"

(Zitat Ende)

 

Da ich jetzt den Artikel von Leventhal leider nur überflogen

habe, kann ich leider nicht schreiben, dass dieses schöne

Zahlenbeispiel gerade dazu gewählt wurde, das Problem mit dem

Risiko bzw. dem Fehler 2. Art zu illustrieren, da besagtes

Risiko (eigentlich ist es ja die Wahrscheinlichkeit) gerade

bei diesem Zahlenbeispiel so hoch ist.

Da ich auch den Text nicht gelesen habe, ist mir dort auch

folgende Passage entgangen:

 

(Zitat aus dem Artikel von Leventhal aus der Stereophile)

But, with the selection of an r of 12, the table shows that

the probability of Type 2 error (concluding that audible

differences are inaudible) will be .8334, if audible

differences between the two components are so slight that the

listener can correctly identify the components only 60% of the

time (p = .6). If audible differences were slightly larger and

the listener can correctly identify the components 70% of the

time (p = .7), then the probability of Type 2 error will be

.5501, and so on. (The p values should be interpreted as the

proportion of correct identifications the listener will

provide when given an infinite number of trials under the

conditions of the listening study, even if those conditions

are not ideal for making correct identifications.)

 

Thus, with a 16-trial listening test analyzed at the

conventional .05 level of significance, the probability of the

investigator overlooking differences so subtle that the

listener can correctly identify them only 60% of the time is a

whopping .8334! Accordingly, when true differences between

components are subtle, it is not surprising that 16-trial

listening tests with (or without) thc ABX comparator typically

fail to find them.

(Zitat Ende)"

 

In der Zeile findest Du dann entsprechend für p=0.9 (was nach Leventhal bedeutet, daß in 90% der Zeit der Unterschied richtig erkannt wird) die Wahrscheinlichkeit für den Fehler 2. Art von 0.017.

Du magst die von mir gewählte Formulierung nicht für ausreichend halten, aber "gut in Form" und "Unterschiede relativ groß" sind ein deutlicher Hinweis darauf, daß es hier genau um den Fall geht, in dem die Unterschiede sehr gut erkannt werden können.

 

An dieser Stelle hättest Du die Sache elegant mit einer einfachen Nachfrage aus der Welt schaffen können, im Sinne einer gedeihlichen Diskussion; zu schwer?

 

Noch unverständlicher wird die Sache für mich, da ich diese Problematik in einer Antwort an Dich in dem Thread tatsächlich beleuchtete ( Beitrag Nr.18141); ein kurzes Zitat:

 

"Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann."

 

"Und wenn man das (so wie ich) leider nicht verstanden hat,.."

 

was sich in mehrfacher Hinsicht bislang, so scheint es, auch nicht geändert hat

 

...kann man erst über solche Passagen lachen:"

(Zitat J., der Text in den Anführungszeichen ist von mir)

"Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die

wir

aber mit dem Fehler der 1. Art abfangen) keinen Grund,

anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5

oder 1, Ungenauigkeiten beim Test werden berücksichtigt,

basta."

 

Basta funktioniert nur bedingt.

Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art

abfangen?

(Zitat Ende)

(Kleiner Hinweis: Besagtes "SL 0.05" aus dem 1. Zitat ist der

Fehler 1. Art mit Alpha = 5%.)"

 

Immer noch nett, aber unsinnig. Du stellst in Deinem (immer noch so geschrieben einfach sinnlosen) Absatz einen Kausalzusammenhang her zwischen zu testenden Wahrscheinlichkeiten, die sich auf den Ausgang des Experiments beziehen (Wahrscheinlichkeiten 0.5 oder 1), die nun aber mit den von Leventhal eingeführten Erkennungswahrscheinlichkeiten in keinem Zusammenhang stehen, und Ungenauigkeiten des Tests, die man mit dem Fehler 1.Art abfangen könne.

 

Wie Dir inzwischen aufgefallen ist, geht es Leventhal genau um die Ungenauigkeit des Tests, die zu einer großen Wahrscheinlichkeit für einen Fehler 2.Art führen können. Und nebenbei bemerkt, eine Ungenauigkeit, die sich gerade nicht mit dem Fehler 1.Art abfangen läßt.

 

Auch wenn Dein Absatz so nicht sinnvoll war, gehe ich höflicherweise von einem Mißverständnis, ungeschickter Formulierung, Editresten o.ä. aus, und gebe Dir mittels einer Nachfrage Gelegenheit zur Aufklärung.

Das Ergebnis war eine wiederum vollkommen sinnlose Antwort, gewürzt mit genau der Form überheblicher Aggressivität, die für dieses Forum leider inzwischen charakteristisch ist.

 

"Das ist auch der Grund, warum ich nicht mehr

auf Themen wie Güte, Macht oder Power des Tests oder Begriffe

wie Konsistent eingehe (mit denen man übrigens den Artikel von

Leventhal sehr schön zerlegen kann)."

 

Wenn Du den Artikel von Leventhal zerlegen kannst, wäre es sicher interessant;

 

BTW, wo habe ich behauptet, "Statistik aus dem FF" zu beherrschen?

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Obwohl ich die Pointe ungern verrate, erklär' mir bitte folgenden Sachverhalt:

Du schreibst folgendes:

"Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab.

Wenn Du gut in Form bist, und die Unterschiede relativ groß,

reichen 16 Durchgänge von denen Du 12 richtige haben solltest

(SL 0.05)"

Nun zitierst du diesen komischen Artikel, um die Statistik in die größte Krise seit dem Axiomatischen Aufbau der Wahrscheinlichkeitsrechnung durch Kolmogorow zu stürzen.

Der besagte Artikel rät aber von einem Versuch mit dem Umfang von n=16 ab. ("Accordingly, when true differences between

components are subtle, it is not surprising that 16-trial

listening tests with (or without) thc ABX comparator typically

fail to find them.")

 

Oberhessisches Fragewort mit 2 Buchstaben? Hä?

 

Jetzt erklär' mir mal das mal bitte. Aber mach die Pointe nicht kaputt.

 

>"Das ist auch der Grund, warum ich nicht mehr

>auf Themen wie Güte, Macht oder Power des Tests oder Begriffe

>wie Konsistent eingehe (mit denen man übrigens den Artikel

>von

>Leventhal sehr schön zerlegen kann)."

>

>Wenn Du den Artikel von Leventhal zerlegen kannst, wäre es

>sicher interessant;

 

Wie bereits schon einmal zitiert:

"Büning/Trenkler (die bereits erwähnte Quelle) geben an, der Test sei konsistent.

Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent, wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1 konvergiert.

Wenn die Güte eines Tests nahe bei 1 liegt, ist die Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden, wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das der Fehler 2. Art kleiner wird (und asymptotisch gegen 0 geht).

Dies kann man aber schon in der Tabelle in der Stereophile erkennen."

 

Was kann es besseres geben als einen Test mit besagten Eigenschaften? Das bei einer kleinen Stichprobe das Risiko höher ist als bei größeren Stichproben sollte eigentlich jedem klar sein.

Wenn man dann noch davon ausgeht, dass Mittelwerte erwartungstreue Schätzer sind, und man in der Tabelle sehr schön sieht, wie der Fehler 2. Art kleiner wird. (Der Fehler 1. Art ist ja so gewählt, das er um 5% liegt. Genau 5% ist aufgrund der diskreten Verteilung teilweise nicht möglich.)

Und dann hat besagter Leventhal auch leider vergessen, die Wahrscheinlichkeit für ein Eintreffen von r bei N versuchen anzugeben: Bei einer Wahrscheinlichkeit von 0,5 gibt es eine W'keit von 0,027 / 0,016 für 31 / 32 aus 50 (0,0595 für mindestens / mehr als 31 aus 50) und eine von 0,0223 / 0,0159 für 58/59 aus 100 (0,0666 für mindestens / mehr als 58 aus 100).

Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder zu verwerfen.

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

ich komme schlicht bei der Argumentation von J. nicht mehr mit; erinnert mich an geisteswissenschaftliche Vorlesungen in der Propädeutik, ist mir schlicht zu gaga... Naja, wie sagt ein Bekannter so gerne: If you can't convince them, confuse them ;-). Interessant wäre höchstens noch die Motivation von J. ...

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Ja, ist echt toll, wie wir uns die Bälle zuspielen...

Vielleicht könntest du noch mal erzählen, dass in der Medizin auch nicht auf 0,6 getestet wird, und bei grenzwertigen Ergebnissen die Stichprobe vergrößert wird.

Generell legt man H_0 auch VOR dem Test fest. Durch die Erwartungstreue der Schätzer macht es halt keinen Sinn, auf den Wert von NACHHER zu testen.

(Da wir gerade dabei sind: Bei einem Fehler 1. Art ist es ja nicht unwahrscheinlich, dass wir diesen auch mal haben, wenn man mehrmals testet. (Dies ist eine Milchmädchenrechnung.) Kann man ja auch an dem Kabeltest im Hififorum sehen: Bei einer Wahrscheinlichkeit von 0,5 liegt halt auch mal jemand nahe dran. Und wenn wir noch mehr Tests machen, steigt ja auch die W'keit, dass jemand mal alle richtig hat.)

 

By the way: Was für ein CD-LW hättest du als 2.-LW genommen? Ich nehme mal an, einen DVD-Player aus'm Baumarkt für 39 Eumel?

Wenn man dann gegen ein CD-LW für das knapp 100-fache testet, ist es klar, dass man die Unterschiede nur zu 60% bemerken kann. Obwohl sie so gewaltig sind.

(Von der gesparten Kohle kann man übrigens so viel Rotwein/Single Malt/... erwerben, dass man die Unterschiede auf Jahre hinaus gegen 0 gehen lassen kann. Oder die Raumakustik verbessern. So als kleiner Tipp am Rande.)

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

"Pausen solltet ihr einplanen; eine sinnvolle Zahl von

Durchgängen hängt von der Größe der Unterschiede, resp. Deiner

Fähigkeit zur Erkennung ab.

Wenn Du gut in Form bist, und die Unterschiede relativ groß,

reichen 16 Durchgänge von denen Du 12 richtige haben solltest

(SL 0.05)"

Nun zitierst du diesen komischen Artikel, um die Statistik in

die größte Krise seit dem Axiomatischen Aufbau der

Wahrscheinlichkeitsrechnung durch Kolmogorow zu stürzen.

Der besagte Artikel rät aber von einem Versuch mit dem Umfang

von n=16 ab. ("Accordingly, when true differences between

components are subtle, it is not surprising that 16-trial

listening tests with (or without) thc ABX comparator

typically

fail to find them.")

 

Oberhessisches Fragewort mit 2 Buchstaben? Hä?"

 

Ausnahmsweise würde ich mich dem "HÄ" anschließen. ;)

 

Woraus leitest Du hier einen Widerspruch ab?

 

Ich schreibe, wenn er gut in Form sei _und_ die Unterschiede relativ groß, würde ein Test mit 16 Durchgängen reichen, wobei er mindestens 12 richtige Antworten bräuchte.

Dies bedeutet gleichzeitig, wenn die Unterschiede nicht so groß _oder_ er nicht so gut in Form, _dann_ reicht ein Test mit 16 Durchgängen nicht.

 

Leventhal schreibt, "wenn tatsächliche Unterschiede fein (subtle=fein oder auch fast unmerklich) .... würden sie in einem Test mit 16 Durchgängen typischerweise nicht entdeckt.

Wiederum anders gesagt (wie auch bereits geschrieben, an seiner Tabelle für p=0.9 zu erkennen), wenn die Unterschiede nicht so "subtle" und/oder die Fähigkeit der Testperson diese zu erkennen groß, dann kann man sie auch in einem Test mit 16 Durchgängen erkennen.

 

Nochmals die Frage- was ist an seiner und meiner Aussage so widersprüchlich, daß es ein "Hä" rechtfertigte?

 

"Jetzt erklär' mir mal das mal bitte. Aber mach die Pointe

nicht kaputt."

Worin besteht die Pointe?

 

Hier nochmals die entsprechende Passage aus meiner Antwort:

 

"In der Zeile findest Du dann entsprechend für p=0.9 (was nach Leventhal bedeutet, daß in 90% der Zeit der Unterschied richtig erkannt wird) die Wahrscheinlichkeit für den Fehler 2. Art von 0.017.

Du magst die von mir gewählte Formulierung nicht für ausreichend halten, aber "gut in Form" und "Unterschiede relativ groß" sind ein deutlicher Hinweis darauf, daß es hier genau um den Fall geht, in dem die Unterschiede sehr gut erkannt werden können.

 

An dieser Stelle hättest Du die Sache elegant mit einer einfachen Nachfrage aus der Welt schaffen können, im Sinne einer gedeihlichen Diskussion; zu schwer?

 

Noch unverständlicher wird die Sache für mich, da ich diese Problematik in einer Antwort an Dich in dem Thread tatsächlich beleuchtete ( Beitrag Nr.18141); ein kurzes Zitat:

 

"Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann.""

 

Wieso ließ diese Passage bei Dir immer noch Unklarheit bestehen?

 

Wenn wir schon bei den "Hä"-Klarstellungen sind, bitte erkläre doch, wie dieser Absatz sinnvoll wird:

 

">Leventhal wählte aufgrund dieser Problematik den

>nachvollziehbaren Ansatz von verschiedenen

>Erkennungsprozentsätzen auszugehen, und darauf basierend die

>Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu

>berechnen. (bis hierhin Zitat aus meinem Beitrag)

 

Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben.

Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta."

 

"...Dies kann man aber schon in der Tabelle in der Stereophile

erkennen.

 

Was kann es besseres geben als einen Test mit besagten

Eigenschaften? Das bei einer kleinen Stichprobe das Risiko

höher ist als bei größeren Stichproben sollte eigentlich jedem

klar sein."

 

Ist vermutlich den meisten so halbwegs klar; Leventhals Verdienst besteht darin, aus statistischer Sicht herausgearbeitet zu haben, daß bei üblicher Vorgehensweise, das Risiko einen Fehler 2.Art zu machen, enorm erhöht wird.

Verdienst deswegen, weil diese Tests üblicherweise von Audio-Ingenieuren gemacht werden, die aus ihrer Sicht ihr Hauptaugenmerk auf die Vermeidung des Fehlers 1.Art richten und die über keine gesteigerten Statistik- oder Testkenntnisse verfügen.

 

"Wenn man dann noch davon ausgeht, dass Mittelwerte

erwartungstreue Schätzer sind, und man in der Tabelle sehr

schön sieht, wie der Fehler 2. Art kleiner wird. (Der Fehler

1. Art ist ja so gewählt, das er um 5% liegt. Genau 5% ist

aufgrund der diskreten Verteilung teilweise nicht möglich.)"

 

Vielleicht genauer, <= 5% liegt, denn so ist das Entscheidungskriterium gewählt; beliebig genaue Approximation ist wegen der angesprochenen diskreten Verteilung nicht möglich, was die Problematik bei kleinen Stichproben verschärft.

 

"Und dann hat besagter Leventhal auch leider vergessen, die

Wahrscheinlichkeit für ein Eintreffen von r bei N versuchen

anzugeben: Bei einer Wahrscheinlichkeit von 0,5 gibt es eine

W'keit von 0,027 / 0,016 für 31 / 32 aus 50 (0,0595 für

mindestens / mehr als 31 aus 50) und eine von 0,0223 / 0,0159

für 58/59 aus 100 (0,0666 für mindestens / mehr als 58 aus

100)."

 

Warum hätte er diese Wahrscheinlichkeiten an dieser Stelle angeben sollen?

 

Nimms mir nicht übel, aber ist das eine Zerlegung von Leventhal?

Mir will scheinen, Du bestätigst (wie erwartet) seine Schlußfolgerung, nämlich, bei unbekannter Fähigkeit der Testperson sinnvollerweise die Versuchsanzahl zu erhöhen. :)

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

>>Generell legt man H_0 auch VOR dem Test fest. Durch die Erwartungstreue der Schätzer macht es halt keinen Sinn, auf den Wert von NACHHER zu testen.

 

JA!

 

>>Kann man ja auch an dem Kabeltest im Hififorum sehen: Bei einer Wahrscheinlichkeit von 0,5 liegt halt auch mal jemand nahe dran. Und wenn wir noch mehr Tests machen, steigt ja auch die W'keit, dass jemand mal alle richtig hat.)

 

Ebenfalls JA!

 

>>By the way: Was für ein CD-LW hättest du als 2.-LW genommen? Ich nehme mal an, einen DVD-Player aus'm Baumarkt für 39 Eumel?

Wenn man dann gegen ein CD-LW für das knapp 100-fache testet, ist es klar, dass man die Unterschiede nur zu 60% bemerken kann. Obwohl sie so gewaltig sind

 

Nee, ich würde schon ein LW nehmen, dass ich "kenne", sprich, das mir in meiner Hörpraxis bisher nicht durch enorme Empfindlichkeit gegenüber kleinsten Kratzern etc. aufgefallen wäre (das ist ja typischerweise bei Billiglaufwerken der Fall, aber es gibt vermutlich aus Ausnahmen...). Ich würde an den Test, so er irgendwann stattfände, meinen "Highend"-Sony-DVD-P (9000ES, v.a. gekauft, da es dafür eine region code free und v.a. user operational protections Abschaltung gibt - ich hasse es, mir irgendwelchen FBI-Schmonzes zwangsweise ansehen zu müssen!), der als Sensibelchen bekannt ist - eher schlechte Fehlerkorrektur - sowie einen Terratec standalone mp3-Spieler mit einem CD-ROM-Laufwerk...

 

>>(Von der gesparten Kohle kann man übrigens so viel Rotwein/Single Malt/... erwerben, dass man die Unterschiede auf Jahre hinaus gegen 0 gehen lassen kann. Oder die Raumakustik verbessern. So als kleiner Tipp am Rande.)

 

Hihi ;-). Grundsätzlich sind natürlich "Unterschiede", die in offenen Tests gross sind, und komischerweise immer wieder in DBTs verschwinden, nur für das jeweilige setting auszuschliessen - ich bezweifle aber, den endlosen Ausführungen J. zum Trotze, dass ein VIELLEICHT doch vorhandener "Unterschied" irgendeine praktische Relevanz hat... Hingegen ist der Einfluss eines akustisch lausigen Raumes zwar in einem DBT methodisch schwierig zu evaluieren, jedoch gut messbar...

Diesen Beitrag teilen


Link zum Beitrag

Huch! Was'n hier los! Ist das Fachwissen so dünn gesäht, dass man die Diskussion glaubt mit kleinen Tricks gewinnen zu müssen, oder ist meine geschliffene Rhteorik so gewaltig, oder denkt jemand, der durchschnittliche Leser sei so blöd, dass das nicht auffalle?

 

>Ich schreibe, wenn er gut in Form sei _und_ die Unterschiede

>relativ groß, würde ein Test mit 16 Durchgängen reichen, wobei

>er mindestens 12 richtige Antworten bräuchte.

>Dies bedeutet gleichzeitig, wenn die Unterschiede nicht so

>groß _oder_ er nicht so gut in Form, _dann_ reicht ein Test

>mit 16 Durchgängen nicht.

>

>Leventhal schreibt, "wenn tatsächliche Unterschiede fein

>(subtle=fein oder auch fast unmerklich) .... würden sie in

>einem Test mit 16 Durchgängen typischerweise nicht entdeckt.

>Wiederum anders gesagt (wie auch bereits geschrieben, an

>seiner Tabelle für p=0.9 zu erkennen), wenn die Unterschiede

>nicht so "subtle" und/oder die Fähigkeit der Testperson diese

>zu erkennen groß, dann kann man sie auch in einem Test mit 16

>Durchgängen erkennen.

 

2 Dinge:

1. Rob könnte auf die Idee kommen, es liegt ein Fehler 2. Art vor, dieser funktioniert ja auch in die andere Richtung.

2. Sind ja die Unterschiede allem Anschein nach doch so groß, dass man locker auf p=1/2 testen kann. Oder?

Naja, die Frage war rhetorischer Natur, denn du hast auch schon mal folgendes von dir gegeben:

(In Anführungszeichen ein Zitat von mir)

"Das ist sicherlich schön zu berechnen, aber wie bereits

erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5

auszugehen haben."

 

Das ist kein zulässiger Schluß. Wie gesagt, wir haben keinerlei Kenntniss über das Erkennungsvermögen der Testperson. Wir wissen nur (aus allerlei menschlichen Erwägungen) daß es vermutlich nicht bei 100% liegen wird.

(Zitat Ende)

 

Also können wir jetzt doch auf 0,5 testen? (Das wird dann wohl an Popper liegen...) Oder hat dann doch Leventhal mit dem zu hohen Fehler 2. Art recht? Ich fürchte, ich bin fast noch verwirrter als du, wenn ich das hier verstehen muss.

Also noch mal konkret die Frage:

 

AUF WELCEHS P TESTEN WIR?

 

Oder machen wir einfach 16 Durchgänge, bei mindestens 12 Richtigen gibt's Laufwerkklang, ansonsten hat Leventhal recht und es liegt ein Fehler 2. Art vor?

 

Desweiteren sollte man schon auf die Teile des Textes antworten, die wichtig sind. Ich darf an dieser Stelle noch einmal:

"Büning/Trenkler (die bereits erwähnte Quelle) geben an, der Test sei konsistent.

Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent, wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1 konvergiert.

Wenn die Güte eines Tests nahe bei 1 liegt, ist die Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden, wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das der Fehler 2. Art kleiner wird (und asymptotisch gegen 0 geht).

Dies kann man aber schon in der Tabelle in der Stereophile erkennen."

 

Wahrscheinlich kommt jetzt der Kommentar, dass sei sowieso klar, und hast du schon immer gewußt oder so...

 

Dann hast du wieder einen Satz vergessen zu kopieren (ich will dir hier nicht unterstellen du hättest...)

Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder zu verwerfen.

Ergänzend möchte ich hinzufügen: Das hat jetzt noch nichts mit dem Fehler 2. Art zu tun, wir sind immer noch beim Fehler 1. Art, dass spielt sich alles VOR diesem wegweisenden Artikel ab. Immerhin ist hier ein Alpha von unter 10% im Spiel, das in manchen Fällen akzeptiert wird.

 

Schöne Aussagen machst du ja. Gibt's die auch in Verbindlich?

Diesen Beitrag teilen


Link zum Beitrag

>user operational protections Abschaltung

 

Hups! DAS ist natürlich was...

Wenn ich an die Paramount-DVDs denke (ich besitze u.a. die 5 Sex and the city-Staffeln, und JEDESMAL kommt eine sinnfreie Belehrung, die Dinger nicht zu kopieren... Mann, ich hab' die Dinger doch gekauft...)

 

>Hingegen ist der Einfluss eines akustisch lausigen

>Raumes zwar in einem DBT methodisch schwierig zu evaluieren,

>jedoch gut messbar...

Die Unterschiede von 3 m und 0,5 m (für 400 Eumel) NF-Kabeln sind auch einfach zu messen, aber in einem DBT leider auch nicht feststellbar. Muß am System liegen.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

>>Hups! DAS ist natürlich was...

Wenn ich an die Paramount-DVDs denke (ich besitze u.a. die 5 Sex and the city-Staffeln, und JEDESMAL kommt eine sinnfreie Belehrung, die Dinger nicht zu kopieren... Mann, ich hab' die Dinger doch gekauft...)

 

Tja, die region code free-Geschichte geht ja bei vielen Geräten auch durch bestimmte versteckte Menüs, seltsame Fernbedienungskodes etc. (so habe ich die DVD-Rekorder meiner Freundin und von mir hindengeln können), aber für die UOPs gab es bis vor kurzem nur entweder Computerlösungen, oder aber Sony... Mittlerweile geht auch Pioneer (www.dvdupgrades.ch)

 

 

>>Die Unterschiede von 3 m und 0,5 m (für 400 Eumel) NF-Kabeln sind auch einfach zu messen, aber in einem DBT leider auch nicht feststellbar. Muß am System liegen.

 

Ja, echt voll mies, so ein DBT, aber ich kann's doch schliesslich HÖREN...

Diesen Beitrag teilen


Link zum Beitrag

"Huch! Was'n hier los! Ist das Fachwissen so dünn gesäht, dass

man die Diskussion glaubt mit kleinen Tricks gewinnen zu

müssen, oder ist meine geschliffene Rhteorik so gewaltig, oder

denkt jemand, der durchschnittliche Leser sei so blöd, dass

das nicht auffalle?"

 

Ich denke, man kann hier dem durchschnittlichen Leser wirklich vertrauen. ;)

 

Vorab; da Du die Frage nach dem ungeheueren Widerspruch zwischen Leventhal und mir so überaus elegant umschifftest, darf man wohl annehmen, es gab keinen solchen ?

 

"2 Dinge:

1. Rob könnte auf die Idee kommen, es liegt ein Fehler 2. Art

vor, dieser funktioniert ja auch in die andere Richtung."

 

Rob kann auf die merkwürdigsten Ideen kommen (kommt er häufig auch :) ), aber _DU_ nicht. Zwischen uns war im anderen Thread die Frage der Hypothesenformulierung/Verwendung (üblicherweise und im Speziellen meine Art) geklärt, und überdies hast Du ja Leventhals Artikel gelesen und dort wurde es nochmals explizit ausgeführt.

 

Damit gab es zwischen uns auch keine Unklarheit, was mit dem Fehlern 1. und 2.Art gemeint war.

 

"2. Sind ja die Unterschiede allem Anschein nach doch so groß,

dass man locker auf p=1/2 testen kann. Oder?"

 

Ganz direkt, außer Dir ist keiner auf die Idee gekommen, man solle auf etwas anderes testen; weder die ursprünglichen Tester wie Krueger, Clark, Shanefield oder Nousaine, noch Leventhal und ich auch nicht.

 

Außer Dir ist m.W.n. auch noch niemand auf die skurrile Idee gekommen, Leventhal wolle hier eine Änderung anregen.

 

"Naja, die Frage war rhetorischer Natur, denn du hast auch

schon mal folgendes von dir gegeben:

(In Anführungszeichen ein Zitat von mir)

"Das ist sicherlich schön zu berechnen, aber wie bereits

erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5

auszugehen haben."

 

Das ist kein zulässiger Schluß. Wie gesagt, wir haben

keinerlei Kenntniss über das Erkennungsvermögen der

Testperson. Wir wissen nur (aus allerlei menschlichen

Erwägungen) daß es vermutlich nicht bei 100% liegen wird.

(Zitat Ende)"

 

"Also können wir jetzt doch auf 0,5 testen? (Das wird dann wohl

an Popper liegen...)"

 

Ja konnten wir und können wir noch immer. (Das man lieber auf 0,5 testet, könnte in der Tat an Popper liegen- oder besser durch Poppers theoretischen Ansatz erklärt werden)

 

"Oder hat dann doch Leventhal mit dem zu

hohen Fehler 2. Art recht?"

 

Es gibt hier einfach keinen Widerspruch; wie können auf 0,5 testen und Leventhal hat trotzdem recht, deshalb sollten wir seiner Empfehlung folgen und die Versuchsanzahl erhöhen, da wir i.a.R über das Erkennungsvermögen der Testpersonen nur spekulieren können.

Den anderen möglichen Weg, nämlich die Abschwächung des Entscheidungskriteriums (z.B. nur noch SL=0.1) wollen wir aus nachvollziehbaren Gründen nicht gehen.

 

Zitat (aus Leventhals Artikel in der Stereophile):

 

"The risk of Type 2 error increases, not only as you reduce Type 1 error risk, but also with reductions in the number of trials (N), and the listener's true ability to hear the differences under test (p). (All of this is explained in great detail in Leventhal, 1985.) Since one really never knows p, and one can only speculate on how to increase it (eg, by carefully selecting musical selections and ancillary equipment to be used in the listening test), one can reduce with certainty the risk of Type 2 error in a practical listening test only by increasing either N or the risk of Type 1 error. (Remember, Type 1 error risk can be deliberately increased by selecting a larger significance level for the significance test which simultaneously reduces Type 2 error risk.)"

 

 

"Ich fürchte, ich bin fast noch

verwirrter als du, wenn ich das hier verstehen muss..."

 

Hier auf jegliches Wortspiel zu verzichten, fällt schwer. :)

 

"....Also noch mal konkret die Frage:

 

AUF WELCEHS P TESTEN WIR?"

 

S.o.

 

"Oder machen wir einfach 16 Durchgänge, bei mindestens 12

Richtigen gibt's Laufwerkklang, ansonsten hat Leventhal recht

und es liegt ein Fehler 2. Art vor?"

 

S.o., als kleine Ergänzung, Du hast es aus einem anderen Thread herübergezogen; wir als Beobachter haben i.a.R. gesicherte Erkenntnis über das Erkennungsvermögen der Testperson, JimSommer ist hier in der Beurteilung seines Erkennungsvermögens im Vorteil. Deswegen könnte es sein, daß tatsächlich 16 Durchgänge reichen, ansonsten lautet die Empfehlung immer noch, die Versuchsanzahl zu erhöhen.

 

"Desweiteren sollte man schon auf die Teile des Textes

antworten, die wichtig sind. Ich darf an dieser Stelle noch

einmal:

"Büning/Trenkler (die bereits erwähnte Quelle) geben an, der

Test sei konsistent.

Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent,

wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1

konvergiert.

Wenn die Güte eines Tests nahe bei 1 liegt, ist die

Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden,

wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das

der Fehler 2. Art kleiner wird (und asymptotisch gegen 0

geht).

Dies kann man aber schon in der Tabelle in der Stereophile

erkennen."

 

Wahrscheinlich kommt jetzt der Kommentar, dass sei sowieso

klar, und hast du schon immer gewußt oder so..."

 

Nein, warum sollte ich es so kommentieren?

Nur, wie Du sagst, im Endeffekt kann man dies auch schon in der Tabelle in der Stereophile erkennen. :)

Die von Dir zitierte Begründung war neu für mich, allerdings scheint sie doch nur die Empfehlung von Leventhal zu bestätigen, oder siehst Du es anders?

 

Nur zur Erinnerung, Du hattest eine "Zerlegung" von Leventhals Artikel angekündigt, aber es scheint, als würdest Du sie nur untermauern. ;)

 

BTW, nochmals die Frage, weswegen hätte Leventhal die von Dir im letzten Beitrag monierten Werte angeben müssen?

 

"Dann hast du wieder einen Satz vergessen zu kopieren (ich will

dir hier nicht unterstellen du hättest...)"

 

Es war nicht Vergesslichkeit, der Satz scheint mir einfach nicht relevant. s.u.

 

"Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht

noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder

zu verwerfen."

 

Weder Leventhal noch ich haben bislang etwas zum weiteren schlauen Vorgehen bei grenzwertigen Testergebnissen gesagt; Leventhals Ansatz war, daß die gern genommenen Bedingungen mit 16 Durchgängen bei einem SL von 0.05 mit einem hohen Risiko verbunden sein könnten, einen Fehler 2.Art zu machen. Nicht mehr und nicht weniger.

 

"Ergänzend möchte ich hinzufügen: Das hat jetzt noch nichts mit

dem Fehler 2. Art zu tun, wir sind immer noch beim Fehler 1.

Art, dass spielt sich alles VOR diesem wegweisenden Artikel

ab. Immerhin ist hier ein Alpha von unter 10% im Spiel, das in

manchen Fällen akzeptiert wird."

 

Fürwahr eine spannende Wendung. So wird aus einer "Zerlegung" doch noch ein Aufbau. :)

 

"Schöne Aussagen machst du ja. Gibt's die auch in Verbindlich?"

 

Du verwechselst hier wirklich die Rollen.

 

Grüsse

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Holli,

 

ich hoffe mit einigen Beispielen ist Dir schon gedient, ansonsten wird es sehr aufwendig.

 

Nur damit kein Mißverständnis aufkommt, die Seite hat ihre Meriten, aber an vielen Stellen hätte sie entweder ausführlicher sein müssen, oder es wäre besser gewesen, nichts zu schreiben.

 

 

Die Frage des menschlichen Hörbereichs ist immer noch umstritten. Vorliegende Studien kranken meist an methodischen Mängeln, die eindeutige Schlüsse nicht zulassen. Trotzdem war die Studie von Ohashi interessant, denn die simultane Beobachtung der Hirnaktivität war ein neuer Ansatz und die Änderungen der Aktivität sind mit den bekannten Interferenzerklärungen nicht unbedingt in Einklang zu bringen.

Davon abgesehen ist es ein Fortschritt, wenn die nutzbare Wortbreite auf 24 Bit steigt, und unzweifelhaft wird der Digitalfilterung das Leben deutlich erleichtert, wenn die Restriktionen des CD-Formats aufgehoben sind.

 

Es ist nicht richtig, daß Musikinstrumente in ihrem Frequenzumfang so eingeschränkt sind wie behauptet. Ein Blick auf die entsprechende Untersuchung von Boyk lohnt immer.

 

 

Es liegt in der Natur der S/P-Dif-Schnittstelle, anfällig für klangbeeinflussende Absonderlichkeiten zu sein. Es ohne weiteres möglich, Kabel zu konstruieren, die für Klangveränderungen bei D/A-Wandlern sorgen. Es sind bei Kabeln auch schon unterschiedliche Jitterwerte gemessen worden in Abhängigkeit von der Anschlußrichtung.

 

A pro pro Kabel; m.E. war der Anfang der Kabelgeschichte ein Artikel von Jean Hiraga in der L´Audiophile Anfang der 70iger; die ersten spezielleren Kupfersorten (LC=Long Crystal Copper) sind Mitte der 70iger entwickelt worden.

Man mag sich über Netzkabel lustig machen, trotzdem gibt es keinen Grund, langerworbene Grundkenntnisse der sauberen Netzversorgung, die in anderen Bereichen der Elektronik ganz selbstverständlich berücksichtigt werden, außer Acht zu lassen, weil es für Audiotechnik aus wundersamen Gründen nicht wichtig sei.

Vergleiche hierzu eines der Standardwerke von Ott "Noise Reduction Techniques in Electronic Systems"

 

Es ist unsinnig zu behaupten, die üblichen Kabelparameter wären im Niederfrequenzbereich (nahezu) unwichtig.

Bei den heute (wieder) vorkommenden recht hohen Ausgangsimpedanzen spielt beispielsweise die Kapazität nicht nur wegen möglicher Tiefpässe eine Rolle, sondern auch bezüglich der Stromlieferfähigkeit der Ausgänge, die diese Kapazitäten bei schnellen Signalen erst umladen müssen.

 

Die Annahmen zu Impedanzen bei Lautsprechern mögen plausibel erscheinen, lassen aber Phasendrehungen völlig außer Acht. Entsprechende Untersuchungen (nachzulesen im JAES) an populären Lautsprechermodellen führten deutlich höheren Strombedarf auf. Natürlich ist dies u.a. auch von Modeerscheinungen bei Lautsprechern abhängig. Vom komplexen Zusammenspiel von Endstufenausgang/Kabel/Lautsprecher mal abgesehen.

 

Das auf Schallplatten keine Frequenzen oberhalb von 18kHz aufgezeichnet werden können, ist ein Märchen. Die frühe Quadrophonie wäre sonst nicht denkbar gewesen.

Auf speziellen Schallplatten (Sheffield Lab Direktschnitt) sind beim "Cymbal Crash" bis zu 50 kHz gemessen worden.

Die Angaben zum Vergleich des Dynamikumfangs von Schallplatte und CD-Spielern sind so unsinnig.

 

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Hallo Jakob

 

 

>... die Kapazität nicht nur wegen möglicher Tiefpässe eine Rolle, sondern auch bezüglich der Stromlieferfähigkeit der Ausgänge, die diese Kapazitäten bei schnellen Signalen erst umladen müssen.

 

Was Du hier beschreibst, ist beide male ein und dasselbe ;-) .

Und Schuld daran hat die besagte hohe Ausgangsimpedanz, nicht das Kabel...

So eine hohe Ausgangsimpedanz ist schlicht ein Konstruktionsmangel.

 

 

 

 

gruß

Andi

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi,

 

"Was Du hier beschreibst, ist beide male ein und dasselbe ;-)

 

Und Schuld daran hat die besagte hohe Ausgangsimpedanz, nicht

das Kabel...

So eine hohe Ausgangsimpedanz ist schlicht ein

Konstruktionsmangel."

 

Man sollte das Tiefpassverhalten und die Strombeschränkung in der Betrachtung voneinander trennen.

Auch bei eigentlich recht niedrigem Ausgangswiderstand kann die Stromlieferfähigkeit z.B. eines Operationsverstärkers der begrenzende Faktor sein, was man bei der Kabelwahl berücksichtigen sollte.

 

Hohe Ausgangsimpedanz kann in Verbindung mit ausreichender oder nicht ausreichender Stromlieferfähigkeit auftreten.

 

Sicher hast Du Recht, derartige Ausgangswiderstände in gewisser Weise als Mangel zu bezeichnen, aber dies hilft dem Besitzer eines derartigen Gerätes ja nicht unbedingt weiter. :)

 

Grüsse

 

 

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...