Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
Jakob

Doppelblindtest - der Fehler im System!!!

Recommended Posts

Hi Rob

 

Der Vorschlag ist sehr gut!

 

Nur: nicht 2 Tracks. Denn dann ist die Trefferquote 50%.

 

Man sollte den gleichen Titel 10mal in erster Generation brennen, und 10 mal in 20. Generation. Vollkommen durcheinander.

Das entspricht 20 Durchläufen mit 20 Entscheidungen.

 

Danach aufdecken, wie die Tracks angeordnet sind.

 

 

 

 

 

Andi

 

 

PS: das hat zwar nichts mit Laufwerksunterscheidung zu tun, aber man könnte Jims Äußerungen bzgl. Digitalkopien überprüfen. Ist schonmal was.

 

 

Diesen Beitrag teilen


Link zum Beitrag

Was hat das damit zu tun?? Der Proband hat alle Zeit der Welt (naja fast)

 

Ablauf (vielleicht nicht so recht rübergekommen):

 

Jim bekommt eine gebrannte CD mit 20 mal demselben Titel drauf (zugeschickt!).

10 davon sind erste Kopiergeneration, die anderen 10 sind 20. Generation. Anordnung natürlich durcheinander.

 

Nach genügend Hörzeit (zB 2 Wochen) gibt Jim seinen Tip ab, wie die Versionen angeordnet sind.

Das entspricht letztlich derselben Testsituation, als hätte man 20 Durchläufe "alt oder neu - entscheide Dich"

 

Einer, der sich mit Statistik besser auskennt als ich (zB Rob, Jakob) darf gerne entscheiden, wieviel erkannt oder nicht erkannt sein müssen.

 

 

 

 

gruß

Andi

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi!

 

>Es spricht also nichts dagegen, eine Selbstgebrannte zu

>erstellen, die, was die Fehler angeht, meßbar besser ist, als

>das Original.

 

Gut ... und jetzt bitte den 2. Schritt bevor Du eine Schlussfolgerung abgibst.

Was sind die Ursachen, wenn wir keine kopiergeschützte Original-CDs nehmen?

 

Bitte nenne uns mal 2-3 mögliche Gründe warum

Selbstgebrannte weniger Fehler anfällig sein können ...

 

Kann in Deinen Augen ein Kopie auch besser werden als das Original? ;)

Bitte ggf. ein Fallbeispiel, ohne auf das Kopierschutz-Modell zurückzugreifen ...

 

Gruß JimSommer

Diesen Beitrag teilen


Link zum Beitrag

Hi Jakob!

 

>Meines Wissens nach hatte Jim einen Vorschlag gemacht, war

>auch durchaus für konstruktive Verbesserungsvorschläge offen,

>nur es will sich anscheinend niemand so richtig zeigen lassen. :)

>

>Wenn man nun noch bedenkt, wie oft Tadzio sich dem Vorwurf

>ausgesetzt sah, "gekniffen" zu haben, erstaunen Eure Beiträge

>ziemlich.

>

>Es wäre in der Tat ganz einfach, Ihr müßtet nur noch auf Jims

>Vorschlag eingehen (gewisse Modifikationen am Testablauf sind

>sicher noch möglich).

 

Na klar! Ich hab doch Rob angeboten ausführlich über die Testgestaltung

zu reden. (der kann auch gerne meine Telefonnummer haben)

 

Aber wie Du und Uwe W. sehr treffend bemerkt haben, versucht Herr

Robeuten seine Wette unter den Teppich zu kehren und zu vergessen.

 

Ich glaube, dass Robs Wetten nur Mittel zum Zweck sind,

lasse mich natürlich gerne vom Gegenteil überzeugen.

 

Wir sind gespannt ... ;)

 

Gruß

JimSommer

 

 

PS: ... bekomme ich nicht noch eine Antwortmail von Disch? :)

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi!

 

>Hi Rob

>Der Vorschlag ist sehr gut!

>Nur: nicht 2 Tracks. Denn dann ist die Trefferquote 50%. Man sollte den gleichen Titel >10mal in erster Generation brennen, und 10 mal in 20. Generation. Vollkommen >durcheinander. Das entspricht 20 Durchläufen mit 20 Entscheidungen.

>Danach aufdecken, wie die Tracks angeordnet sind.

 

1. Wer würde Rob trauen, er könnte doch versuchen 20 Kopien als 20 Generationen zu verkaufen. ;)

 

2. Müsste er mir die original CD senden, das wird er sicher nicht wollen?

 

>PS: das hat zwar nichts mit Laufwerksunterscheidung zu tun ...

 

3. Genau ... und das ist doch hier der Gegenstand der Wette!

 

> Beim "Testhören" sind die Ahnungslosen wenigstens von der Straße

 

4. Sicher hast Du das mit DBT abgesichert ... :*

 

Liebe Grüsse

JimSommer

Diesen Beitrag teilen


Link zum Beitrag

>Hi Peter!

>

>>C2/C1-Scanns kann ich leider mit

>>meinem Brenner nicht durchführen (wird nicht unterstützt).

>Kann Hollis Tool-Tip da helfen?

 

Nein wenn der Brenner das nicht unterstützt bzw. die Commandos

nicht an die Applikation runterreicht kann man das leider nicht

auswerten. Ist so. Das müsste der Hersteller in der Firmware

implementieren. Bei Yamaha unrealistisch das sie sich aus dem

Brennergeschäft schon länger verabschiedet haben (zu hoher Preisdruck

eigentlich Schade).

 

 

>

>>1) Viele Anwender verwenden Billigrohlinge vom Spindel ...

>Na ja, die sind dann aber sicher eh nicht so anspruchsvoll.

 

Sag das nicht. Ich habe durchaus Leute erlebt die zig EUR in ihrer

Hifi-Anlage investieren aber jeden Cent für ordentliche Rohlinge

einsparen und sich dann wundern das sie "Murks" brennen.

Genau sowas verstehe ich dann absolut nicht. Wenn ich Hifi-Qualitäts-

ansprüche für AUDIO-CDs stelle verwende ich auch vernüftige Markenrohlinge. Das Problem ist ja das man erstmal via ATAPI die "guten" Rohlinge ermitteln muss und diese auch noch auf dem Abspielgerät ausprobieren muss.

 

 

>:)

>

>>2) Einige Probleme sind auch "hausgemacht" durch schlechte

>IDE-Systeme ...

>Ich denke SCSI ist noch immer die beste Wahl ...#

Nein nicht unbedingt. Ist nur bei mir historisch bedingt weil

ich andere SCSI-Geräte verwende. Nur muss man bei IDE-Systemen

etwas sorgfältiger schauen. USenetforen sind da eine gute Quelle

für solche Infos.

 

 

 

>Kann ich nix zu sagen, am Mac sind fast alle Lösungen

>sehr professionell und ausgereift.

>

>Was sagst Du zu den Messdaten ...

>http://www.hifi-forum.de/viewthread-42-43.html

>

>Du hast in Deiner Auflistung von Problemen, Vibrationen und

>deren Einflüsse vergessen!!!

Die Vibrationseffekt auf das Laufwerk sind da im Vergleich zu

anderen Faktoren im Player relativ gering. Ausserdem wirken

sie sich dann gleichermassen auf Rohlinge und gebrannte CDs

aus. Anders ausgedrückt gibts da keine besondere Empfindlichkeit

der Rohlinge vs. gepresster CDs. Was durchaus sehr unterschiedlich

sein kann sind die Laserempfindlichkeiten des CD-Players bezüglich

unterschiedlicher Rohlingssorten. Hier sollte man durchaus mal verschiedene Rohlinge ausprobieren.

 

 

 

 

>PS: Ob ein externes Gehäuse lüfterlos sein sollte? Ja ... wenn

>der Brenner das mitmacht!

Bei modernen Brennern auf keinen Fall. Der Laser des Brenners alter dadurch schneller und damit die Lebensdauer des Brenners.

Man hat eh schon genug Hitzeprobleme in modernen Rechnern (CPU etc..)

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

Der verlinkte Test hat eindeutig gezeigt, daß auf gepressten Kauf-CDs mitunter eine Menge Fehler sind. Diese sind jedoch, was ja auch explizit angeführt ist, von der Sorte, daß die Originaldaten zu 100% rekonstruierbar werden. Das Abspielen einer solchen CD ergibt zu 100% die vollständigen Originaldaten. Zur Klarheit, das hat NICHTS mit Interpolation oder ähnlichem zu tun - die Daten sind derartig abgelegt, daß sogar recht große Ausleselücken aus den restlichen Daten neu errechnet werden können.

Das ist natürlich ebenso der Fall, wenn sie in einen Rechner eingelesen wird, mit dem Ziel ein Duplikat zu brennen. Das Image auf der Festplatte enthält zu 100% die Originaldaten.

 

Wird jetzt eine Audio-CD erstellt, kann diese, in Abhängigkeit von Brenner(qualität) und Software (usw. ich bin kein Computerexperte), was diese C1/C2 Fehler angeht, eine bessere Qualität darstellen als das Original.

 

Im Abspielbetrieb ist es jedoch vollkommen Banane, welche CD läuft. Die Original mit "Fehlern", oder die Kopie ohne Fehler. In beiden Fällen kommt der identische Datenstrom aus dem Player.

 

Vielleicht kommst Du mit der Tatsache nicht klar, daß CDs verkauft werden, die meßbar Fehler enhalten? Das ist den meisten garnicht bewußt!

Solange diese Fehler von der Fehlerkorrektur gänzlich korrigierbar sind, kauft der Kunde 100% auslesbare Daten. Bis zu einer gewissen Fehlerrate sind Kauf-CDs deshalb auchnicht "fehlerhaft".

 

Das wurde bei der Entwicklung der CD natürlich mitberücksichtigt und ist vollkommen normal.

 

gruß

Andi

 

Diesen Beitrag teilen


Link zum Beitrag

vielleicht ist die Sache verständlicher, wenn man es mit der Kopie eines Textes auf einem Blatt Papier vergleicht.

Nicht die optische Qualität der Schrift, sondern die Leserlichkeit des Inhalts ist entscheidend.

Man kann einen Text beliebig oft abschreiben, ohne den Inhalt auchnur um einen Buchstaben zu verändern.

Wenn man mit einem Fotokopierer eine Kopie weiterkopiert, dann kann man das sicherlich einige Dutzende male machen und der Text ist nach wie vor leserlich. Schreibt man es dann ab , hat diese Abschrift inhaltlich die "Qualität" des Originals. Es geht nichts veroren.

Sogar im Gegenteil, diese Abschrift der 50.Kopie ist rein äußerlich von besserer Qualität als diese Kopie, enthält aber die gleichen Daten.

 

 

Andi

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi,

 

vollkommen verständlich, was Du schreibst. Leider erklärt sich daraus

nicht, weshalb es manche CDs gibt, die als Kopie eindeutig besser

klingen, als das Original. Ich habe dieses Phänomen - da ich dafür

keine Erklärung habe, bisher nur staunend und erfreut zur Kenntnis

genommen.

Vielleicht hat ja jemand eine technisch einleuchtende Erklärung

dafür?

Erklärungen nach dem Motto: ...weil nicht sein kann, was nicht sein

darf... interessieren mich nicht.

 

Freundlicher Gruß - Manfred

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi!

 

>Es spricht also nichts dagegen, eine Selbstgebrannte zu

>erstellen, die, was die Fehler angeht, meßbar besser ist, als

>das Original.

 

Gut ... und jetzt bitte den 2. Schritt bevor Du eine Schlussfolgerung abgibst.

Was sind die Ursachen, wenn wir keine kopiergeschützte Original-CDs nehmen?

 

1. Bitte nenne uns mal 2-3 mögliche Gründe warum

Selbstgebrannte weniger Fehler anfällig sein können ...

 

2. Kann in Deinen Augen ein Kopie auch besser werden als das Original?

Bitte ggf. ein Fallbeispiel, ohne auf das Kopierschutz-Modell zurückzugreifen ...

 

Gruß JimSommer

Diesen Beitrag teilen


Link zum Beitrag

Hallo Jim Sommer

 

Sag mal, liest Du einen Text, bevor Du drauf "antwortest"?

 

Deine beiden Fragen sind mehr als hinreichend beantwortet, wenn Du meine zwei vorangegangenen Postings liest und verstehst.

*kopfschüttel*

 

 

Andi

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

 

Eine sicher Erklärung kann ich verständlicherweise auchnicht dafür abgeben, ohne genaue Prüfung der CDs. (was ich auch nicht machen kann, aber sicherlich einige andere hier.)

 

Vielleicht ist die Fehlerrate an der Grenze zur Interpolation an einigen Stellen. (reine Vermutung, ich weiß es nicht). Könnte also sein, daß an manchen Stellen der Payer schlichtweg Probleme hat.

Liest Du aber diese Originale in den Rechner ein, kann es sein, daß durch Mehrfachlesen, besser Fehlerkorrektur oder sonstirgendwas (vielleicht ist einfach das CD-Rom im Rechner besser als der CD-Player, wer weiß) weniger Fehler auftauchen, bzw diese besser weggerechnet werden. So kann die Kopie auf der Festplatte besser sein als das Original (in der "Lesbarkeit"). Die bessere Version gut gebrannt.....also das wäre meine Erklärung.

 

Kann auch extrem falsch sein :-)

 

 

Bemerkenswert übrigens, daß jemand wirklich die Kopie als "besser" bewertet (was sie ja rein thoeretisch sein kann). Einigen anderen hier zu folge geht das ja garnicht. Die Kopie ist immer schlechter und eindeutig hörbar....

 

 

 

gruß

Andi

Diesen Beitrag teilen


Link zum Beitrag

@ Andi

 

>Kann auch extrem falsch sein

 

Ist es aber nicht!

Es gibt auch noch ein paar mehr Gründe,aber die würden einer aufwendigeren Erklärung bedürfen.

 

Der Fairness halber sollte man aber schon zugeben,daß die Kopien oft schlechter als die Originale sind.Aber das liegt auch oft an denen die die Kopien anfertigen.

 

Lenz

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi!

Ich behaupte ganz frech, dass kein normales CD-ROM LW nicht in der Lage ist,

eine Audio CD auch nur 2 mal 100 Identisch einzulesen!

 

Ich glaube auch es ist nie wirklich möglich eine Top Kopie zu erstellen, die besser

als das original ist, wenn Original und Kopie in einem High-End CDP Laufwerk

verglichen werden.

 

Ein Solches Laufwerk ist jedem klapprigen CD-ROM LW deutlich in der Abtastpräzision

überlegen und kann das original genauer ohne mittel prächtige Interpolationen der

Fehlerkorrektur reproduzieren.

 

Nimmt man eine original CD, die extreme Fehler oder Kratzer aufweist, kann die

brutale Inerpolationsfreudigkeit der CD-ROM-Fehlerkorrektur, eine unbrauchbare CD

wieder hörbar machen. In diesen Sinne wird dann also aus Müll ein spielbare CD ...

das ist ganz nett, hat aber nix mehr mit High-End zu tun!

 

Hier passt auch mal blöde Spruch: "Ausnahmen bestätigen die Regel." :)

 

Gruß

JimSommer

 

 

PS: Da sind wir ja schon wieder beim der Bewertung von CD-LW gelandet.

Ich erinnere mich da schwach eine eine Wette ... :*

Diesen Beitrag teilen


Link zum Beitrag

Ich behaupte ganz frech, dass ich Deinen Text besser "kopieren" kann als das Original, da es mir möglich ist, Deine lausige Orthographie zu verbessern. Die Analogie hat Andi ja schon eingeführt, aber Du hast sie offensichtlich nicht verstanden.

 

>>Ich behaupte ganz frech, dass kein normales CD-ROM LW nicht in der Lage ist,

eine Audio CD auch nur 2 mal 100 Identisch einzulesen!

 

Doppelte Verneinung? Was willst Du damit sagen? Ich behaupte übrigens ganz frech, dass jedes normale CD-ROM die Daten einer CD bitgenau auslesen kann...

 

 

>>Ein Solches Laufwerk ist jedem klapprigen CD-ROM LW deutlich in der Abtastpräzision

überlegen und kann das original genauer ohne mittel prächtige Interpolationen der

Fehlerkorrektur reproduzieren.

 

 

1) Die Aussage ist unbewiesen; interessanterweise können gerade die klapprigen Plastik-LW viele CDs lesen, an denen die soliden Gusslaufwerke scheitern - hier ist das Betriebssystem des LW wichtiger als die hardware...

2) solange es sich um C1-Fehler handelt, wird nicht interpoliert, sondern die Audiodaten einhundertprozentig rekonstruiert

 

 

 

>>Nimmt man eine original CD, die extreme Fehler oder Kratzer aufweist, kann die

brutale Inerpolationsfreudigkeit der CD-ROM-Fehlerkorrektur, eine unbrauchbare CD

wieder hörbar machen. In diesen Sinne wird dann also aus Müll ein spielbare CD ...

das ist ganz nett, hat aber nix mehr mit High-End zu tun!

 

 

Unbewiesene Aussagen, s.o.

 

 

>>PS: Da sind wir ja schon wieder beim der Bewertung von CD-LW gelandet.

Ich erinnere mich da schwach eine eine Wette ...

 

EBEN! Ich schlage vor, dass ich Dir eine CD mit kurzen Stücken 1. und 20. Generation brenne, dann kannst Du wenigstens eine Deiner fragwürdigen Aussagen substantieren. WENN Du dann diese Aussage beweisen konntest, werden wir auch den LW-Test machen... Also, stellst Du Dich dem "Kopier"-Test?

Diesen Beitrag teilen


Link zum Beitrag

Hi JimSommer,

 

tatsächlich sind alle Varianten denkbar; Kopien können besser oder schlechter sein, Laufwerke können aus einer Audio-CD identische Daten auslesen oder oder auch nicht, es hängt von vielen Faktoren ab.

 

Genau deswegen muß man vorsichtig sein mit pauschalen Aussagen zur Hörbarkeit, denn es kann von Mal zu Mal unterschiedliche sein.

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

>Ich behaupte ganz frech..

Ja?

 

Ohne auf die einzelnen Punkte speziel einzugehen, liegt das Problem bei Dir, wie sicherlich einer großen Menge anderer HighEnder darin, daß Du den technischen Sinn und die Arbeitsweise einer >Fehlerkorrektur< nicht ganz erkannt hast. Es geht nicht um Interpolation, also einem "Ratespiel", was in einer Lücke gewesen sein könnte und dessen möglichst realitätsnahen Ersatz, sondern um originalgetreue Rekonstruktion von Daten aufgrund ihrer Redundanz.

 

Solange da Wissenslücken bestehen, denke ich mir, brauchen wir nicht weiterdiskutieren. Wir tun uns da beide einen Gefallen ;-)

 

Wette: an dieser bin ich nicht beteiligt. An einem Hörtest, ohne Wette, hätte ich Interesse. Der Vorschlag mit der gebrannten CD mit verschiedenen Kopiergenerationen steht auch konkret.

 

 

 

gruß

Andi

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Vorneweg: Mit H_0 bzw. p_0 ist H oder p jeweils mit Index 0 gemeint.

 

>Es gibt leider diese beiden Fehlerarten; bei dem Fehler 1.Art

>ergibt der Test, die TP habe etwas hören können, obwohl das

>Ergebnis nur zufällig war.

>

>Beim Fehler 2. Art ergibt der Test, das Ergebnis sei zufällig

>entstanden, obwohl die TP etwas gehört hat.

>

>Will man nun unbedingt den Fehler 1.Art minimieren (z.B. weil

>man davon überzeugt ist, es gäbe nichts zu hören), dann steigt

>leider die Wahrscheinlichkeit, daß man einen Fehler 2.Art

>macht.

>In Anbetracht der menschlichen Schwächen ist ein

>Signifikanzlevel von 0.05 bei dieser Art von Tests ein

>durchaus übliches Kriterium. Der einzige Ausweg ist dann die

>Erhöhung der Versuche.

 

Naja, das Ganze ist doch nicht ganz durchdacht.

Es gilt:

Fehler 1. Art: Verwerfen von H_0, obwohl H_0 richtig ist. Wahrscheinlichkeit für Fehler der 1. Art: Alpha.

Fehler 2. Art: Annahme von von H_0, obwohl H_0 falsch ist. Wahrscheinlichkeit für Fehler der 2. Art: Beta.

 

Bei einem (einseitigen) Binomialtest z. Bsp. (einem für dieses Problem geeignetem Test; s. z. Bsp. http://www.luebbert.net/uni/statist/statb/statb3.htm) wäre H_0: p <= p_0 oder p => p_0, wobei p die (gemessene) Wahrscheinlichkeit ist, etwas zu hören, und p_0 Wahrscheinlichkeit der Hypothese ist. (Die Wahrscheinlichkeit der Hypothese ist auch der Grund, warum p kleiner oder größer gleich sein kann, ist halt die Frage, ob wir 0,5 oder 1 bzw. 0 testen.)

 

Der Fehler 1. Art ist nicht so wichtig (und kann auch verringert werden), dass Problem wäre ein Fehler 2. Art. Eine hohe Wahrscheinlichkeit für diesen liegt vor, wenn die 'gemessene' Verteilung 'nahe' an der 'wahren' Verteilung liegt, also beispielsweise: Der (gemessene) Mittelwert eines Würfels liegt bei knapp 3,5; es soll getestet werden, ob dieser 'fair' ist, d.h. einen Mittelwert von 3,5 besitzt. Wenn der (gemessene) Mittelwert nahe genug an den 3,5 liegt (was bei einem fairen Würfel zu erwarten wäre) wird das Ding sowieso angenommen. Hier kann nun ein Fehler der 1. Art vorliegen, nämlich in der Form, dass der Würfel wirklich einen Mittelwert von 3,5 hat, man aber (zufällig) einen anderen Wert erzielt hat, der groß genug ist, die Annahme zu verwerfen.

Der Fehler der 2. Art wäre nun der, dass der Würfel wirklich keinen Mittelwert von 3,5 hat, sondern in Wirklichkeit einen von 3,5000001.

Jetzt hätten wir einen Fehler der 2. Art, nämlich die Hypothese 'Mittelwert=3,5' wird angenommen, obwohl er falsch ist.

Generell besteht das Problem darin, dass man den Fehler 2. Art nicht berechnen kann, da er von der 'wahren' Lage der Verteilung abhängt, man diese Parameter aber einfach nicht kennt. Wer kennt schon den 'wahren' Mittelwert eines Würfels?

 

Für den DBT ist dieses Problem aber keins, da wir nicht im eigentlichen Sinne auf Wahrscheinlichkeiten testen.

Die Wahrscheinlichkeit für einen Fehler der 1. Art könnte man locker gegen 0 drücken, wenn man den Test nur oft genug macht. (Na gut, wäre schlimm für die Betroffenen.) Wobei hier noch nicht gesagt ist, dass auf die Wahrscheinlichkeit 0,5 (Zufall) oder 1 (es gibt Unterschiede) getestet wird!

 

Für den Fehler der 2. Art gibt es ebenfalls keinen Grund zur Sorge:

Es geht ja nicht um die Behauptung, man könne in 90% der Fälle einen Unterschied erkennen, es geht hier ja nicht einmal um Unterschiede der Wahrscheinlichkeiten (es ist ja egal, ob jemand zu 80% oder zu 90% erraten kann, welches CD-LW dranhängt), da wir hier nicht auf Unterschiede der Wahrscheinlichkeit testen, sondern auf 0,5 oder 1.

(Ein Beispiel ist im Link angegeben (2.2.4 Beispiel I (Vorlesung)), da macht es Sinn, zu testen, ob wirklich 5% vorliegen oder nicht.)

 

Was bedeutet, man kann den Fehler der 2. Art berechnen, da die Wahrscheinlichkeit entweder 0,5 oder 1 sein muß. Oder behauptet hier jemand, man würde CD-LW in 60, 70 oder 82,2323% der Fälle voneinander Unterscheiden können?

 

Und selbst dann wäre das Risiko bei den 'Technikern', es gibt ja in unserem Fall nur 2 mögliche Fehler der 2. Art:

1. Wenn ein Goldohr die Dinger mit einer Wahrscheinlichkeit von etwas mehr als 50% Unterscheiden kann, aber die Wahrscheinlichkeit von 50% angenommen wird, ist das zwar ein Fehler der 2. Art, für unsere Fragestellung aber uninteressant. (Oder gibt's Widerspruch?)

2. Wenn ein Goldohr die Dinger 'nur' zu 95% Unterscheiden kann, aber H_0: p=1 angenommen wird (=ein Goldohr kann die Dinger mit einer Wahrscheinlichkeit von 100% unterscheiden; d.h. es existiert ein erkennbarer Unterschied zwischen den CD-LW); dann werden eindeutig die Techniker benachteiligt.

 

Desweiteren kann man Ergänzend einen Test auf Zufälligkeit der Ergebnisse machen, um die Wahrscheinlichkeiten weiter gegen 0 oder 1 zu drücken.

 

So, und so 'nen schönen Text als Start in die Woche!

 

Viel Spaß beim Nachdenken!

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

"Die Wahrscheinlichkeit für einen Fehler der 1. Art könnte man locker gegen 0 drücken, wenn man den Test nur oft genug macht. (Na gut, wäre schlimm für die Betroffenen.) Wobei hier noch nicht gesagt ist, dass auf die Wahrscheinlichkeit 0,5 (Zufall) oder 1 (es gibt Unterschiede) getestet wird!"

 

Üblicherweise testet man bei dieser Art von Test die Nullhypothese Zufälligkeit. Daraus erklärt sich auch die beschriebene Zuordnung der Fehler 1. und 2.Art.

Die Anzahl der Versuche hat keine Auswirkungen auf den Fehler 1.Art sondern auf den Fehler 2.Art.

Schließlich geben wir das Kriterium vor, ab welchem wir die Zufälligkeitsannahme verwerfen wollen. Die Erhöhung der Versuchsanzahl sorgt nur dafür, daß bei gegebenem Kriterium (SL) der notwendige prozentuale Anteil richtiger Antworten sinkt.

 

Es ist häufig ein Problem der Tests, das Hauptaugenmerk auf die Vermeidung Fehler 1.Art zu richten.

 

"Für den Fehler der 2. Art gibt es ebenfalls keinen Grund zur Sorge:

Es geht ja nicht um die Behauptung, man könne in 90% der Fälle einen Unterschied erkennen, es geht hier ja nicht einmal um Unterschiede der Wahrscheinlichkeiten (es ist ja egal, ob jemand zu 80% oder zu 90% erraten kann, welches CD-LW dranhängt), da wir hier nicht auf Unterschiede der Wahrscheinlichkeit testen, sondern auf 0,5 oder 1.

(Ein Beispiel ist im Link angegeben (2.2.4 Beispiel I (Vorlesung)), da macht es Sinn, zu testen, ob wirklich 5% vorliegen oder nicht.)"

 

Es besteht Grund zur Sorge, da wir zunächst nichts über das Vermögen der Testperson wissen, eventuell vorhandene Unterschiede zu erkennen.

Es leuchtet zunächst ein, daß man aufgrund menschlicher Schwächen davon ausgehen kann, daß eine 100%ige Erkennung nicht möglich ist.

 

Leventhal wählte aufgrund dieser Problematik den nachvollziehbaren Ansatz von verschiedenen Erkennungsprozentsätzen auszugehen, und darauf basierend die Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu berechnen.

Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann.

 

"Was bedeutet, man kann den Fehler der 2. Art berechnen, da die Wahrscheinlichkeit entweder 0,5 oder 1 sein muß. Oder behauptet hier jemand, man würde CD-LW in 60, 70 oder 82,2323% der Fälle voneinander Unterscheiden können?"

 

Ich würde behaupten, man wisse es einfach nicht. :)

 

"Und selbst dann wäre das Risiko bei den 'Technikern', es gibt ja in unserem Fall nur 2 mögliche Fehler der 2. Art:

1. Wenn ein Goldohr die Dinger mit einer Wahrscheinlichkeit von etwas mehr als 50% Unterscheiden kann, aber die Wahrscheinlichkeit von 50% angenommen wird, ist das zwar ein Fehler der 2. Art, für unsere Fragestellung aber uninteressant. (Oder gibt's Widerspruch?)

2. Wenn ein Goldohr die Dinger 'nur' zu 95% Unterscheiden kann, aber H_0: p=1 angenommen wird (=ein Goldohr kann die Dinger mit einer Wahrscheinlichkeit von 100% unterscheiden; d.h. es existiert ein erkennbarer Unterschied zwischen den CD-LW); dann werden eindeutig die Techniker benachteiligt."

 

S.o.

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>Üblicherweise testet man bei dieser Art von Test die

>Nullhypothese Zufälligkeit. Daraus erklärt sich auch die

>beschriebene Zuordnung der Fehler 1. und 2.Art.

Nun, worauf wir H_0 testen, ist in diesem Fall völlig egal. Ich darf an dieser Stelle auf das Beispiel verweisen. In diesem wird aus dem Grund auf eine 5%ige Wahrscheinlichkeit getestet, da der Hersteller jene 5% behauptet. Würde er 6% behaupten, würde auf 6% getestet. Aus sicht der Techniker müßten wir auf 50%, aus Sicht der Goldohren auf 100% Testen, und was jetzt?

 

>Die Anzahl der Versuche hat keine Auswirkungen auf den Fehler

>1.Art sondern auf den Fehler 2.Art.

Oh, ganz falsch. Das Beispiel ist auch in dem Buch 'Nichtparametrische statistische Methoden' von Büning/Trenkler enthalten, was ich vorliegen habe, d.h. ich habe auch die zugrunde liegenden Tabellen vorliegen (aus denen man auf den 1. Blick auch nicht viel erkennt). Im weiteren Verlauf des Buches aber gehen die Autoren auch auf große Stichproben ein, in deren Vorgehensweise die Binomialverteilung (logischerweise) erst mit der Poison- und bei noch größerer Anzahl mit der Normalverteilung approximiert wird.

Zitat: 'Für beliebiges p ist aufgrund des Satzes von De Moivre-Laplace eine Approximation der Binomialverteilung durch die (stetige) Normalverteilung möglich, wenn n "hinreichend groß" ist.'

Spätestens ab diesem Punkt kann man in der Formel für den Schätzer ein n ablesen, und ab da sollte es klar sein, dass man mittels Änderung von n (sprich Vergrößerung der Stichprobe) die Wahrscheinlichkeit für einen Fehler 1. Art verkleinern kann, d.h. das Konfidenzintervall wird kleiner.

Da die Symmetrie der Normalverteilung um so besser ist, desto näher p bei 0,5 liegt, könnte dies ein Grund dafür sein, auf 0,5 zu testen.

Leider konnte ich in dem Buch keine Aussagen zur Güte des Test, oder ob es sich um einen konsistenten Test handelt, finden.

 

>Leventhal wählte aufgrund dieser Problematik den

>nachvollziehbaren Ansatz von verschiedenen

>Erkennungsprozentsätzen auszugehen, und darauf basierend die

>Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu

>berechnen.

Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben.

Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta.

 

>Kurz gesagt, besteht der Ausweg in einer Erhöhung der

>Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler

>2.Art auch in dem Fall klein zu halten, daß die Testperson den

>Unterschied nur z.B. in 60% der Zeit sicher erkennen kann.

Wenn ich hier ein Goldohr sehe/höre, das behauptet, er könne in 75% aller Fälle CD-LW voneinander unterscheiden, sollte er sich besser selbst einweisen. Und ich werde auch nicht berechnen, wie groß ein Fehler der 2. Art sein könnte, weil einer zu 73% richtig liegt, und denkt, er hört zu 80%, das ist/wäre Schwachsinn. Oder hört man die Unterschiede etwa nicht mit Watte in die Ohren? Wie bereits erwähnt, der Fehler 2. Art greift hier nur, wenn es tatsächlich eine Wahrscheinlichkeit gibt, die Dinger mit einem Wert zwischen 0,5 und 1 zu unterscheiden. Und mit dieser Wahrscheinlichkeit meine ich nicht die gemessene (die ja irgendwo dazwischen liegt) sondern die reale, nicht bekannte. Und die liegt entweder bei 0,5 oder 1 (je nach Standpunkt). Das hier ist ein deterministische System, mit EINER Einflussgröße (CD-LW), und deshalb beliebig wiederholbar, kein zufälliges mit x verschiedenen, die sich u.U. noch gegenseitig Beeinflussen (wie z.Bsp. bei Medikamenten).

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

"Nun, worauf wir H_0 testen, ist in diesem Fall völlig egal."

 

Wie gesagt, üblicherweise wird in derartigen Tests die Nullhypothese so gewählt, daß sie die Zufälligkeit des Ergebnisses ausdrückt.

Das mag an Popper liegen. :)

 

"Oh, ganz falsch. Das Beispiel ist auch in dem Buch

'Nichtparametrische statistische Methoden' von Büning/Trenkler

enthalten, was ich vorliegen habe, d.h. ich habe auch die

zugrunde liegenden Tabellen vorliegen (aus denen man auf den

1. Blick auch nicht viel erkennt). Im weiteren Verlauf des

Buches aber gehen die Autoren auch auf große Stichproben ein,

in deren Vorgehensweise die Binomialverteilung

(logischerweise) erst mit der Poison- und bei noch größerer

Anzahl mit der Normalverteilung approximiert wird.

Zitat: 'Für beliebiges p ist aufgrund des Satzes von De

Moivre-Laplace eine Approximation der Binomialverteilung durch

die (stetige) Normalverteilung möglich, wenn n "hinreichend

groß" ist.'"

 

Geht es hier nicht um etwas anderes, nämlich um die Approximation?

 

"Das ist sicherlich schön zu berechnen, aber wie bereits

erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5

auszugehen haben."

 

Das ist kein zulässiger Schluß. Wie gesagt, wir haben keinerlei Kenntniss über das Erkennungsvermögen der Testperson. Wir wissen nur (aus allerlei menschlichen Erwägungen :) ) daß es vermutlich nicht bei 100% liegen wird.

Ganz profan ergibt sich nur die Schlussfolgerung, daß wir bei nicht ganz so stark ausgeprägtem Erkennungsvermögen der Testperson (aus welchem Grund auch immer) die Versuchsanzahl erhöhen müssen, um die Wahrscheinlichkeit eines Fehlers 2.Art zu verringern.

 

"Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir

aber mit dem Fehler der 1. Art abfangen) keinen Grund,

anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5

oder 1, Ungenauigkeiten beim Test werden berücksichtigt,

basta."

 

Basta funktioniert nur bedingt. :)

Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen?

 

"Wenn ich hier ein Goldohr sehe/höre, das behauptet, er könne

in 75% aller Fälle CD-LW voneinander unterscheiden, sollte er

sich besser selbst einweisen."

 

Es behauptet es vielleicht nicht, aber wir wissen, daß es nicht mit 100% Treffsicherheit unterscheiden kann. Ansonsten könnte man sich einen Großteil der Statistik sparen und grundsätzlich auf 100% iger Trefferquote bestehen. :)

 

Der passende Artikel dazu ist:

 

Les Leventhal "Type 1 and Type 2 Errors in the Statistical Analysis of Listening Tests" (JAES, Vol.34 No.6)

 

da es meist etwas schwierig ist, die AES Papers über das Netz zu erhalten- es gibt einen guten Abriß der Diskussion in der Stereophile:

 

http://www.stereophile.com/features/141/index1.html

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

>To see why this is so, a little background in statistics (having nothing to do with audio) is necessary.<

http://www.stereophile.com/features/141/index1.html

 

"Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen?"

 

Fehler 1. Art: Entscheidung, die Alternativhypothese anzunehmen, obwohl die Nullhypothese zutritt. Tritt mit der Wahrscheinlichkeit Alpha ein. In der Regel wird Alpha vor dem Testbeginn so gewählt, dass es eine bestimmte Schranke (10%, 5%, 1%) nicht überschreitet.

 

Ich glaube es ist besser, wir lassen das.

 

Kobe

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi,

 

hier möchte ich doch nochmal gern beim Thema der CD-Kopie bleiben und meinen Senf dazu geben. ;-) Ohne auf das Thema "Wissenslücken" einzugehen, denn die hat jeder. Keiner weiß alles und darum diskutieren wir hier.

 

Dieses Thema der CD-Kopien habe ich schon vor einigen Jahren hier mit RG heiß diskutiert. Bis heute habe ich keine gebrannte CD gehört, geschweige denn brennen können, die später klanglich absolut identisch klang wie das Original. Damit wir uns richtig verstehen, die Unterschiede sind sehr gering, man muß schon genau hinhören. Wenn hörbar, dann zuerst im Bassbereich und auch ein wenig in den Höhen. Diese Unterschiede gehören für mich zu den im Hifi-Bereich gerade noch so einigermaßen reproduzier- und feststellbaren Größen.

 

Meines Wissens nach liegt dieser Unterschied nicht an den schlecht ausgelesenen Pits, sondern ist begründet a) in der unterschiedlichen Beschaffenheit der CD-Oberflächen (Reflektionsverhalten) und B) durch sauber/unsauber gebrannten Pits. Daraus scheint sich irgendwie eine klangliche Veränderung zu entwickeln, die bis zum Wandler erhalten bleibt.

 

Grüße, Amin

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...