Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
h_reith

SACD

Recommended Posts

 

nicht zum ersten Mal - aber man sollte ihm das großzügig nachsehen, denn:

 

< . . . Shannons Anforderung bzgl. Konfussion und Diffusion am dümmsten realisiert,>

 

das mit der dümmsten Realisierung bezgl. Konfusion und Diffusion hat er sich vielleicht etwas zu sehr zu Herzen genommen . . . . ;-)

 

Aber das wär nicht so schlimm, könnte gar witzig sein, würde er einen etwas geschliffeneren Stil pflegen.

 

bedauerlich - in der Sache kann man immer streiten. Über Stil streite ich nicht.

Da ist zumindest meine Toleranzgrenze definitiv erreicht.

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Schade, dass du nur laberst, aber nun gut, zu mehr reicht es halt nicht...

dann erzähl mir mal, wie ich seine Zahlen verifizieren konnte, OHNE den Artikel von Leventhal gelesen zu haben? Na?

Da du aber allem Anschein nach nicht mehr weißt, was ich geschrieben habe (was mich nicht wundert) noch mal kurz meine Punkte (die man nachlesen kann).

 

1. Leventhal geht in seiner Tabelle von 'correct identifications' aus.

Nun ist es so, wenn ich zu einen Prozentsatz von p etwas korrekt identifizieren kann, habe ich die Möglichkeit, mit einer Wahrscheinlichkeit von 0,5 die anderen (1-p)-'Fälle' (ich schreib's mal so) richtig zu raten. Ich gehe mal davon aus, dass beide zu testende Objekte gleich oft als Testobjekt herhalten (also von mir aus Amp1 und Amp2 je 8 mal.)

Das bedeutet, dass bei einer W'keit von p insgesamt p+(1-p)*0,5 richtige Ergebnisse abgegeben werden. Oder mit Zahlenwerten: Wenn ich in 20% der Fällen was höre, kommen schon 60% Treffer raus, bei 40% sind's 70% richtige, und bei 60% sind 80% richtige.

 

2. Die Jungs von der stereophilen schreiben, dass sie des öfteren Test machen. Würde man nicht anhand des 'Gesetz der großen Zahlen' erwarten, dass die Anzahl der 'correct identifications' gegen den wahren Wert streben würde, und glaubst du nicht, dass vielleicht mal jemand auf den Gedanken kommt, einfach mal 'nen Mittelwert zu berechnen? So wie bspw. im Kabeltest im Hififorum? (Da kamen übrigens 50% Treffer raus... Komisch.)

 

3. Da du es mit der Statistik ja nicht so hast, beschreib' ich's mal ohne Fachbegriffe, die du sowieso nicht verstehst, und bring mal ein paar Zahlen:

Leventhal schreibt, dass das Beta bei einem Stichprobenumfang von 16 sei zu hoch. Nun schreiben die Jungs von der stereophile, sie machen des öfteren Tests, und es sei noch nie zu einem Ergebnis 'Hörbar' gekommen. Leventhal schreibt, dass sei wegen des zu großen Betas der Fall.

Rechnen wir mal ein wenig:

Ich nehme einfach mal das Beispiel von Leventhal, das er gerade unter der Tabelle stehen hat. Er schreibt, dass es reicht, bei 16 Versuchen 12 'richtige' zu haben (also 75%).

Wie ich oben gezeigt habe, ist eine Wahrscheinlichkeit für 'Erkennen' von 0,8 (also 0,6 für das korrekte Erkennen + 0,2 für's 'richtige Raten') nicht zu hoch, weswegen ich mal mit diesem Wert weiterrechne.

Ich kümmere mich mal ein wenig um das Komplementärereignis: Mit welcher Wahrscheinlichkeit habe ich nur maximal 11 Treffer bei 16 Versuchen und einem p = 0,8? Es ist knapp 20,2%. Das bedeutet aber, dass ich mit knapp 79,8% 12 oder mehr Treffer habe, und der Test mir sagt 'Hörbar' (bzw. p <> 0,5; was ja richtig wäre). (Das erklärt auch die Werte in der Tabelle für das Beta bei p=0,8.) Rechnen wir mal mit dem Ereignis: Maximal 11 Treffer bei p=0,8 weiter:

Wenn ich nun die Tests mehr als einmal mache (wovon ich auszugehen habe), ohne das ich irgendwann mal einen Treffer habe, dann sind das unabhängige Ereignisse, d.h. man kann die Wahrscheinlickeiten einfach multiplizieren.

Wenn ich also nun 2 Versuchsdurchgänge habe, liege ich mit knapp 4% 2 mal daneben, bei 3 Durchgängen 0,8%; bei 5 Durchgängen 0,033...%; bei 10 Durchgängen 0,000012%; bei 25 Durchgängen ungefähr 1 zu 239.560.997.259.578.000, also wesentlich schlechter als Lotto.

 

Ist das für dich ein realistischer Wert, der mal locker so vorkommt?

 

Ich hätte natürlich auch mit Testtheorie argumentieren können, aber: Gütefunktion, Operationscharakteristik, Macht des Tests,... Da kann ich auch'm Ochs in's Horn petze...

 

Du wirst sicher verstehen, dass ich nur auf ernstgemeinte Argumente antworten werde... Ich erwarte keine, nur dein mehr als peinliches Gelalle, du kannst mich also überraschen.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>das mit der dümmsten Realisierung bezgl. Konfusion und Diffusion hat er sich vielleicht etwas zu sehr zu Herzen genommen . . . .

 

Naja, ein Glück, dass dein Stil der gepflegtere ist... Komm', labber ein wenig über SingleCoils, das stört wenigstens keinen.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

 

>Es kommt darauf an, was man testen will... Da das Gehör in der

>Lage ist, Pegelunterschiede festzustellen (auch wenn das Gehör

>leichte Pegelunterschiede nicht als leichte Pegelunterschiede

>sondern als ein 'lebendigeres' Klangbild wahrnimmt), wird man

>also 2 Geräte mit unterschiedlichen Pegeln (ab einer

>Mindestgröße natürlich) locker auseinanderhalten können...

>Jetzt kommt die Frage, was man testen will, in's Spiel...

 

Stimmt schon nur ein Aspekt wird IMHO hier völlig vernachlässigt.

Die Leute die "hier" diskutieren haben mit Sicherheit ein gewisses

Maß an TRaining beim hören. Das kommt ja zwangsweise man häufiger

Probehören macht und AB oder ABX-Vergleiche. Solche Pegelunterschiede

bekommt man dann auch sehr schnell mit. Nur die meisten 08/15-Verbraucher da draußen haben "oft" ein ungeschultes Gehör. Die Frage ist wie rasch bekommt ein solcher Hörer z.b. solche Pegelunterschiede ?

Manche machen sich heutzutage gar nicht mehr die Mühe (wie ich bei Diskussionen mit Arbeitskollegen etc. mitbekomme) überhaupt mal selbst bei Hifigeräten Probezuhören und zu vergleichen. Daß ist natuerlich auch eine Frage der eigenen Einstellung, ob ich mir überhaupt die Mühe machen möchte was zu vergleichen. Das gilt nicht nur für Hifi-Geräte sondern auch andere Dinge die man kauft.

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

 

sicher meinst Du es ja nur gut mit unseren Mitlesern und möchtst alle davor bewahren, durch das Lesen anderer als Single-Coil-Beiträge von mir geistigen Schaden davon zu tragen ;-) - aber es deucht mich doch angemessener, würdest Du die Entscheidung darüber was ihn stört jedem selbst überlassen.

 

Ich hatte nie den Eindruck, daß hier alle auf von Dir erteilte Anweisungen auch wirklich angewiesen sind.

 

Hingegen verwundert es nicht eigentlich, daß Du selbst dieser Auffassung zu sein scheinst. Vermagst Du doch immerhin - stellvertretend für alle - zu verkünden, was "keinen stört".

 

 

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>Ich hatte nie den Eindruck, daß hier alle auf von Dir erteilte Anweisungen auch wirklich angewiesen sind.<

 

Na, schon so allmächtig, dass du eine Aufforderung von mir an dich als Befehl an alle interpretierst? Nett... ;-)

 

>Ich hatte nie den Eindruck, daß hier alle auf von Dir erteilte Anweisungen auch wirklich angewiesen sind.<

Ich auch nicht... ;-)

 

>Vermagst Du doch immerhin - stellvertretend für alle - zu verkünden, was "keinen stört".<

Hatte ich auch nicht behauptet... ;-)

 

Dann mach doch lieber Witze über die dümmsten Realisierung bezgl. Konfusion und Diffusion... ;-) Da scheinst du dich ja auch auszukennen... ;-) Und vielleicht kommen ja ein paar gute Witze für die nächste Mathematikerfete raus... ;-)

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

 

Ich hab doch nur Dich selbst zitiert . . . . ;-)

 

>>Vermagst Du doch immerhin - stellvertretend für alle - zu verkünden, was "keinen stört".<<

>Hatte ich auch nicht behauptet... <

 

Doch, doch - hattest Du:

"labber ein wenig über SingleCoils, das stört wenigstens keinen"

 

Wann ist Dein nächstes Seminar über Aussagelogik? Geh hin! :-) :-)

Diesen Beitrag teilen


Link zum Beitrag

"dann erzähl mir mal, wie ich seine Zahlen verifizieren konnte,

OHNE den Artikel von Leventhal gelesen zu haben? Na?"

 

Die Quellenangabe liegt lang zurück, deswegen als Zitat:

 

 

Les Leventhal "Type 1 and Type 2 Errors in the Statistical Analysis of Listening Tests" (JAES, Vol.34 No.6)

 

da es meist etwas schwierig ist, die AES Papers über das Netz zu erhalten- es gibt einen guten Abriß der Diskussion in der Stereophile:

 

http://www.stereophile.com/features/141/index1.html>

 

Artikel meint tatsächlich Artikel; wer beurteilen will, was Leventhal in seinem Artikel geschrieben und was "aus Versehen" weggelassen hat, sollte ihn gelesen haben.

 

"1. Leventhal geht in seiner Tabelle von 'correct

identifications' aus.

Nun ist es so, wenn ich zu einen Prozentsatz von p etwas

korrekt identifizieren kann, habe ich die Möglichkeit, mit

einer Wahrscheinlichkeit von 0,5 die anderen (1-p)-'Fälle'

(ich schreib's mal so) richtig zu raten. Ich gehe mal davon

aus, dass beide zu testende Objekte gleich oft als Testobjekt

herhalten (also von mir aus Amp1 und Amp2 je 8 mal.)

Das bedeutet, dass bei einer W'keit von p insgesamt

p+(1-p)*0,5 richtige Ergebnisse abgegeben werden. Oder mit

Zahlenwerten: Wenn ich in 20% der Fällen was höre, kommen

schon 60% Treffer raus, bei 40% sind's 70% richtige, und bei

60% sind 80% richtige."

 

Ist ein nettes Gedankenspiel, aber vollkommen irrelevant. Man testest eben auf Zufälligkeit (richtiger, ob ein Ergebnis auch so per zufälligem Raten hätte erzielt werden können), wenn p nicht gleich 0.5 ist, sondern einen anderen Wert annimmt, dann ist das eben so.

Leventhal nimmt bestimmte Werte für p an, um für diese Fälle den Fehler 2.Art berechnen zu können. Wenn p=0.6 wäre, dann wäre die Chance für einen Fehler 2.Art bei beschriebenem Testablauf eben ziemlich hoch. Wie gesagt, p wäre dann gleich 0.6, es kommen nicht noch weitere geratene Treffer hinzu. Wie die Trefferzahl zustande kommt, ist reine Spekulation, man könnte auch annehmen, die Testperson habe immer richtig gehört, aber sich häufig bei der Eingabe vertan. :)

 

"2. Die Jungs von der stereophilen schreiben, dass sie des

öfteren Test machen."

 

Vielleicht sortieren wir nochmals die Fakten; die "Jungs von der Stereophile" sind hier nicht die Adressaten, sondern stattdessen David Clark, Dan Shanefield, Thomas Nousaine (und etwas im Hintergrund Arny Krueger), und diese haben mit der Stereophile rein gar nichts zu tun. Ganz im Gegenteil, zumindest Krueger und Nousaine führen eher eine Art persönlichen Kreuzzuges gegen die "Jungs von der Stereophile" durch.

 

Die genannten schreiben, sie würden öfter testen, geizen aber ziemlich mit Informationen über diese "öfter gemachten" Tests.

 

"Würde man nicht anhand des 'Gesetz der

großen Zahlen' erwarten, dass die Anzahl der 'correct

identifications' gegen den wahren Wert streben würde, und

glaubst du nicht, dass vielleicht mal jemand auf den Gedanken

kommt, einfach mal 'nen Mittelwert zu berechnen? So wie bspw.

im Kabeltest im Hififorum? (Da kamen übrigens 50% Treffer

raus... Komisch.)"

 

Mag sein, daß man dies erwarten würde, aber was der einzelne glaubt, ist eine Sache, was publiziert und überprüfbar ist, eine vollkommen andere.

 

"3. Da du es mit der Statistik ja nicht so hast, beschreib'

ich's mal ohne Fachbegriffe, die du sowieso nicht verstehst,

und bring mal ein paar Zahlen:

Leventhal schreibt, dass das Beta bei einem Stichprobenumfang

von 16 sei zu hoch. Nun schreiben die Jungs von der

stereophile, sie machen des öfteren Tests, und es sei noch nie

zu einem Ergebnis 'Hörbar' gekommen. Leventhal schreibt, dass

sei wegen des zu großen Betas der Fall."

 

Leventhal schreibt dies eigentlich nicht, sondern überbringt nur die Botschaft, daß bei relativ kleinem p (aber p > 0.5) die Zahl der Versuche größer sein müßte, um nicht mit einer großen Wahrscheinlichkeit für Fehler 2.Art leben zu müssen. Soll heißen, er behauptet nicht, es läge daran, sondern weist nur darauf hin, daß Fehler 2.Art wahrscheinlich sind.

 

"Rechnen wir mal ein wenig:

Ich nehme einfach mal das Beispiel von Leventhal, das er

gerade unter der Tabelle stehen hat. Er schreibt, dass es

reicht, bei 16 Versuchen 12 'richtige' zu haben (also 75%).

Wie ich oben gezeigt habe, ist eine Wahrscheinlichkeit für

'Erkennen' von 0,8 (also 0,6 für das korrekte Erkennen + 0,2

für's 'richtige Raten') nicht zu hoch, weswegen ich mal mit

diesem Wert weiterrechne."

 

Von "gezeigt" haben kann man nicht reden, es war nur eine Möglichkeit, wie ein Wert von 0.8 zustande kommen könnte.

 

"Wenn ich nun die Tests mehr als einmal mache (wovon ich

auszugehen habe),......"

 

Tatsächlich hast Du nicht davon auszugehen, sondern Du _willst_ davon ausgehen. Es gibt keinerlei Informationen darüber, ob wirklich die gleichen Tests wiederholt wurden, oder ob einfach öfter Tests mit anderen Bedingungen durchgeführt wurden.

 

".....ohne das ich irgendwann mal einen Treffer

habe, dann sind das unabhängige Ereignisse, d.h. man kann die

Wahrscheinlickeiten einfach multiplizieren.

Wenn ich also nun 2 Versuchsdurchgänge habe, liege ich mit

knapp 4% 2 mal daneben, bei 3 Durchgängen 0,8%; bei 5

Durchgängen 0,033...%; bei 10 Durchgängen 0,000012%; bei 25

Durchgängen ungefähr 1 zu 239.560.997.259.578.000, also

wesentlich schlechter als Lotto."

 

Nur leider wissen wir nicht, ob der gleiche Test (sprich gleiche Testperson, gleiche Testobjekte, gleiche Rahmenbedingungen) überhaupt auch nur einmal wiederholt wurde.

Und es macht eben einen Unterschied, ob heute z.B. David Clark eine ML mit einer Hafler vergleicht, und nächste Woche Tom Nousaine. Oder die gleiche Testperson heute ML gegen Hafler vergleicht und nächste Woche ein Accuphase Modell gegen ein anderes.

Und, wenn wir so herrlich über vielleicht durchgeführte Tests spekulieren,können wir auch darüber nachdenken, ob es Einfluß auf die Ergebnisse haben kann, wenn die Testpersonen alle felsenfest davon überzeugt sind, daß z.B. alle Verstärker gleich klingen.

Nachdenken könnte (und sollte) man auch für den Fall der Wiederholung von Tests (oder Testdurchläufen), unter welchen Voraussetzungen man tatsächlich von Unabhängigkeit jeweils ausgehen kann.

 

BTW, wieviele Testdurchläufe auf 0.05 Niveau braucht man, um mit recht hoher Wahrscheinlichkeit wenigstens einmal einen Fehler 1.Art zu machen?

 

Gruß

 

P.S. Für Liebhaber der Groteske noch der Link zu einem weiteren Teil der früheren Diskussion:

 

http://www.audiomap.de/forum/index.php/az/...id/21330/page/7

 

:)

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Na, dann schauen wir mal:

>Leventhal nimmt bestimmte Werte für p an, um für diese Fälle den Fehler 2.Art berechnen zu können.<

Was ich ebenfalls gemacht habe... Naja, bei mir ist es nett...

Übrigens braucht man das nicht zu tun, wenn man weiß, dass der Binomialtest (zumindest wenn man die Binomialverteilung durch die Normalverteilung approximiert) konsistent ist, und dann begriffen hat, was die Operationscharaktersitik, Güte und Gütefunktion dann so machen. Naja,...

 

>Man testest eben auf Zufälligkeit (richtiger, ob ein Ergebnis auch so per zufälligem Raten hätte erzielt werden können), wenn p nicht gleich 0.5 ist, sondern einen anderen Wert annimmt, dann ist das eben so.<

Tja, ich kann mich auch nicht daran erinnern, im Beispiel auf ein anderes p als p=0,5 getestet zu haben oder testen zu wollen... Naja, du brauchst ja nichts zu glauben, du liest es halt einfach... Dafür siehst du es später aber ein: >Von "gezeigt" haben kann man nicht reden, es war nur eine Möglichkeit, wie ein Wert von 0.8 zustande kommen könnte.<

 

>Wie gesagt, p wäre dann gleich 0.6, es kommen nicht noch weitere geratene Treffer hinzu.<

Übrigens passiert bei p=0,6 das Gleiche. Oder hast du ernsthaft was anderes erwartet?

Naja... Seite 3, ganz unten:

"(The p values should be interpreted as the proportion of correct identifications the listener will provide when given an infinite number of trials under the conditions of the listening study, even if those conditions are not ideal for making correct identifications.)"

Also, ich persönlich hab' mir schon was dabei gedacht... Die anderen 0,4 sind alle aus Prinzip falsch... Eigentlich würde ich ja schreiben, dass du dir jetzt mal Gedanken machen könntest, aber ich lass' es.

 

>Tatsächlich hast Du nicht davon auszugehen, sondern Du _willst_ davon ausgehen. Es gibt keinerlei Informationen darüber, ob wirklich die gleichen Tests wiederholt wurden, oder ob einfach öfter Tests mit anderen Bedingungen durchgeführt wurden.<

Nun ja, es reicht ja, wenn man die Tests irgendwann irgendwo mal wieder macht... Man benötigt nicht einmal die gleichen Testbedingungen, die Ergebnisse müssen nicht reproduzierbar sein, und das 'wahre' p kann auch unterschiedlich sein... Wie ich schon mal schrieb, reicht es erstmal, dass irgendwann irgendwo ein Test (ich glaube, es ging damals um CD-LW) mal anschlägt... Wie ich mit Zahlen gezeigt habe (Theorie geht leider nicht, da es hier leider an grundsätzlichem Verständnis und Wissen mangelt), geht die Wahrscheinlichkeit, dass es immer einen Fehler 2. Art gibt, ziemlich schnell gegen 0... Auch, wenn diese W'keit auf Grund der unterschiedlichen Testbedingungen unterschiedlich ist... Ja, ich weiß, dass sagt schon die Tatsache, dass der Binomialtest (zumindest wenn man die Binomialverteilung durch die Normalverteilung approximiert) konsistent ist... Aber vor dieser Tatsache scheinen hier einige Leute schnell genug wegzulaufen...

 

Schade, dass du immer noch nicht in der Lage bist, ein Beta zu interpretieren oder gar damit weiterzurechnen.

 

>BTW, wieviele Testdurchläufe auf 0.05 Niveau braucht man, um mit recht hoher Wahrscheinlichkeit wenigstens einmal einen Fehler 1.Art zu machen?<

Naja, den saudummen Kommentar will ich mal netterweise als Scherz auffassen.

 

"Hätte, wenn und aber, alles nur blödes Gelaber!"

(um mal Hermann Gerland zu zitieren)

 

Wenn jemand Fragen zu statistischen Problemen hat, kann er mich gerne Fragen, aber der hier kapierst das nie... Ich lass' es.

 

Gruß Kobe

 

P.S.: Und ich Idiot hab' gedacht, man kann über 6 Monate mal dazu nutzen, um in seinem Leben was dazuzulernen... Ja, ihr habt' ja recht...

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

"labber ein wenig über SingleCoils, das stört wenigstens keinen"

 

Veilleicht freut sich jemand sogar drüber... ;-) Ich kann ja nicht für alle sprechen... ;-) Übrigens scheinst du schon vergessen zu haben, dass du zu 'alle' gehörst... ;-)

 

Gruß Kobe

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

"Was ich ebenfalls gemacht habe... Naja, bei mir ist es

nett..."

 

Na ja, ursprünglich lautete Deine Ansicht zu derlei nachvollziehbaren Berechnungen "Blödsinnsgerechne" . :) Nett aber überflüssig trifft es aber besser.

 

"Übrigens braucht man das nicht zu tun, wenn man weiß, dass der

Binomialtest (zumindest wenn man die Binomialverteilung durch

die Normalverteilung approximiert) konsistent ist, und dann

begriffen hat, was die Operationscharaktersitik, Güte und

Gütefunktion dann so machen. Naja,..."

 

Du müßtest wirklich einmal nachlesen, um welche Art von Tests und Testergebnissen es hier geht. Soll heißen, was die ABX-Fraktion damals tatsächlich gemacht hat, und was nur in Deiner Phantasie stattgefunden hat.

 

"Tja, ich kann mich auch nicht daran erinnern, im Beispiel auf

ein anderes p als p=0,5 getestet zu haben oder testen zu

wollen... Naja, du brauchst ja nichts zu glauben, du liest es

halt einfach..."

 

Womit wir wieder beim Sprachverständnis wären, ich hatte nicht gesagt, Du habest auf etwas anderes als p=0.5 testen wollen.

 

"Übrigens passiert bei p=0,6 das Gleiche. Oder hast du

ernsthaft was anderes erwartet?"

 

Ja, denn dieses p=0.6 ist eben gleich 0.6, es kommen nicht noch weitere Treffer hinzu, es wird nicht durch Raten verbessert, oder durch motorische Ungeschicklichkeit verkleinert, es ist p=0.6.

 

"Naja... Seite 3, ganz unten:

(The p values should be interpreted as the proportion of

correct identifications the listener will provide when given

an infinite number of trials under the conditions of the

listening study, even if those conditions are not ideal for

making correct identifications.)"

 

Exakt. Die Testperson liegt mit einer Wahrscheinlichkeit von p=0.6 richtig. :)

Was dann nicht heißt, identifiziert in 60% der Fälle richtig, und schafft weitere richtige per Raten.

 

"Nun ja, es reicht ja, wenn man die Tests irgendwann irgendwo

mal wieder macht... Man benötigt nicht einmal die gleichen

Testbedingungen, die Ergebnisse müssen nicht reproduzierbar

sein, und das 'wahre' p kann auch unterschiedlich sein... "

 

Dein Argument funktioniert nur, wenn p in allen Tests tatsächlich von 0.5 verschieden ist. Leider weiß das keiner. Wenn Testteilnehmer und Testrahmenbedingungen beständig wechseln, kann am Ende doch kein Mensch mehr sagen, wie das Hörvermögen im einzelnen lag. Einig waren wir uns darüber, daß bei großen Testzahlen irgendwann etwas greifbares herauskommen müßte, aber nur solange das Testprocedere es tatsächlich erlaubt.

 

"Wie ich mit Zahlen gezeigt habe (Theorie geht

leider nicht, da es hier leider an grundsätzlichem Verständnis

und Wissen mangelt), geht die Wahrscheinlichkeit, dass es

immer einen Fehler 2. Art gibt, ziemlich schnell gegen 0..."

 

In Deinem Beispiel gingst Du von p=0.8 aus bei mehrfachen Tests, woher willst Du das wissen? Also willst Du umgekehrt schließen, daß, da kein positiver Test auftauchte, p vermutlich nicht (immer) bei 0.8 lag. Da Du aber nicht auf Wiederholung des gleichen Tests bestehst, woraus willst Du schließen, daß nicht z.B. die erste Testperson im ersten bei 0.7 lag, was aufgrund der geringen Versuchsanzahl nicht detektiert wurde, aber p in weiteren Tests, bei völlig anderen Bedingungen, also auch anderen Testpersonen, dann bei 0.5?

 

"Naja, den saudummen Kommentar will ich mal netterweise als

Scherz auffassen."

 

Immerhin wurden eigene Testverfahren entwickelt, um die Testergebnisse weiter abzusichern, da bei häufiger Wiederholung die Wahrscheinlichkeit stark ansteigt, einen Fehler 1.Art zu machen, mithin einen Blindtest mit falschem positivem Ausgang zu haben.

Wenn also die Aussage stimmt, es sei öfter getestet worden, aber nicht mit positivem Ausgang, können wir direkt abschätzen, wie viele Versuche sich wahrscheinlich hinter dem "öfter" verbergen. Denn, wäre wirklich oft getestet worden, hätte es positive Ausgänge geben müssen.

 

Aber, ansonsten sei Dir Deine Auffassung gegönnt.

 

"P.S.: Und ich Idiot hab' gedacht, man kann über 6 Monate mal

dazu nutzen, um in seinem Leben was dazuzulernen... Ja, ihr

habt' ja recht..."

 

Im Satzanfang scheint ein Funken Wahrheit enthalten. :)

 

Gruß

 

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...