Jakob 0 Report post Posted December 28, 2005 Es handelt sich bei ABX-Test wie auch bei A-B-Tests um sogenannte Bernoulli-Tests, d.h. es gibt genau 2 Antworten, von denen eine richtig ist. Salopp gesagt, wird per statistischem Test verglichen, ob ein Hörergebnis auch hätte durch reines Raten so erzielt werden können. Da bei Raten auch durchaus einmal 100% richtige Antworten erreicht werden könnten, gibt man als SL-Niveau (Signifikanzlevel) die Wahrscheinlichkeit für zufällig erzielte Ergebnisse vor, die man noch bereit ist zu akzeptieren. Denn selbstverständlich bedeutet die Zufälligkeit (p=0.5), dass diese sich bei unendlicher Versuchswiederholung im Ergebnis ergeben würde; bei endlicher Versuchsanzahl können und werden Abweichungen auftreten, die Wahrscheinlichkeit für diese Abweichungen können mit Hilfe der Binomialverteilung ermittelt werden (sofern die einzelnen Versuche wirklich unabhängig voneinander sind). Der angsprochene SL von 0.05 bedeutet, dass die Nullhypothese zurückgewiesen wird bei Ergebnissen, die nur mit einer Wahrscheinlichkeit von <5% durch reines Raten hätten erzielt werden können. Die Rückweisung der Nullhypothese bedeutet, dass das Ergebnis nicht durch reines Raten erzielt wurde. Gruss Share this post Link to post
Robeuten 0 Report post Posted December 29, 2005 Hi Klaus, hm, vielleicht stellt sich das Ganze im Lichte der schon vorher abgelaufenen "Diskussionen" zumindest für mich etwas anders dar: K. hat J. schon x-mal auf logische Fehler in seinen Argumentationsketten aufmerksam gemacht, und jetzt wird der gleiche Quatsch - sorry, da fällt mir wirklich kein anderer Terminus ein - nahezu 1:1 wieder aus dem Zylinder gezaubert. J. ist 1) beratungsresistent 2) impertinent 3) überempfindlich (also, wenn ich jemandem mit ad hominem Argumenten auf den Pelz rücke, hört sich das ganz anders an ;-)). >>Wer seinen Ohren und seinem Wissen vertrauen kann, der muß "Kabelklang" nicht statistisch verifizieren . . . wer das nicht kann, für den ist ganz sicher auch die Statistik nicht wirklich hilfreich . . Klaus, ich finde es dennoch hilfreich, wenn sich eigene Erfahrung auf saubere Tests abstützen kann - schön, wenn man zum gleichen Ergebnis kommt. Kommt man zu divergierenden Ergebnissen, ist das umso mehr ein Grund, den eigenen Gedanken/Einschätzungen noch 'mal auf den Zahn zu fühlen... Zum zweiten Teile Deiner Aussage: Dass Du - leider - sachlich recht hast, entbindet die Fachleute nicht davon, es dennoch zu versuchen. Dir schon einmal einen "guten Rutsch" und alles Gute für 2006! Grüsse, Rob Share this post Link to post
kestudio 4 Report post Posted December 29, 2005 hab ich schon mitbekommen . . . :-) Dir schon einmal einen "guten Rutsch" und alles Gute für 2006!> Klar - ich weiß, was Du meinst. Aber mit der ganzen Statistik ist das so eine Sache. Es gibt ganz klar Gebiete, wo sie Sinn macht ;-) . Wenn wir davon ausgehen, daß Kabel unterschiedlich reagieren in unterschiedlichen Zusammenhängen (wörtlich :-) ) , dann ist doch jede statistische Erhebung im Grunde Unfug, solange man nicht ALLE diese unterschiedlichen Konfigurationen in die Erhebung mit einbezieht. Ich habe Kabel an einer Krell und an einer Spectral rel. unterschiedlich "klingen" oder besser funktionieren hören. Keine Frage, daß es da Unterschiede gibt. Frage A) wäre: welcher Art sind die Unterschiede und , was bedeuten sie? Was sagen sie aus? Nur, daß es eben Unterschiede tatsächlich gibt? Dafür muß man keine Statistik bemühen. Sind die Unterschiede in irgendeiner Form relevant? Ich meine: nein. Aber es geht nicht um meine Meinung, wenn von Statistik die Rede ist. Relevant ist die Zusammenarbeit besagter Kabel mit unterschiedlichen - u. U. sehr unterschiedlichen - Komponenten. Diese tatsächlich vorhandenen Unterschiede sind aber so gering (und m. E. unbedeutend), daß es verständlich scheint, sie duch Statistik untermauern zu lassen. Aber WOZU? Besagtes Kabel "klang" übrigens an einer AudioResearch wiederum leicht anders. Ist es nun ein "gutes" Kabel oder ein "böses" Kabel? "Klingt" es "besser", "schlechter" genausogut, genausoschlecht wie ein anderes Kabel? Was soll´s? Das einzige rel. objektive Kriterium kann doch sein: schadet es oder schadet es nicht. DAS zumindest lässt sich leicht feststellen. Wenn A ebensowenig schadet wie B, aber zwischen einer AR-Vorstufe und einer Spectral-Endstufe etwas anders "klingt": WAS HEIßT DAS? Es kann in einer anderen Kombination wiederum anders "klingen". Ein vernünftiges Kabel - gut und zuverlässig aufgebaut, mit gut verlöteten oder geklemmten Steckern, die nicht gleich wegrosten . . - schadet nicht. Es erfüllt seine Aufgabe als Verbinder von Komponenten, als Leiter von Signalen. Abgesehen von LowOutput MCs sind alle Signale um die es hier geht, nicht soo leicht zu "beschädigen". Unser "vernünftiges Kabel" transportiert sie also unbeschädigt. Wenn dann "HighEnd-Kabel" ;-) noch hie und da ein silbriges Glöckchen, Schimmerchen draufsetzen oder die berühmten "Vorhänge wegziehen" - dann mag das ja sein - es empfindet aber jeder vielleicht unterschiedlich. RELEVANZ haben diese hinzugefügten Euphemismen aber nicht. Sie sind reine Gechmacksache. Sollte DAS eine Statistik klären können? Ich weiß nicht . . . :-) WIE solllte man das statistisch erheben können? Ist es nicht schlauer, selbst hinzuhören u nd herauszufinden, was einem selber gefällt oder nicht? Daß damit jeglicher objektiven Bemühung einer Bewertung der Boden entzogen sein dürfte liegt leider auf der Hand . . . :-) Es gibt doch nun seit Jahren BT, DBT und was weiß ich noch alles. Gibt es auch Ergebnisse :-) :-) ? Was ist rausgekommen? Dir auch einen guten Rutsch und ein schönes neues Jahr! Share this post Link to post
Kobe 0 Report post Posted December 29, 2005 Gude! Ja, das mit dem angekrochen - Eigentlich wollte ich krabbeln schreiben, macht die Sache aber nicht wirklich besser, da sind wohl die Pferde mit mir durchgegangen, ich möchte darum bitten, mir das zu verzeihen. Leider macht das die inhaltliche Auseinandersetzung nicht besser... Fakt ist, dass wieder der nächste Testballon aufgeblasen wurde... Jetzt geht es um ABX-Tests... Irgendwie erinnert mich das Ganze hier an das Märchen vom Hasen und vom Igel... Erst einmal ist mir oben ein Fehler unterlaufen, wenn ich zu p etwas richtig erkenne (im Sinne dieser Erkennungsrate), dann rate ich in 0,5 *(1-p) Fällen richtig, sorry, Fehler von mir. Ansonsten ist das vom Prinzip her mit einem Multiple-Choice-Test zu vergleichen... Ansonsten würde es ja keinen Sinn machen, auf 0,5 für Zufall zu testen (wenn es sich um 2 Möglichkeiten handelt (was wohl der Standatdfall sein dürfte); im MP3-Test der c't gab's glaub' ich 3 Möglichkeiten, in diesem Fall muss man das Ganze natürlich anpassen). Ansonsten, ich weiß, Wiederholungen gefallen nicht: Statistikbuch. Da lernt man bspw., dass man alternative Tests machen kann, wie bspw. einen Run-Test, einen Vierfelder-Test, oder einen Chi-Quadrat-Test... Das hat dann eben NICHTS mit der Erhöhung der Stichprobenanzahl zu tun. Auch scheint sich immer noch nicht rumgesprochen zu haben, dass man die Anzahl einfach dadurch erhöhen kann, dass man alle Tests zuammenfasst. Und auch, dass es keinen Sinn macht, auf ein willkürliches p zu testen (oder auf den Mittelwert der Stichprobe)... 0,6? Warum nicht 0,55? Übrigens bedeutet ein 0,6, dass ich 20% richtig erkannt habe, und von den restlichen 80% die Hälfte (also 40%) richtig geraten habe. Desweiteren wird hier so getan, als hätte ich den Beta-Fehler einfach so vorliegen und könnte damit rechnen oder ihn mit dem Alpha-Fehler vergleichen... Dies ist nicht der Fall, er ist ja eben nicht bekannt. Was man hat, ist die Gütefunktion, an der man das Verhalten des Beta-Fehlers ablesen kann und dementsprechend Aussagen über diese Beta-Fehler machen kann. Das sind dann so Aussagen wie: Der Test ist konsistent, usw.usf. Im Prinzip ist das eine Aussage wie: Der Test funktioniert auch bei einem p von 0,6, wenn die Stichprobe groß genug ist. Bevor jetzt wieder die 16 auftaucht: Wie oben geschrieben, kann man die einzelnen Stichproben zusammenfassen. Im Münchner Test waren es glaub' ich 21 Personen, also 336 einzelne Tests, und das Ergebnis war ungefähr 50/50. Bevor jetzt die 0,6 auftaucht: Es waren weniger richtige als falsche Ergebnisse dabei. Und da jetzt der Testballon 'Der Test war unseriös' aufgeblasen wird: Warum? Die Testpersonen waren mit dem Verfahren alle einverstanden, wenn ich mich recht erinnere, war Jakob damals noch im Hifi-Forum aktiv, und hat selbst daran mitgearbeitet. Und bevor der Testballon 'Detmolder Kabeltest' aufgeblasen wird: Es ist schön, einfach mal zu schreiben, er wäre unseriös, ohne überhaupt zu schreiben, warum er es ist, bzw. wo man etwas darüber überhaupt finden kann. Der Münchner-Kabeltest (bw. die Nachbearbeitung) findet sich übrigens hier:http://www.hifi-forum.de/index.php?action=browseT&forum_id=18&thread=315&z=0#0 Ich fühle mich so müde. Gruß Kobe P.S.: Ich habe mir gestern endlich mal Chandlers Welt bestellt, ich bin gespannt! Share this post Link to post
Jakob 0 Report post Posted December 30, 2005 " K. hat J. schon x-mal auf logische Fehler in seinen Argumentationsketten aufmerksam gemacht,..." Richtiger wäre, kobe hätte gedacht, es gäbe..... Erstaunlicherweise widerspräche sich Kobe in nahezu jedem zweiten Beiträg, lägen Leventhal und somit auch ich falsch. Denn, nochmals widerholt, was Leventhal schrieb, ist absolutes Statistik-Grundmaterial, und ebenso, wenn auch verkürzt, im von Kobe verlinkten Wikipedia-Artikel so geschrieben. Weshalb nun Du und/oder auch er darauf bestehen möchten, es gäbe genau dort logische Fehler, entzieht sich leider meinem Verständnis. "der gleiche Quatsch - sorry, da fällt mir wirklich kein anderer Terminus ein - nahezu 1:1 wieder aus dem Zylinder gezaubert. J. ist 1) beratungsresistent 2) impertinent 3) überempfindlich (also, wenn ich jemandem mit ad hominem Argumenten auf den Pelz rücke, hört sich das ganz anders an ;-))." Das ad hominem Argumente von sanft unterstellend bis schwer beleidigend ausfallen können, dürfte klar sein; nmE hattest Du in diesem Thread einen flammenden Beitrag eingestellt (war er an guetsel gerichtet? ), in dem Du darlegtest, weshalb ad hominem Argumentation anstelle von inhaltlicher Auseinandersetzung so beleidigend wäre. Nur ein (bemühtes) Missverständnis? Oder soll es gar nur bei genehmen Meinungen gelten? Gruss P.S. Wenn Du eigenes Nachdenken denn schon lieber durch Autoritätsgläubigkeit ersetzen möchtest- wie gross schätzt Du die Chance ein, dass das Peer-Review-Board, wie auch alle in der AES, die ihn lasen, in der Einschätzung von Leventhals Artikeln falsch lag, Kobe hingegen richtig?? Share this post Link to post
Kobe 0 Report post Posted December 30, 2005 Gude! Nun, dann wollen wir mal nachdenken. Ich schrieb folgendes: "Erst einmal ist mir oben ein Fehler unterlaufen, wenn ich zu p etwas richtig erkenne (im Sinne dieser Erkennungsrate), dann rate ich in 0,5 *(1-p) Fällen richtig, sorry, Fehler von mir." Das bedeutet, wenn ich diese Erkennungsrate, die Leventhal eingeführt hat, einsetze (ich will sie mal p nennen), dann habe ich folgende Formel p' = p + 0,5 *(1-p) für die Trefferanzahl (p' ist hier die Trefferanzahl). Vorrausgesetzt, meine Rechnung stimmt. Leventhal geht von p' = p aus, oder zumindest habe ich nichts gegenteiliges gelesen. Nun, um diese Berechnungen mal zu testen, kann man ja einfach mal Extremwerte einsetzen, und schauen was passiert. Extremwerte sind hier sicher 0 und 1, also ich erkenne nichts oder eben alles. Nehmen wir mal Leventhals Idee. Eine Erkennungswahrscheinlichkeit von 1 bedeutet, dass 100% erkannt werden. OK. Eine Erkennungswahrscheinlichkeit von 0 bedeutet, das 0% erkannt werden... Nun ja, wir wissen aber, dass eine Erkennungswahrscheinlichkeit von 0 zu 50% Treffern führt...Hm. Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch! Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden! So schlecht scheine ich ja mal gar nicht zu liegen. Warum das jetzt einem Psychologieprofessor und Tontechnikern bzw. Mitarbeitern des AES nicht aufgefallen ist... Keine Ahnung? Gruß Kobe Share this post Link to post
kestudio 4 Report post Posted December 30, 2005 wunderschön! Ich hab meins an besonders liebe Freunde verschenkt und auch gleich nachbestellt . . . :-) Share this post Link to post
Jakob 0 Report post Posted December 31, 2005 "Das bedeutet, wenn ich diese Erkennungsrate, die Leventhal eingeführt hat,...." Das ist nicht die Erkennungsrate, die Leventhal einführte... weiteres s.u. "...einsetze (ich will sie mal p nennen), dann habe ich folgende Formel p' = p + 0,5 *(1-p) für die Trefferanzahl (p' ist hier die Trefferanzahl). Vorrausgesetzt, meine Rechnung stimmt. Leventhal geht von p' = p aus, oder zumindest habe ich nichts gegenteiliges gelesen. Nun, um diese Berechnungen mal zu testen, kann man ja einfach mal Extremwerte einsetzen, und schauen was passiert. Extremwerte sind hier sicher 0 und 1, also ich erkenne nichts oder eben alles. Nehmen wir mal Leventhals Idee. Eine Erkennungswahrscheinlichkeit von 1 bedeutet, dass 100% erkannt werden. OK. Eine Erkennungswahrscheinlichkeit von 0 bedeutet, das 0% erkannt werden... Nun ja, wir wissen aber, dass eine Erkennungswahrscheinlichkeit von 0 zu 50% Treffern führt...Hm." Falsche Prämissen führen zu falschen Schlussfolgerungen; wenn die Erkennungswahrscheinlichkeit (=Trefferwahrscheinlichkeit) gleich Null ist, dann werden tatsächlich Null Treffer erzielt. Eine Erkennungswahrscheinlichkeit von p=0.5 führt bei unendlicher Anzahl von Versuchen zu 50% Treffern. Zur Erinnerung, die Nullhypothese lautet p=0.5 . "Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch! Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden! Aus gutem Grund reicht es in der Mathematik nicht aus, für einige wenige Fälle einen Zufallstreffer gelandet zu haben. Setze eine Erkennungswahrscheinlichkeit von p=0.5 (entspricht reinem Raten) ein, dann ergibt Dein Ansatz p' = 0.75, erscheint Dir dies wirklich sinnvoll? Wie auch bei früheren Gelegenheiten auch, eine Erkennungswahrscheinlichkeit von p=0.6 bedeutet, dass die Erkennungswahrscheinlichkeit 0.6 beträgt, sie wird nicht noch durch Zufallstreffer verbessert. Und, genau wie auch p=0.5 für eine angenommene unendliche Anzahl von Versuchen gilt, gilt auch ein p=0.6 für eine angenommene unendliche Anzahl von Versuchen. Nimmt man kleinere Stichproben, kann es zu Abweichungen kommen, weshalb man Risikoabschätzungen mit Hilfe statistischer Betrachtungen macht. Gruss Share this post Link to post
Jakob 0 Report post Posted December 31, 2005 "Leider macht das die inhaltliche Auseinandersetzung nicht besser... Fakt ist, dass wieder der nächste Testballon aufgeblasen wurde... Jetzt geht es um ABX-Tests..." Ich kopiere, wie auch bei früheren Gelegenheiten, die ursprüngliche Quellangabe: Les Leventhal "Type 1 and Type 2 Errors in the Statistical Analysis of Listening Tests" (JAES, Vol.34 No.6) da es meist etwas schwierig ist, die AES Papers über das Netz zu erhalten- es gibt einen guten Abriß der Diskussion in der Stereophile: http://www.stereophile.com/features/141/index1.html> Magst Du nachzählen, wie oft auf der verlinkten (und nachfolgenden) Seite das Wort ABX-Test auftaucht? Wenn also der Zusammenhang mit ABX-Tests nicht klar wurde, dann mag ja eine Sprachbarriere der Grund sein, in dem Fall wäre aber ein entsprechender Hinweis deutlich hilfreicher/zielführender gewesen. "Erst einmal ist mir oben ein Fehler unterlaufen, wenn ich zu p etwas richtig erkenne (im Sinne dieser Erkennungsrate), dann rate ich in 0,5 *(1-p) Fällen richtig, sorry, Fehler von mir." Die Annahme als solche ist falsch. "Da lernt man bspw., dass man alternative Tests machen kann, wie bspw. einen Run-Test, einen Vierfelder-Test, oder einen Chi-Quadrat-Test... Das hat dann eben NICHTS mit der Erhöhung der Stichprobenanzahl zu tun." Das ist aber jetzt eindeutig ein neuer Schauplatz. Wenn ich mich recht erinnere, hatte ich auch die Quellenangaben zu weiteren Artikeln Leventhals wiederholt gepostet; u.a. zu dem Begriff SSPP (statistial significant poor performance) als möglichem Indikator für Fehler in der Testanlage; zur Anwendung weiterer Tests; der möglicherweise sinnvolleren Verwendung zweiseitiger anstelle einseitiger Tests etc. "Auch scheint sich immer noch nicht rumgesprochen zu haben, dass man die Anzahl einfach dadurch erhöhen kann, dass man alle Tests zuammenfasst." Wenn Du Tests mit 10 verschiedenen Hörern machst, und dies auch noch mit unterschiedlichen Testgegenständen, welchen Sinn ergibt dann die Zusammenfassung von Tests? Es interessiert doch, ob vielleicht/wenigstens einer von Ihnen eine von p=0.5 abweichende Trefferwahrscheinlichkeit hat. "Und auch, dass es keinen Sinn macht, auf ein willkürliches p zu testen (oder auf den Mittelwert der Stichprobe)... 0,6? Warum nicht 0,55?" Es _will_ _auch_ _keiner_ auf willkürliches p testen. Die Annahmen Leventhals zu anderen Erkennungswahrscheinlichkeiten dienen zur Berechnung möglicher Beta-Fehler, und folgt genau dem kurz angerissenen Vorgehen in dem von Dir verlinkten Wikipedia-Artikel. "Übrigens bedeutet ein 0,6, dass ich 20% richtig erkannt habe, und von den restlichen 80% die Hälfte (also 40%) richtig geraten habe." Rein interessehalber, 20 % richtig erkannt und 40 % richtig geraten, woher kommen die restlichen 40% ? "Desweiteren wird hier so getan, als hätte ich den Beta-Fehler einfach so vorliegen....." Es wird nicht so getan, als läge der Beta-Fehler einfach so vor, sondern es werden annahmen über von p=0.5 abweichende Erkennungswahrscheinlichkeiten gemacht, und für diese die sich ergebenden Beta-Fehler berechnet; getreu dem Vorgehen in dem von Dir verlinkten Wikipedia-Artikel (und auch in zahlreichen weiteren Werken zur Statistik, nur anscheinend unglücklicherweise nicht in dem von Dir bevorzugten Büning?? ) "Bevor jetzt wieder die 16 auftaucht: Wie oben geschrieben, kann man die einzelnen Stichproben zusammenfassen. Im Münchner Test waren es glaub' ich 21 Personen, also 336 einzelne Tests, und das Ergebnis war ungefähr 50/50." Ein weiteres Mal sei gesagt, nichts gegen die Vorgehensweise einzuwenden. "Bevor jetzt die 0,6 auftaucht: Es waren weniger richtige als falsche Ergebnisse dabei. Und da jetzt der Testballon 'Der Test war unseriös' aufgeblasen wird: Warum? Die Testpersonen waren mit dem Verfahren alle einverstanden, wenn ich mich recht erinnere, war Jakob damals noch im Hifi-Forum aktiv, und hat selbst daran mitgearbeitet." Das im Endeffekt ausgewählte Verfahren schlug meine Ratschläge gänzlich in den Wind; das die Testpersonen, die alle samt und sonders über _keinerlei_ Erfahrung mit Blindtests verfügten, mit den Bedingungen einverstanden waren, beruhigt nicht; hattest Du nicht zu herrliche Beispiele parat, mit Bäckern/Blumenverkäufern, und anderen, die man nicht um Rat fragen sollte? "Und bevor der Testballon 'Detmolder Kabeltest' aufgeblasen wird: Es ist schön, einfach mal zu schreiben, er wäre unseriös, ohne überhaupt zu schreiben, warum er es ist, bzw. wo man etwas darüber überhaupt finden kann." Ich habe nichts über einen angeblichen Detmolder Kabeltest geschrieben; ich habe die Detmolder Tests zu Digitalauflösungen angeführt, weil man an ihnen den immensen Aufwand erkennen kann, der notwendig ist, wenn man BT/DBTs wissenschaftlich angehen will; trotz dieses Aufwands sind selbst diese methodisch nicht einwandfrei. Gruss Share this post Link to post
Kobe 0 Report post Posted December 31, 2005 Gude! >Setze eine Erkennungswahrscheinlichkeit von p=0.5 (entspricht >reinem Raten) ein, dann ergibt Dein Ansatz p' = 0.75, >erscheint Dir dies wirklich sinnvoll? Na, was schrieb ich oben? Ich werd' mich mal selbst zitieren: >Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch! Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden!< Man sollte es zumindest versuchen zu verstehen. Ich sehe ja ein, dass Statistikkenntnisse, die aus einem Artikel mit Diskussion und Textbausteinen aus Wikipedia bestehen, wirklich nicht genügen (wobei ich über den mathematischen Teil von Wikipedia nichts sagen will - Die Artikel sind sehr gut), aber man sollte es wirklich versuchen zu verstehen. Der Rest besteht aus Textbaustein Nr. 34a, auf den gehe ich nicht ein, da mich das inzwischen langweilt. Außerdem steht weiter oben dazu schon was. Gruß Kobe Share this post Link to post
Jakob 0 Report post Posted January 2, 2006 möchtest p=0.5 lieber meiden, weil das Ergebnis nicht "ganz stimmig" ist?? "Na, was schrieb ich oben? Ich werd' mich mal selbst zitieren: Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch!..." Das "Huch" ist berechtigt, wenn bei einer angenommenen Erkennungswahrscheinlichkeit von 0 plötzlich eine von 50% herauskommt. "Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden!" Ja, p=0.5 wäre die Wahrscheinlichkeit für "Zufall" aber offenkundig wäre die Erkennungswahrscheinlichkeit dann nicht ´Null´. Spätestens hier _muss_ Dir doch eine gewisse Diskrepanz auffallen. Es handelt sich um Bernoulli-Versuche: p ist die Wahrscheinlichkeit, einen Treffer zu landen, q ist die Wahrscheinlichkeit für das Komplementärereignis mit q = 1-p . Wenn p=0.5 dann q = 0.5, Wahrscheinlichkeit für Treffer bei reinem Raten. Wenn p=0.6 dann q = 0.4, Wahrscheinlichkeit für Treffer (Erkennungswahrscheinlichkeit) liegt bei 60% und beeinhaltet tatsächlich _alle_ Treffer; richtig erkannte, richtig erratene, vom Nachbar vorgesagte, vom Versuchsleiter unbewußt verratenene usw. usw. usw. Gruss P.S. Und nein, es möchte immer noch niemand auf andere Werte von p als 0.5 testen. Es werden nur Annahmen für p gemacht, um die korrespondierenden Beta-Fehler berechnen zu können udn somit eine Grundlage für die Risikoabschätzung zu haben. Share this post Link to post
Kobe 0 Report post Posted January 2, 2006 Gude! Eine Trefferquote von 50% hat auch eine Münze - Und die hört ganz sicher keine Unterschiede. Und dass man bei einer Erkennungswahrscheinlichkeit von 0 - also 'Ich habe keine Ahnung was ich gerade höre, kreuze aber was an' - auf 50% kommt, tja... Warum geht man denn von p=0,5 aus? Hast du das immer noch nicht kapiert? In knapp 1,5 Jahren? Überfordert dich das Ganze hier nicht ein wenig? Ich werde die Frage mal mit diesem Zitat beantworten: >P.S. Und nein, es möchte immer noch niemand auf andere Werte >von p als 0.5 testen. Es werden nur Annahmen für p gemacht, um >die korrespondierenden Beta-Fehler berechnen zu können udn >somit eine Grundlage für die Risikoabschätzung zu haben. Geil... Hier möchte jemand den Beta-Fehler berechnen... Ich kann das nicht, mein Bruder kann das nicht (Studiert ebenfalls Mathe, momentan im Hauptstudium), meine Professoren konnten das nicht, und wenn ich mich hinstelle, und erzähle jemandem, dass ich das kann, dann werde ich sehr wahrscheinlich eingewiesen... Aber erzähl' mir mal, wie du das machen willst... Gruß Kobe Share this post Link to post
Jakob 0 Report post Posted January 3, 2006 "Eine Trefferquote von 50% hat auch eine Münze - Und die hört ganz sicher keine Unterschiede." Donnerwetter! Aber genau richtig- die Münze hört keine Unterschiede, erzielt aber trotzdem eine Erkennungsquote (=Trefferquote) von 50%, hat _darum_ _eine_ _Erkennungswahrscheinlichkeit_ _von_ _p=0.5_ _und_ _deshalb_ _lautet_ _die_ _Nullhypothese_ _p=0.5_ . Hätte die Münze eine Erkennungsquote (=Trefferquote) von Null, dann wäre die Erkennungswahrscheinlichkeit p=0, die Wahrscheinlichkeit für das Komplementärereignis läge bei q=1 und die Münze würde überhaupt keinen Treffer erzielen. ">>P.S. Und nein, es möchte immer noch niemand auf andere Werte >>von p als 0.5 testen. Es werden nur Annahmen für p gemacht, >um >>die korrespondierenden Beta-Fehler berechnen zu können udn >>somit eine Grundlage für die Risikoabschätzung zu haben." ">Geil... Hier möchte jemand den Beta-Fehler berechnen... Ich >kann das nicht, mein Bruder kann das nicht (Studiert ebenfalls >Mathe, momentan im Hauptstudium), meine Professoren konnten >das nicht, und wenn ich mich hinstelle, und erzähle jemandem, >dass ich das kann, dann werde ich sehr wahrscheinlich >eingewiesen... Aber erzähl' mir mal, wie du das machen >willst..." Du hast den entscheidenden Satz zitiert, aber vielleicht nicht gelesen: "Es werden nur Annahmen für p gemacht, um die korrespondierenden Beta-Fehler berechnen zu können udn somit eine Grundlage für die Risikoschätzung zu haben" Für Dich noch etwas ausführlicher; man macht, unter der Prämisse die Alternativhypothese sei wahr, Annahmen über mögliche Werte von p und berechnet mit diesen (angenommenen) Werten die für diese Fälle entstehenden Beta-Fehler. Du hattest diesen Wikipedia-Artikel verlinkt, aber vielleicht nicht gelesen: http://de.wikipedia.org/wiki/Operationscharakteristik In diesem Artikel findest Du folgenden Satz: "β hängt aber vom wahren Parameter θ1 ab und ist in aller Regel unbekannt. Man kann für eine Risikoabschätzung einer falschen Entscheidung die β-Fehler für verschiedene alternative Parameterwerte θ1 berechnen" Für Dich ausführlicher; unser Parameterwert θ1 entspricht der Erkennungswahrscheinlichkeit p. Ist p>0.5 sollte die Nullhypothese abgelehnt werden. Man (Leventhal) nimmt nun z.B. an, die wirkliche Erkennungswahrscheinlichkeit läge bei p=0.6 und kann mit diesem angenommen Parameterwert den Beta-Fehler berechnen, der entstünde, wenn dieser angenommene Parameterwert der richtige Wert für p wäre. Es ergibt sich also aus der Binomialfunktion mit p=0.6, q= 1-p = 0.4 und n=16 eine Wahrscheinlichkeitsfunktion, wenn man für x die möglichen Werte von 0 - 16 einsetzt. Nun läßt sich der Beta-Fehler berechnen. Nimmt man (Leventhal) nun als weitere Alternative an, die wirkliche Erkennungswahrscheinlichkeit läge bei p=0.7, dann ergäbe sich aus der Binomialfunktion mit p=0.7, q=1-p=0.3 und n=16 eine Wahrscheinlichkeitsfunktion, wenn man für x die möglichen Werte von 0 - 16 einsetzt. Auch für diesen Fall läßt sich nun der Beta-Fehler berechnen. Als weitere Alternativen wählte Leventhal p=0.8 und p=0.9 . Gruß Share this post Link to post
Kobe 0 Report post Posted January 3, 2006 Gude! >Hätte die Münze eine Erkennungsquote (=Trefferquote) von Null, dann wäre die Erkennungswahrscheinlichkeit p=0, die Wahrscheinlichkeit für das Komplementärereignis läge bei q=1 und die Münze würde überhaupt keinen Treffer erzielen.< Wie kann etwas, dass sicher nicht in der Lage ist, einen Unterschied zu hören, eine Erkennungswahrscheinlichkeit besitzen? Ist das nicht vielleicht doch 'Zufall'? Sollte man nicht versuchen, zwischen Erkennungswahrscheinlichkeit und Zufall zu unterscheiden? Würde das nicht vielleicht doch einen Sinn ergeben? "β hängt aber vom wahren Parameter θ1 ab und ist in aller Regel unbekannt." >Für Dich noch etwas ausführlicher; man macht, unter der >Prämisse die Alternativhypothese sei wahr, Annahmen über >mögliche Werte von p und berechnet mit diesen (angenommenen) >Werten die für diese Fälle entstehenden Beta-Fehler. Aha... Kapierst du, was da steht? "ist in aller Regel unbekannt" - Soll ich's noch mal schreiben? "ist in aller Regel unbekannt" - du und dieser andere Pausenclown rechnet mit irgendwelche hypothetischen Zahlenwerten - Das muss eine wissenschaftliche Betrachtung sein. Kapierst du eigentlich irgendwas von diesem 'Betafehler'? Und: Welchen soll ich jetzt nehmen? Darf ich mir einen Aussuchen? Ich nehme den für 0,75. Oder, nee, 0,834323. Oder doch 0,4678762? Oder??? Hast du eine Ahnung, was du hier eigentlich berechnet? >"Es werden nur Annahmen für p gemacht, um die >korrespondierenden Beta-Fehler berechnen zu können und somit >eine Grundlage für die Risikoschätzung zu haben" Das macht man mit der Gütefunktion. Hab' ich vor ca. 1,5 Jahren schon mal geschrieben, aber, naja: Wann kapierst du das? Kapierst du eigentlich hier irgendwas? Kannst du auf dem Gebiet der W&S überhaupt irgendwas? Mal 'nen dummen Wert berechnen? Sowas bspw.: >Es ergibt sich also aus der Binomialfunktion mit p=0.6, q= 1-p >= 0.4 und n=16 eine Wahrscheinlichkeitsfunktion, wenn man für >x die möglichen Werte von 0 - 16 einsetzt. >Nimmt man (Leventhal) nun als weitere Alternative an, die >wirkliche Erkennungswahrscheinlichkeit läge bei p=0.7, dann >ergäbe sich aus der Binomialfunktion mit p=0.7, q=1-p=0.3 und >n=16 eine Wahrscheinlichkeitsfunktion, wenn man für x die >möglichen Werte von 0 - 16 einsetzt. Mal NICHT mittels Copy&Paste was 'schreiben'? Mal einen Satz selbst schreiben, der nicht abgeschrieben, banal oder grotenschlecht falsch ist? Geht hier irgendwas, oder verschwende ich meine Zeit? Sollte man nicht besser im Forum sammeln, um dir ein Mathebuch zu schenken? Rob gibt sicher auch noch 'nen 5er zu. Fragen... Kobe Share this post Link to post
Jakob 0 Report post Posted January 3, 2006 "Wie kann etwas, dass sicher nicht in der Lage ist, einen Unterschied zu hören, eine Erkennungswahrscheinlichkeit besitzen? Ist das nicht vielleicht doch 'Zufall'? Sollte man nicht versuchen, zwischen Erkennungswahrscheinlichkeit und Zufall zu unterscheiden? Würde das nicht vielleicht doch einen Sinn ergeben?" Den semantischen Ansatz in allen Ehren; Du darfst Dir genehmere Begriffe wählen, solange Du fürderhin die Zahlenwerte nicht mehr durcheinander bringst. Bernoulli Tests sind Versuche mit dichotomem Ausgang; Treffer/nicht Treffer; Richtig/falsch etc. etc. Das heißt, im Zufallsfalle ist die Wahrscheinlichkeit für einen Treffer p=0.5, und die Wahrscheinlichkeit für das Komplementärereignis "Nichtreffer" ist q=0.5 , also sind beide Wahrscheinlichkeiten gleich gross. Wolltest Du in Deinem Ansatz die Erkennungswahrscheinlichkeit für "Zufallstrefferquote" mit Null ansetzen, bräuchtest Du für den Fall des zu 100% wahrscheinlichen Komplementärereignisses (Nichttreffer, q=1) bereits negative Erkennungswahrscheinlichkeiten. "Aha... Kapierst du, was da steht? "ist in aller Regel unbekannt" - Soll ich's noch mal schreiben? "ist in aller Regel unbekannt" - du und dieser andere Pausenclown rechnet mit irgendwelche hypothetischen Zahlenwerten - Das muss eine wissenschaftliche Betrachtung sein." Hattest Du absichtlich vergessen, den folgenden zweiten Satz des Wikipedia-Artikels zu zitieren?? Der Vollständigkeit halber sei er hier Für Dich wiederholt: "Man kann für eine Risikoabschätzung einer falschen Entscheidung die β-Fehler für verschiedene alternative Parameterwerte θ1 berechnen." Genau das machte Leventhal (der andere Pausenclown ) , er berechnete Beta-Fehler für alternative Parameterwerte von p, um eine Grundlage für eine Risikoabschätzung zu schaffen. "Kapierst du eigentlich irgendwas von diesem 'Betafehler'? Und: Welchen soll ich jetzt nehmen? Darf ich mir einen Aussuchen?" _Du_ darfst Dir sogar einen mit nach Hause nehmen. Jeder andere würde anhand der berechneten Beta-Fehler eine Risikoabschätzung bezüglich des Tests machen. Z.B. hinsichtlich der sinnvollen Stichprobengröße. Soll heißen, welchen möglichen Beta-Fehler er als Testveranstalter/Testperson bereit ist, zu akzeptieren. ">>"Es werden nur Annahmen für p gemacht, um die >>korrespondierenden Beta-Fehler berechnen zu können und somit >>eine Grundlage für die Risikoschätzung zu haben" >Das macht man mit der Gütefunktion. Hab' ich vor ca. 1,5 >Jahren schon mal geschrieben, aber, naja: Wann kapierst du >das?" Ich fand schon vor 1,5 Jahren faszinierend, dass Du nicht bemerkt hast, das dies _genau_ _das_ _gleiche_ ist. Weshalb das gleiche? Weil: β = f(θ1) ist und die Gütefunktion GF(θ1)=1-β . D.h., Du behauptest, eine Risikoabschätzung mit Hilfe der oben skizzierten Beta-Fehler-Berechnung sei vollkommen unsinnig/unmöglich, die Risikoabschätzung muss man mit GF=1-β erledigen. :) Gruß P.S. Sollte Robeuten bei der von Dir verfassten "Halbstarkenprosa" immer noch keine Bedenken haben, braucht er das Geld dringend für die Statistikfortbildung seiner Kollegen. Share this post Link to post
Kobe 0 Report post Posted January 3, 2006 Gude! >Das heißt, im Zufallsfalle ist die Wahrscheinlichkeit für einen Treffer p=0.5, und die Wahrscheinlichkeit für das Komplementärereignis "Nichtreffer" ist q=0.5 , also sind beide Wahrscheinlichkeiten gleich gross. Wolltest Du in Deinem Ansatz die Erkennungswahrscheinlichkeit für "Zufallstrefferquote" mit Null ansetzen, bräuchtest Du für den Fall des zu 100% wahrscheinlichen Komplementärereignisses (Nichttreffer, q=1) bereits negative Erkennungswahrscheinlichkeiten.< Ach? Du willst beim Münzwurf eine 100prozentige Wahrscheinlichkeit (also das sichere Ereignis) für das Komplementärereignis von 'Kopf' (oder alternativ 'Zahl')? Häää? Und das soll ein Zufallstreffer sein? Bist du jetzt völlig verblödet? Allem Anschein nach ja, ich weigere mich, an dieser Stelle mit solchen Dummschwätzern zu diskutieren. Kobe Edit: Falls noch jemand mitlesen sollte: Das Komplementärereignis lässt sich eben NICHT so berechnen, wie von J. 'gefordert'. Um's mal mit einem Gegenbeispiel klarzumachen: Ich werfe 2 Münzen, und fordere 2* 'Kopf', berechnet wird das mit 1/2 * 1/2 = 1/4. Das Komplementärereignis ist: NICHT 2*Kopf, und hat die Wahrscheinlichkeit 1 - W(2*Kopf) = 0,75 (W für Wahrscheinlichkeit). Würde ich die einzelnen Wahrscheinlichkeiten des jeweiligen Komplementärereignis 'NICHT Kopf' = 0,5 einsetzen, bekäme ich aber (1-1/2)*(1-1/2) = 1/4. Das ist die Wahrscheinlichkeit für 2 * 'NICHT Kopf' = 2 * 'Zahl'. Aber dies ist eben nicht die Wahrscheinlichkeit für NICHT 2*Kopf - Die Aussagen klingen ähnlich, sind es aber nicht. 'NICHT 2*Kopf' beinhaltet ja auch die Ereignisse Kopf und Zahl gemischt, die 2 mal auftreten können. Das zu verstehen ist Elementar und bekommt man so ziemlich in der 1. Stunde einer W&S-Vorlesung (oder vergleichbarem) erzählt... Wenn jemand das aber schon nicht kapiert hat... Nee. Kobe Share this post Link to post
Jakob 0 Report post Posted January 3, 2006 mit Dir?? Ich beginne, mir ernsthaft Sorgen zu machen. "Ach? Du willst beim Münzwurf eine 100prozentige Wahrscheinlichkeit (also das sichere Ereignis) für das Komplementärereignis von 'Kopf' (oder alternativ 'Zahl')? Häää? Und das soll ein Zufallstreffer sein? Bist du jetzt völlig verblödet? Allem Anschein nach ja, ich weigere mich, an dieser Stelle mit solchen Dummschwätzern zu diskutieren." Dieses Interpretationsausstiegsmanöver erscheint mir nun arg durchsichtig; solltest Du aufgrund meines Beitrages Deine Interpretation wirklich für plausibel halten, gäbe es für die "Verblödungsfrage" sicher einen geeigneteren Adressaten. Deine Idee war, man solle zwischen "Erkennungswahrscheinlichkeit" und "Zufalltrefferquote" unterscheiden, weil Dir eine "Erkennungsquote" von p=0.5 nicht gefiel. Du hattest einen ganz "eigenen" Ansatz. Zitat Kobe: "p' = p + 0,5 *(1-p)" und "Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch! Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden!" Somit haben wir nach Deiner Idee also: p' = 1 für p = 1 p' = 0.5 für p = 0 p' = 0 für p = ?? Welchen Wert schlägst Du für p in diesem Fall vor, um auf ein p'=0 zu kommen? Gruss Share this post Link to post
Jakob 0 Report post Posted January 3, 2006 sich die Sorgen zusehends. "Edit: Falls noch jemand mitlesen sollte: Das Komplementärereignis lässt sich eben NICHT so berechnen, wie von J. 'gefordert'. Um's mal mit einem Gegenbeispiel klarzumachen: Ich werfe 2 Münzen, und fordere 2* 'Kopf', berechnet wird das mit 1/2 * 1/2 = 1/4. Das Komplementärereignis ist: NICHT 2*Kopf, und hat die Wahrscheinlichkeit 1 - W(2*Kopf) = 0,75 (W für Wahrscheinlichkeit). Würde ich die einzelnen Wahrscheinlichkeiten des jeweiligen Komplementärereignis 'NICHT Kopf' = 0,5 einsetzen, bekäme ich aber (1-1/2)*(1-1/2) = 1/4. Das ist die Wahrscheinlichkeit für 2 * 'NICHT Kopf' = 2 * 'Zahl'. Aber dies ist eben nicht die Wahrscheinlichkeit für NICHT 2*Kopf - Die Aussagen klingen ähnlich, sind es aber nicht. 'NICHT 2*Kopf' beinhaltet ja auch die Ereignisse Kopf und Zahl gemischt, die 2 mal auftreten können. Das zu verstehen ist Elementar und bekommt man so ziemlich in der 1. Stunde einer W&S-Vorlesung (oder vergleichbarem) erzählt... Wenn jemand das aber schon nicht kapiert hat... Nee." Du verwechselst hier die Berechnung von Wahrscheinlichkeiten für das Auftreten von Elementarereignissen resp. zusammengesetzten Ereignissen mit der Berechnung von Grundwahrscheinlichkeiten für das Auftreten von Erfolg oder Mißerfolg bei jedem unabhängigen Bernoulli-Versuch. Bitte lies einmal http://de.wikipedia.org/wiki/Bernoulli-Versuch Zitat von dieser Seite: "Ein Bernoulli-Prozess ist ein zeitlich diskreter stochastischer Prozess, der aus einer endlichen oder abzählbar-unendlichen Folge von Bernoulli-Versuchen besteht. Er kann durch eine Folge von Zufallsvariablen X1, X2, X3,..., beschrieben werden, deren jede mit der konstanten Wahrscheinlichkeit p den Wert X=1 (Erfolg) und mit der Wahrscheinlichkeit q=1-p den Wert X=0 (Misserfolg) annimmt." Die Seite hält noch zwei Beispiel parat: -) Fairer Wurf einer Münze mit p=q=0,5. -) Werfen eines Würfels, wobei nur eine „6“ als Erfolg gewertet wird: p=1/6, q=5/6. Zur Erläuterung für Dich; im Falle des Würfelwurfs beträgt die Wahrscheinlichkeit für den Wurf einer "6" (Erfolg) bei jedem Versuch p=1/6, die Wahrscheinlichkeit für das Eintreten des Komplementärereignisses "Nichtsechs" (Misserfolg) bei jedem Versuch beträgt q=1-p=1-1/6=5/6 . Analog dazu das von mir angesprochene Vorgehen für die Erkennungswahrscheinlichkeit im Sinne von Leventhal. Die Wahrscheinlichkeit für einen "Treffer" (Erfolg) bei jedem Versuch kann z.B. p=0.6 betragen, dann beträgt die Wahrscheinlichkeit für das Eintreten des Komplementärereignisses "Nichttreffer" (Misserfolg) bei jedem Versuch q=1-p=1-0.6=0.4 . Du magst das Verwechseln, aber bitte versuche nicht, es mir in die Schuhe zu schieben. Ansonsten schlage ich vor, Du belegst es mit einem Zitat und bitte diesmal ohne eigenwillige Interpretationsversuche Deinerseits. Gruß Share this post Link to post
Kobe 0 Report post Posted January 4, 2006 Gaaanz, gaaanz, langsam... 1. Wahrscheinlichkeitstheoretische und statistische Grundbegriffe 1.1. Kolmogorowsche Axiome (1) 0<= P(A) <= 1 (Die Wahrscheinlichkeit eines Ereignisses liegt zwischen 0 und 1.) (2) P(E) = 1 (Die Wahrscheinlichkeit des 'Sicheren Ereignisses' ist 1.) (3) (ohne Fomel, da hier schlecht darstellbar: Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse.) Daraus folgt direkt (1. Folgerung durch einen Beweis; die anderen 3 sind Axiome): (4) P(NICHT A) = 1 - P(A) und NICHT P(1 - A)... Der Punkt wird in der Literatur WIRKLICH als (4) abgehandelt, es ist also die ERSTE Folgerung in dieser ganzen Wissenschaft... Und ich 'diskutiere' mit einem Tölpel, der DAS NICHT versteht... HILFE!!! Zudem ist die WAHRSCHEINLICHKEIT für ein EREIGNIS i.d.R. NICHT eine/die elementare WAHRSCHEINLICHKEIT, die ich einsetze, um die Wahrscheinlichkeit für ein Ereignis zu berechnen - Dementsprechend gilt der Umkehrschluß erst recht nicht - Es mag bei elementaren Zufallsereignissen (Würfel, Münze, Roulette) Ausnahmen geben. Mann, wenn du selbst dazu zu dumm bist, dann geh' bei den dicken Bär in's Deppen-Forum, für den langt's vielleicht. Die Nummer, die du hier abziehst, ist nur lächerlich - oder du bist wirklich Saudumm. Kobe Share this post Link to post
Jakob 0 Report post Posted January 4, 2006 das Deine Behauptung belegt, ich hätte etwas geschrieben, daß den von Dir hier aufgeführten 4 Punkten widerspricht. Gaaanz, gaaanz, langsam solltest Du ein solches Zitat beibringen können und dieses sollte das behauptete vollkommen ohne eigenwillige "Kobesche Interpretationskapriolen" belegen können. " >1. Wahrscheinlichkeitstheoretische und statistische >Grundbegriffe >1.1. Kolmogorowsche Axiome > >(1) 0<= P(A) <= 1 >(Die Wahrscheinlichkeit eines Ereignisses liegt zwischen 0 und >1.)" Deshalb fragte ich Dich nach einem weiteren Wert für das von Dir eingeführte p' ; ich kopiere Dir nochmals die entsprechende Passage aus #117: "Du hattest einen ganz "eigenen" Ansatz. Zitat Kobe: "p' = p + 0,5 *(1-p)" und "Nehmen wir mal meine Formel, und setzen zuerst die 1 ein - Wir kommen auf 100% Treffer. Soweit schon mal ganz gut. Setzten wir die 0 ein (also eine Erkennungswahrscheinlichkeit von 0) dann kommen wir auf 50%... Huch! Genau die Wahrscheinlichkeit für 'Zufall' bzw. dass, was wir in diesem Fall erwarten würden!" Somit haben wir nach Deiner Idee also: p' = 1 für p = 1 p' = 0.5 für p = 0 p' = 0 für p = ?? Welchen Wert schlägst Du für p in diesem Fall vor, um auf ein p'=0 zu kommen?" "(2) P(E) = 1 >(Die Wahrscheinlichkeit des 'Sicheren Ereignisses' ist 1.) >(3) (ohne Fomel, da hier schlecht darstellbar: Die >Wahrscheinlichkeit einer Vereinigung abzählbar vieler >inkompatibler Ereignisse entspricht der Summe der >Wahrscheinlichkeiten der einzelnen Ereignisse.) > >Daraus folgt direkt (1. Folgerung durch einen Beweis; die >anderen 3 sind Axiome): >(4) P(NICHT A) = 1 - P(A) >und NICHT P(1 - A)..." > >Der Punkt wird in der Literatur WIRKLICH als (4) abgehandelt, >es ist also die ERSTE Folgerung in dieser ganzen >Wissenschaft... Und ich 'diskutiere' mit einem Tölpel, der DAS >NICHT versteht... HILFE!!!" Kobe leidest Du unter einer Wahrnehmungsstörung? (keine Spassfrage, auch nicht als unterschwellige Beleidigung gemeint), denn ich schrieb z.B. in#117: "....im Falle des Würfelwurfs beträgt die Wahrscheinlichkeit für den Wurf einer "6" (Erfolg) bei jedem Versuch p=1/6, die Wahrscheinlichkeit für das Eintreten des Komplementärereignisses "Nichtsechs" (Misserfolg) bei jedem Versuch beträgt q=1-p=1-1/6=5/6 ." d.h. mit p=P(A) und q=P(NICHT A) folgt P(NICHT A)=1-P(A), erkennst Du es wieder?? "Analog dazu das von mir angesprochene Vorgehen für die Erkennungswahrscheinlichkeit im Sinne von Leventhal. Die Wahrscheinlichkeit für einen "Treffer" (Erfolg) bei jedem Versuch kann z.B. p=0.6 betragen, dann beträgt die Wahrscheinlichkeit für das Eintreten des Komplementärereignisses "Nichttreffer" (Misserfolg) bei jedem Versuch q=1-p=1-0.6=0.4 ." In Beitrag #113 schrieb ich z.B. : "Hätte die Münze eine Erkennungsquote (=Trefferquote) von Null, dann wäre die Erkennungswahrscheinlichkeit p=0, die Wahrscheinlichkeit für das Komplementärereignis läge bei q=1 und die Münze würde überhaupt keinen Treffer erzielen." Du siehst mit p=P(A)=0 folgt q=P(NICHT A)=1-P(A)=1-p=1-0=1 erkennst Du es wieder? ">Zudem ist die WAHRSCHEINLICHKEIT für ein EREIGNIS i.d.R. NICHT >eine/die elementare WAHRSCHEINLICHKEIT, die ich einsetze, um >die Wahrscheinlichkeit für ein Ereignis zu berechnen - >Dementsprechend gilt der Umkehrschluß erst recht nicht - Es >mag bei elementaren Zufallsereignissen (Würfel, Münze, >Roulette) Ausnahmen geben." Mal abgesehen von der interessanten Formulierung, hatte ich irgendwo etwas anderes behauptet? >Mann, wenn du selbst dazu zu dumm bist, dann geh' bei den >dicken Bär in's Deppen-Forum, für den langt's vielleicht. Die >Nummer, die du hier abziehst, ist nur lächerlich - oder du >bist wirklich Saudumm. Wie gesagt, "Halbstarkenprosa" . Gruss Share this post Link to post
Tonal 0 Report post Posted January 7, 2006 Möglicherweise Eintrittskarte in einen besonderen Highend-Club in dessen Kleiderordnung das dauerhafte Tragen von Westen, die den Gebrauch von Armen und Händen vollkommen einschränkt, zwingend vorgeschieben ist....? ...schaut mal hier ("durchdrehen inclusive") eine sehr nüchterne, emotionslose Beschreibung...tztztz...: http://64.233.183.104/search?q=cache:1VntP...l=de&lr=lang_de "Emitterfan - 10.08.2005, 09:52 Uhr Kabelsensation - Audio Redakteure aufgepaßt! Guten Tag, ich experimentiere ja schon seit vielen Jahren mit Kabeln herum. Durch Zufall entdeckte ich nunmehr die handgefertigten Kabel von Cosmic Audio, allem voran das S Klasse Chichkabel mit 2 Reinsilberleitern. Das hat eine unglaubliche Auswirkung auf meine Anlagen gehabt, ich habe darüber einen ausführlichen Test geschrieben unter folgendem Link: http://groups.msn.com/ASREmitterUniversum/...okabeltest.msnw Inzwischen habe ich es einem ZDF Mitarbeiter (Physiker und Informatiker)(Herr Dietewich) vorgeführt, der eigentlich nicht an Kabelklang glaubt, dieser meinte, die Verwendung des 298 Euro Kabels in seiner Kette brachte einen zehnmal größeren Fortschritt, als sein vorhergehender Wechsel von einem 1800 Euro Studiomonitor auf einen 12.000 Euro Lautsprecher. Ich habe so was vorher auch noch nie erlebt und nicht für möglich gehalten, zumal ich ein Großteil der Stereoplay Referenzen kenne oder gar selbst hatte! Das Cosmic S-Kabel sollte unbedingt mal getestet werden! Es würde mit Sicherheit alle Referenzen der Zeitschriften für 298 bezahlbare Euro vom Thron wegfegen. Da hat auch kein 3.000 Euro Kabel den blassesten Hauch einer Chance. Falls ein Redakteur dies liest, er kann mich gerne kontakten unter: headbanger777@onlinehome.de Ich unterhalte ein eigenes Hifi Forum im Internet und die ersten Leute, die das testeten sind schier in Ohnmacht gefallen. Das ist wie wenn man eine ganze Reihe von Wandteppichen vor den Lautsprechern wegzieht. Eine Informationsflut, die einen erschlägt!Und trotzdem nicht harsch oder schrill und weiter wunderbar knorrige und abgrundtiefe Bässe. Egal ob mit Teac P 70 D 70 oder mit Cayin Röhren CD Player CD 17 - ist wie eine Atombombe des Wohlklanges. Mit diesem Kabel spielte mein 200 Euro Panasonic DVD Player meine 15.500 Euro Kombi (die nur an normalen Silberkabel der 1000 Euro Klasse hängt) in Grund und Boden! Und der 15.500 Euro Teac hebt mit dem S Kabel dermaßen ab, daß man fast am Durchdrehen ist vor Glück! Das muß einfach bekannt gemacht werden. Die Firma heißt Cosmic Audio, Inh.Thomas Brefeld, mail: support@cosmic-audio.com Achtung - dies ist kein Scherz und ich habe mit dieser Firma nichts zu tun, bin normaler Endverbraucher und schreibe nicht unter Pseudonym! Ich muß das einfach rausschreien! Ich war außer vom ASR Emitter bisher von keinem Produkt derart beeindruckt! Herr Brefeld verleiht diese Kabel auch an Kaufinteressenten (mir jedenfalls hat er es geliehen und meinem Händler, der alles andere sicher aus dem Programm schmeißen wird ebenso)- das ist kein Katze im Sack schießen! Liebe Grüße und frohes Testen!!! Werner PS: Demnächst teste ich auch ein neues Lautsprecherkael von Herrn Brefeld, wenn das auch so gut ist, dann werde ich an alle Zeitschriften mal einen großen Brief in puncto Kabel schreiben, oder mich ins Auto setzen und das mal einem Redakteur in seine Anlage stecken, das glaubt einem eh kein Mensch !!!!!!!!!!!!!!! " Share this post Link to post
Jakob 0 Report post Posted January 8, 2006 Kobe den Nachweis des so kühn behaupteten nicht so recht antreten. So oder so ist aber an der Zeit, dem "unwürdigen Schauspiel" ein Ende zu bereiten. Vielleicht noch ein paar Gedanken zu Grundsätzlichem; wenn man die Axiome von Kolmogorov bemüht, darf man sich nicht dagegen sperren, daß es keine negativen Wahrscheinlichkeiten gibt. Deshalb verbietet sich Kobes Ansatz mit "p' = p + 0.5*(1-p)" Weiter kann man sich ebenfalls nicht dagegen sperren, daß eine "faire Münze" eine Erkennungswahrscheinlichkeit (=Trefferwahrscheinlichkeit) von 0.5 besitzt, denn daraus folgt gleichzeitig, daß diese Münze eine Misserfolgswahrscheinlichkeit von ebenfalls 0.5 besitzt. Da wir bei dem statistischen Test prüfen, ob ein Ergebnis auch hätte durch reines Raten erzielt werden können, prüfen wir die Nullhypothese p=0.5 . Für die Alternativhypothese ergeben sich zwei Möglichkeiten, sie kann zweiseitig sein, d.h. p ungleich 0.5, oder wie in den von Leventhal analysierten ABX-Versuchen, einseitig interessierend, d.h. p>0.5 . (Man kann vortrefflich darüber diskutieren, ob eine zweiseitige Alternativhypothese nicht sinnvoller sei, Leventhal schrieb dazu auch noch etwas) Wenn die Alternativhypothese nun p>0.5, dann folgt, unter der Prämisse, die Alternativhypothese sei wahr, daß p im Intervall >0.5 und <=1 liegt. Und genau aus diesem Bereich wählte Leventhal deshalb folgerichtig die Alternativwerte, um mögliche Fehler 2.Art berechnen zu können. Denn über den Fehler 2.Art kann man eine Risikoabschätzung machen und unter anderem eine sinnvolle Anzahl von Versuchen festlegen. Der aus dieser Berechnung folgende Vorwurf, die üblichen ABX-Tests mit n=16 legten einseitig ihr Augenmerk auf die Verringerung des Alpha-Fehlers ist ein rein statistisches; ein Ansatz, das p von Leventhal sei gar nicht das "richtige" p entbehrt jeglicher logischen Grundlage, denn die einzige Bedingung, die man an p stellen kann, ist eben, daß es >0.5 und <=1 zu sein habe. An diesem rein statistischen Argument kann man nichts aussetzen, welche Schlußfolgerungen sich daraus für die Praxis ergeben können, ist dann wieder etwas anderes. Ein möglicher Fallstrick liegt, darin, daß bei "ausreichend" großen Stichproben, selbst sehr kleine, für die Praxis irrelevante, Unterschiede signifikant werden. Hier gilt es, eine sinnvolle Abwägung zu treffen. Leventhal wies auch schon darauf hin, daß bei guter Erkennungswahrscheinlichkeit (p=0.9), bereits 16 Versuche unnötiger Aufwand seien, man sich lieber auf 10 beschränken könnte. Die sinnvollste Schlußfolgerung scheint mir, dafür zu sorgen, daß Testpersonen möglichst auch unter Testbedingungen zu hohen Erkennungswahrscheinlichkeiten kommen können. Eine Komponenete dabei wäre die Verwendung von Triple-Blind-Tests, um einen weiteren Teil der Erwartungshaltung auszublenden; eine weitere Komponente bestünde in einer Art Trainingsprogramm für Testpersonen, denn seit Olive gibt es deutliche Hinweise, daß Training selbst bei relativ großen Unterschieden (zwischen Lautsprechern) "segensreiche" Auswirkungen hat. Gruss P.S. Der von Leventhal verwendete Ansatz ist, wie schon häufiger erwähnt, absolutes Statistik-Grundwissen; Quellen wären nicht nur die bereits verlinkten Wikipedia-Seiten, sondern auch jedes zweite Statistikbuch, Uniskript etc. etc. . Leider wird nicht in jedem Text explizit erklärt, wie ein entsprechender Schritt auszusehen habe, die häufig verwendete Formulierung "eine Abschätzung der notwendigen Stichprobengröße erfolgt über die Gütefunktion" überfordert manchen wegen der notwendigen Transferleistung. Umso grotesker mutet die seit Jahren fortwährende, unerquickliche Diskussion über diese Grundlagen an. Share this post Link to post
kestudio 4 Report post Posted January 8, 2006 ausgesprochen treffend fand ich folgende Antwort auf Deinen zitierten Beitrag: "Bezüglich cosmic-audio.com bleibt zu hoffen daß deren Kabel besser als ihre Webperformance sind ." Da kann ich unbedingt nur zustimmen. Die Aufmachung der Kabeldarstellung sieht aus, als käme das Zeugs aus der hinterletzten chinesischen Garagenschmiede. Ich kenn das von Kameras her - die bauen da teilweise supergutes Zeug für vergleichsweise sehr wenig Geld. Aus dem vollen Alu-Block gefräste Gehäuse, die zwar nicht übermäßig ästhetisch und ausgefeilt verarbeitet sind, aber perfekt ihren Zweck erfüllen und in der gleiche Funktionalität von Linhof, Alpa, Cambo oder Horseman das 6-8-Fache kosten. Dann gibt es clevere Vertriebe, die sich solche Teile in kleinen Mengen sichern, eine Kamera für ca. 1000€ (inkl. Transport und Steuern) einkaufen und hier für 3500€ anbieten. Als "Superschnäppchen" - was insofern zutrifft, als die Kamera identischer Funktion und Leistung (die Objektive muß der Käufer eh selber dazutun) bei "angesagten" Herstellern ca. 5-7000€ kostet . . . Gemessen am Einkaufspreis besagter Vertriebe kann man sich da den Verdienst vorstellen. Wenn die Käufer nicht selbst auf die Idee kommen, auf ebay nach den Teilen zu suchen . . . ;-) Ich denke, daß Ähnliches auch auf dem Kabelsektor geschieht. Share this post Link to post
livemusic 0 Report post Posted January 8, 2006 ...kann man für diesen Werner...allein schon wegen der Emitter-Ergüsse ist auch ein Top-Zuschlag in jedweder Höhe mehr als gerechtfertigt...:7 Unser TCM-Küchenradio (Tschibo ) spielt schliesslich mindestens auf ASR-Niveau !!! Share this post Link to post
kestudio 4 Report post Posted January 8, 2006 Leo - solche großmäuligen Sprüche sind auch nicht intelligenter und könnten sich als Bumerang herausstellen, wenn man als Antwort darauf mal wieder auf diese komischen französischen Brüllwürfel abzuheben gewillt wäre . . . . . :-) Share this post Link to post