Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
hannilein

Und Voodoo existiert doch

Recommended Posts

Gude!

 

Naja, ich will's mal so schreiben:

Ich hatte mich dazu geäußert, dass der Fehler 2. Art m.E. egal ist, wenn wir auf p=0,5 oder p=1 testen und die Stichprobe genügend groß ist (genaueres weiter oben; Beitrag 193).

Ich bezug mich im weiteren darauf, was dann der Fehler 2. Art bedeutet.

Nämlich bei p=1, dass die Techniker benachteiligt werden, was aber egal ist, da dann p* nahe genug bei 1 liegt, die Unterscheidbarkeit (also p*>0,5) begründet ist.

Und das, wenn bei einem Test auf p=0,5 und p* etwas größer als 0,5, zwar ein Fehler 2. Art vorliegt, dass aber dann der Aufwand der Mittel in keinem Verhältnis zum Nutzen liegt, zudem sich dies mit den Erkenntnissen der restlichen Wissenschaftswelt deckt, und auch im Gegensatz zu Aussagen der Testpersonen liegt (und die schreiben schon, man kann das mit einer Mittelohrentzündung unterscheiden; und vielleicht gibt's ja wirklich Goldöhrchen?).

Du hattest meine Ansichten zu p* ungefähr 0,5 kritisiert, also gehe ich davon aus, dass du weiterhin davon schreibst... Oder kriegst du dein eigenes Springen nicht mehr gebacken?

Fakt (und Banal) ist, dass ich zu jedem p bei beliebigem Beta ein p* berechnen kann, es liegt halt bei steigendem n immer näher an p...

Ich schrieb was von 0,55 oder 0,6; dass sind Werte, bei denen der Fehler 1. Art schon greifen müsste (zudem man ja noch auf Runs testen kann), auf jeden Fall schreit das nach weiteren Tests. Sowas wird übrigens empfohlen, und kein blödsinngerechne mit fiktiven Betas.

Und Beta ist für mich einfach eine Variable, die nicht mal fest ist (da nicht bekannt). Und dann wird das Beta auch nur unwesentlich kleiner, wenn p* nahe genug bei 0,5 liegt (was ja oben angenommen wurde), auf jeden Fall nicht so klein, dass ich es mal locker verwerfen könnte.

Ich rede auch nicht von einem Stichprobenumfang von 16 oder so, ich gehe von einer Stichprobe aus, mit der man arbeiten kann (mindestens 50-100; das ist von einer Gruppe von Leuten ja zu realisieren), und: Ja ich habe Leventhals Zahlen auch gelesen und verstanden, dass es mit 16 nix bis wenig bringt. Übrigens hattest du mal 16 Stück in den Raum geworfen, ich kann mich aber nicht daran erinnern, das gesagt zu haben: http://www.audiomap.de/forum/index.php/az/...id/17930/page/2

 

>>Und ich werde jetzt Trancemeister nicht fragen, was er wann

>zu

>>MP3s gesagt hat...

>Selbstschutz ist ein nachvollziehbares Ansinnen. :)

 

Das ist deine Aussage, die mußt du schon selbst belegen.

Ich habe das Frauenhofer zitiert.

 

Kobe

Diesen Beitrag teilen


Link zum Beitrag

Auch bei längerem nachdenken über den Blindtest verfalle ich in keine Lebenskrise. Ich sehe keine schrecklichen Auswirkungen auf meine Entscheidungspraxis.

 

Richtig, reproduzierbare experimentelle Beobachtungen haben in der Geschichte häufig viel bewegt. Da jedoch noch niemand bei Magnetisierern eine Wirkung beobachten konnte, weder gemessen, noch mit seinem Gehör (Leute die es nur hören können solange es keiner nachprüft helfen leider nicht weiter, so etwas hat übrigens auch in der Wissenschaftsgeschichte noch nie etwas bewegt) gab es noch keine tiefergehenden Untersuchungen.

Diesen Beitrag teilen


Link zum Beitrag

Naja, man könnts auch so schreiben; wir sind uns jetzt ganz offiziell einig, daß Leventhals Artikel berechtigt war und seine Ausführungen und die Schlußfolgerung korrekt.

Woraus dann tatsächlich folgt, daß wir eine erschreckende Menge an Beiträgen völlig überflüssigerweise ausgetauscht haben; von einem gewissen Unterhaltungswert einmal abgesehen. ;)

 

>Du hattest meine Ansichten zu p* ungefähr 0,5 kritisiert, also

>gehe ich davon aus, dass du weiterhin davon schreibst... Oder

>kriegst du dein eigenes Springen nicht mehr gebacken?

 

Trotz erkennbar kleinerer Brötchen- ganz ohne gehts nicht, oder? :)

 

>Sowas wird übrigens empfohlen, und kein

>blödsinngerechne mit fiktiven Betas.

 

KOBE!!! BITTE!!!

Die gängige Praxis (an der sich übrigens bis heute nicht viel geändert hat) war, ABX-Tests mit 16 Durchgängen anzuwenden. Leventhal wollte darauf hinweisen, daß diese geringe Durchgangszahl bei relativ geringen Erkennungswahrscheinlichkeiten nicht ausreicht.

Dazu war das "blödsinngerechne" absolut sinnvoll.

M.E. wird es auch heute noch empfohlen zur Abschätzung. Wobei es immer von der Fragestellung und Wichtigkeitserwägungen abhängt, ob man den Fehler 2.Art vernachlässigt oder nicht.

 

Nur zur historischen Einordnung; es geht hier um die in den USA so genannte "Great debate"; auf der einen Seite die Unhörbarkeitsbehauptung, auf der anderen die Hörbarkeitsbehauptung und in dieser Debatte kann man beide Fehler nicht vernachlässigen.

 

>Und Beta ist für mich einfach eine Variable, die nicht mal

>fest ist (da nicht bekannt).

 

Man kann einer Variablen das "Nichtfestsein" aber auch nur schwerlich übelnehmen, nicht wahr?

 

>Und dann wird das Beta auch nur

>unwesentlich kleiner, wenn p* nahe genug bei 0,5 liegt (was ja

>oben angenommen wurde), auf jeden Fall nicht so klein, dass

>ich es mal locker verwerfen könnte.

 

Ja, wie berechnet (z.B. von Leventhal :) ) braucht man bei wirklich kleinen Erkennungswahrscheinlichkeiten _sehr_ große Stichproben.

 

>Ich rede auch nicht von einem Stichprobenumfang von 16 oder

>so, ich gehe von einer Stichprobe aus, mit der man arbeiten

>kann (mindestens 50-100; das ist von einer Gruppe von Leuten

>ja zu realisieren),

 

Ist ja auch vernünftig, genau dies ist aber der Unterschied zu den meist durchgeführten Blindtests.

BTW, Du hattest die Frage aufgeworfen, wieso denn trotz allem so viele negative Blindtests existieren; mir scheint in diesem Zusammenhang der Hinweis auf die übliche niedrige Versuchsanzahl von 16 relevant.

 

>und: Ja ich habe Leventhals Zahlen auch

>gelesen und verstanden, dass es mit 16 nix bis wenig bringt.

>Übrigens hattest du mal 16 Stück in den Raum geworfen, ich

>kann mich aber nicht daran erinnern, das gesagt zu haben:

 

Ich kann mich auch nicht erinnern, etwas anderes behauptet zu haben.

Allerdings schlug ich es vor mit dem Zusatz, daß 16 Durchgänge möglich wären, bei guter Form der Testperson und relativ großen Unterschieden.

 

 

>Das ist deine Aussage, die mußt du schon selbst belegen.

>Ich habe das Frauenhofer zitiert.

 

Nicht nur, Du schriebst auch, daß außer Goldohren....

Insofern ersparen wir uns beide die Nachweise; falls ich falsch gelegen habe, wird Trancemeister mich korrigieren.

 

Grüsse

 

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>>Sowas wird übrigens empfohlen, und kein

>>blödsinngerechne mit fiktiven Betas.

>KOBE!!! BITTE!!!

>Die gängige Praxis (an der sich übrigens bis heute nicht viel

>geändert hat) war, ABX-Tests mit 16 Durchgängen anzuwenden.

 

Diese gängige Praxis stand hier nie zur Debatte, und wurde auch nie in diesem Zusammenhang erwähnt. Mit der Ausnahme, dass du 16 Durchgänge vorgeschlagen hast (siehe Link im letzten Beitrag von mir).

 

>Dazu war das "blödsinngerechne" absolut sinnvoll.

Ein Hinweis auf die Gütefunktion für verschiedene n hätte auch gereicht. Grafiken gibt's in jedem besserem Statistikbuch.

 

>>Und Beta ist für mich einfach eine Variable, die nicht mal

>>fest ist (da nicht bekannt).

>Man kann einer Variablen das "Nichtfestsein" aber auch nur

>schwerlich übelnehmen, nicht wahr?

Es gibt die schöne Aussage: "Sei x eine Variable, beliebig, aber fest." Findet man in der Mathematik öfter.

 

>>Ich rede auch nicht von einem Stichprobenumfang von 16 oder

>>so, ich gehe von einer Stichprobe aus, mit der man arbeiten

>>kann (mindestens 50-100; das ist von einer Gruppe von Leuten

>>ja zu realisieren),

>

>Ist ja auch vernünftig, genau dies ist aber der Unterschied zu

>den meist durchgeführten Blindtests.

In welchem Forum war es, wo auf Kabel getestet wurde? Und halt wieder mal 0,5 rauskamm? Das waren (ich glaube so 15-20 Leute, ich kann mich aber auch irren...), oder der c't-Test mit MP3s? Oder der Test, der mal in der Klang&Ton erwähnt wurde? Gibt's eigentlich andere Ergebnisse?

 

>BTW, Du hattest die Frage aufgeworfen, wieso denn trotz allem

>so viele negative Blindtests existieren; mir scheint in diesem

>Zusammenhang der Hinweis auf die übliche niedrige

>Versuchsanzahl von 16 relevant.

Nein, leider nicht. Wenn viele Test (auch mit dem Stichprobenumfang 16) gemacht wurden, greift auch das Beta nicht mehr, dann kann man den Zufall schon annehmen. Das machen schon alleine die Alphas. Ist übrigens ein beliebtes Mittel.

 

> Allerdings schlug ich es vor mit dem Zusatz, daß 16

>Durchgänge möglich wären, bei guter Form der Testperson und

>relativ großen Unterschieden.

Naja, was für die eine Seite gilt, gilt auch für die andere. 16 ist schon wenig.

 

>>Das ist deine Aussage, die mußt du schon selbst belegen.

>>Ich habe das Frauenhofer zitiert.

>Nicht nur, Du schriebst auch, daß außer Goldohren....

Wir können hier ja gern mal eine Umfrage zu dem Thema machen.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

>Diese gängige Praxis stand hier nie zur Debatte, und wurde

>auch nie in diesem Zusammenhang erwähnt.

 

Diese Ansicht ist überraschend und hat ihre Ursache vielleicht eher im Überfliegen?

 

>Ein Hinweis auf die Gütefunktion für verschiedene n hätte auch

>gereicht. Grafiken gibt's in jedem besserem Statistikbuch.

 

Die meisten Diskussionspartner reagieren auf ein charmantes "Guck in ein Statistikbuch Dummbart" in einer wissenschaftlichen Debatte nicht gut. :)

Die These, daß die überwiegende Zahl von Blindtests in der Audiotechnik von Menschen entwickelt und durchgeführt wurden, die über keine ausreichende Erfahrung mit statistischen Tests verfügen, scheint berechtigt.

 

>Es gibt die schöne Aussage: "Sei x eine Variable, beliebig,

>aber fest." Findet man in der Mathematik öfter.

 

:)

 

 

>In welchem Forum war es, wo auf Kabel getestet wurde? Und halt

>wieder mal 0,5 rauskamm? Das waren (ich glaube so 15-20 Leute,

>ich kann mich aber auch irren...), oder der c't-Test mit MP3s?

>Oder der Test, der mal in der Klang&Ton erwähnt wurde? Gibt's

>eigentlich andere Ergebnisse?

 

Bei dem Kabeltest lohnt eine kurze Analyse, um festzustellen, daß es durchaus lohnt in der Operationalisierungsphase und Designphase einmal länger nachzudenken. Der eigentlich notwendige Bestätigungstest unterblieb. Was alles nicht so schlimm ist, allerdings dafür sorgt, daß auch dieser Test für allgemeine Aussagen nicht taugt; von ganz grundsätzlichen Logikerwägungen einmal abgesehen.

 

Bei den vielen Tests zu Kompressionsverfahren lohnt vermutlich auch eine Metaanalyse; ich will es nicht beschwören, aber es entstand der Eindruck, daß zwischen Original und reduziertem Material jeweils kein Unterschied detektierbar war, aber zwischen den einzelnen Kompressionsverfahren schon, was zunächst überrascht.

 

>Nein, leider nicht. Wenn viele Test (auch mit dem

>Stichprobenumfang 16) gemacht wurden, greift auch das Beta

>nicht mehr, dann kann man den Zufall schon annehmen. Das

>machen schon alleine die Alphas. Ist übrigens ein beliebtes

>Mittel.

 

Gilt dies wirklich bei Betrachtung der Endergebnisse der einzelnen Tests? Oder muß man dann nicht eine neue Auswertung über den vergrößerten Gesamtstichprobenumfang machen?

Als hypothetisches Beispiel; 10 Tests mit jeweils n=10, bei SL=0.05.

Test der Nullhypothese P=0.5 ergibt Ablehnung der Alternativhypothese jeweils bei r=7.

Eine Auswertung über die Gesamtstichprobe von n=100 würde bei r=70 die Annahme der Alternativhypothese bedeuten, sogar auf 0.01 Niveau.

 

>> Allerdings schlug ich es vor mit dem Zusatz, daß 16

>>Durchgänge möglich wären, bei guter Form der Testperson und

>>relativ großen Unterschieden.

>Naja, was für die eine Seite gilt, gilt auch für die andere.

>16 ist schon wenig.

 

Es hängt halt von den Annahmen ab; liegt die Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast schon übertrieben.

Testet man eine Person hat man immer mit dem Überforderungsproblem zu kämpfen.

 

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

>Wie verträgt sich das mit deiner ursprünglichen Aussage?

>«Nein. Wenn ich etwas höre, bin ich lediglich berechtigt zu

>behaupten, ich habe den Eindruck, etwas zu hören.»

>Was also nun?

 

Du darfst in der Tat >für Dich< ableiten, was Du willst. Dieses Recht nimmt Dir wirklich niemand.

 

Allerdings:

"Wenn ich einen Effekt höre, bin ich berechtigt, physikalische Einwirkungen abzuleiten, selbst wenn ich noch keinen konkreten Erklärungsansatz habe."

 

Wenn Du physikalische Einwirkungen ableitest, sollte das irgendwie physikalisch sinnvoll begründbar sein. Die Postulierung physikalischer Einwirkungen ohne den geringsten Erklärungsansatz macht keinen Sinn.

 

>(«2. lächerlich macht man sich vermutlich dann, wenn die

>abgeleitete physikalische Ursache nicht im geringsten

>physikalisch ist.»)

>

>Abgesehen davon, dass ich das "Streben nach Lächerlichmachung"

 

Das "Lächerlichmachen" hast einzig und alleine Du angeführt....

 

 

>

>

>

Wobei Audiophänomene einen derart

>niedrigen Stellenwert in der Wichtigkeitsskala einnehmen

 

Da hast Du wohl recht.

 

>

 

>

>«Ehrlich unvoreingenommen» waren die Leute also.

Das hab ich Jakob gegenüber schon ausgeführt.....

 

 

>

> aufgrund deiner

>durchscheinenden Geisteshaltung)

 

Ehrlich, das ist mir zu blöd :-)

Ich verspüre irgendwie keine Lust, mich mir Dir nochmals über alles auszutauschen. Das verstehst Du sicher.

 

gruß

Andi

 

PS: "Im übrigen scheint mir Jakob in Sachen Physik eher noch beschlagener zu sein als du selber"

der war auch gut.

Diesen Beitrag teilen


Link zum Beitrag

Hi Andi!

 

PS: "Im übrigen scheint mir Jakob in Sachen Physik eher noch beschlagener zu sein als du selber"

der war auch gut.

Ja, das war wirklich witzig :)

Das ist leider das Fatale bei einigen Diskussionsteilnehmern hier:

Um das beurteilen zu können, müssten sier eben selbst ein Mindestmass an Ahnung bzgl. Physik haben.

Da das aber häufig fehlt, wird nach Sympathie, eigenen Ideologien oder willkürlich Partei ergriffen!

Man muss dann eben im Zweifel die Beiträge nach Klang/Geschmack und nicht der Bedeutung bewerten :+

Wirklich grosses Manko und im Grunde übrigens der Hauptgrund warum

bestimmte (völlig irrsinnige) "technische Beschreibungen" hier überleben.

HiFi ist eben für viele ein Hobby, was in hohem Masse mit Magie zu tun hat.

Zumindest wohl für die, die Wissen mit Glauben ersetzen müssen und das wortgewaltig verbreiten....

(Siehe Beispiel akustische Täuschung....Google würde schon helfen!)

 

Allerdings kann ich im Leben nicht verstehen warum Du und Kobe Euch so quält!

 

Musikalischer Gruss

Michael

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

>Es war nur ein Beispiel dafür, daß es auch nach Jahrtausenden

>technischer Entwicklung eines technischen Produktes, Raum für

>Verbesserungen gibt. :)

 

Das hat auch niemand geleugnet. Aber diese Verbesserungen sind IMMER, technisch physikalisch nachvollziehbar, reproduzierbar zu messen, belegbar. Das macht die Verbesserung aus!

 

Gibt es das beim Clarifier?

 

>

 

>

>Es war meine These, daß das Verständnis für eine grundlegende

>Funktionalität ausreichen kann, aber man keinesfalls vom

>Erreichen des Optimums von Beginn an reden kann.

 

Das ist Deine These:

"Aus meiner Sicht, die historisch begründet erscheint, ist es überaus selten, daß technische Vorgänge _vollkommen_ verstanden werden."

Welcher Teil der CD-Abtastung ist nicht verstanden?

 

Ein

>erreichtes Optimum unterstellst Du bei der CD-Wiedergabe

>aber.

 

Das habe ich nicht unterstellt!

Optimierungen müssen als solche erkennbar sein.

Daß der Clarifier eine Optimierung der CD-Abtastung vornimmt, bleibt weiterhin eine unbelegte Behauptung.

 

Die Existenzberechtigung für den Clarifier läßt sich, wie Du es stetig versuchst, aus keiner technischen Verbesserung irgendeines Gerätes/Wirkprinzips in der Vergangenheit ableiten. Alles bisherige war belegbar und erst dadurch als Verbesserung bestätigt!

 

 

> denn ganz sicher hat Benz die Arbeitsweise des

>Verbrennungsmotors nicht in gleichem Maße verstanden, wie die

>heutigen Ingenieure.

 

"Verstehen" und auf der Basis technischer Möglichkeiten optimieren sind zwei Paar Schuhe.

 

>

 

>und mit den Entwicklern sprechen, um erkennen zu können, was

>wirklich bekannt oder verstanden wurde.

Genau! Was wurde erst nachher verstanden, was zu einer realen Verbesserung geführt hat?

Diese Frage hab ich schon mehrfach gestellt und ich werde vergeblich weiter auf eine Antwort warten. Dagegen wirst Du nicht zögern, weiter Beispiel auf Beispiel folgen zu lassen, wie es doch in der Geschichte bisher war. Hab ich recht?

Das nenne ich zB biegeweich.

 

 

 

>Das mein Beispiel keine wirkliche Antwort war, ist klar,

klar

 

 

 

 

 

aber

>es ist doch interessant, daß auch heute, nach 20 jähriger

>Entwicklung eines, Deiner Ansicht nach, komplett verstandenen

>technischen Objektes, in der Realisation immer noch sehr

>deutliche Unterschiede vorhanden sind, die auch im Fehlerfalle

>zu sehr unterschiedlichen Reaktionen und Vor-Nachteilen

>führen

 

Das hat mit dem Thema nichts zu tun.

 

Man kann eine Abtasteinheit technisch auf verschiedene Weisen realisieren. Das beweist aber eher, daß das >Prinzip< verstanden ist......

(wen wunderts?!)

 

>

>

>BTW, die CD-Spezifikation weichen in einigen Punkten auf

>merkwürdige Weise von Optimalwerten ab, ohne daß direkt

>einsichtig wäre, weswegen dies so ist (oder sein muß).

 

Beispiele? Was sind "Optimalwerte"? Ändert das etwas am grundlegenden Verständnis der CD-Abtastung?

Alles sehr diffus.....

 

>

 

>Diese Erscheinen erscheint mir nun wieder als erstaunlich.

>Es ist doch in Physik eher alltäglich, daß für Gleichheit von

>Zeifunktionen nicht nur die Amplitude (Level) gefordert ist,

>sondern auch eben Gleichheit im Zeitverlauf. :)

 

Das ist schon klar. *kopfschüttel* Gerne akzeptiert!

An dieser Stelle ist es aber Wortglauberei.

Also: Gleichheit in allen messbaren Parametern, die den Jitter beschreiben. (....wenn Dich das zufriedenstellt)

>

>

>>

>

>

>

>

>Folgte ich Deiner Argumentation, würde dies alles nichts

>bedeuten, und ich müßte offenbar jede meiner Entscheidungen

>durch DBTs absichern.

 

Nein, das habe ich nicht behauptet.

Egal, welchen C Du in einen Verstärker baust, es ist Deine Entscheidung. Vollkommen egal, wie Du zu dieser gelangst. Ob Du es für Dich oder andere noch blind "absegnen" willst oder nicht, ändert letztlich nichts an dieser, deiner Entscheidung.

 

 

 

>

> vor der Entscheidung

>zur Klärung des Phänomens ein, unter Umständen recht teures

>Forschungsprojekt ins Leben zu rufen, würde ich doch zum DBT

>greifen. :)

 

Angenommen, dieser Blindtest wäre negativ. Folge: kein Forschungsprojekt.

aber: der Clarifier bleibt natürlich weiter in Betrieb, oder?

 

Warum hier an dieser Stelle plötzlich ein Blindtest, wenn man doch schon jahrelang auch ohne diesen von der Wirksamkeit überzeugt ist?

>

 

>Wir hatten über einige anläßlich der angeblich schuldig

>gebliebenen AES/VDT-Blindtests diskutiert.

 

Hab ich das nicht verstanden jetzt? Du sprachst von

"daß es durchaus aussagekräftige Blindtests gab, die zu anderen Ergebnissen kommen, als die so gerne in Foren zitierten"

Ich will ja nur wissen, welche das sind.

 

Gruß

Diesen Beitrag teilen


Link zum Beitrag

Hallöchen

 

...Allerdings kann ich im Leben nicht verstehen warum Du und Kobe Euch so quält!

 

Die Beweggründe von Kobe kenne ich natürlich nicht.

 

Ich hab grad ein wenig Lust drauf. Wenigstens für die Diskussion mit Jakob.

Der Quereinstig von Marcel ist mir persönlich zu unwichtig, um das weiterzuführen.

 

 

schönen Gruß

Andi

Diesen Beitrag teilen


Link zum Beitrag

>>Erstens geht man davon aus, dass das 'Hörgedächtnis' eher

>ein

>>kurzlebiges ist (ich beziehe mich einfach mal auf

>andreasw),....

>

>das ist an dieser Stelle gefährlich, denn andreasw sucht noch

>nach Quellen ;)

 

Jakob:

"Ja das echoische Gedächtnis ist nach vorherrschender Meinung auf wenige Sekunden beschränkt. Uneins sind die Autoren über die exakte Länge; bisher sah ich Werte von 2 - 6 Sekunden."

 

 

Soll ich nach Deinen eigenen Quellen für die "2-6 Sekunden" suchen?

Man kann Dir wahrlich nicht mangelne Flexibilität unterstellen.....

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Wie bereits erwähnt, kenne ich den Ausgangspunkt der Debatte immer noch recht gut, und hatte auch 2 (glaub' ich) Einträge weiter oben entsprechende Antwort von dir an Trancemeister gepostet...

Damals warst du noch der Meinung, 16 Versuche reichen. Und jetzt willst du Argumentieren, besagte 16 sind zu wenig? Ich überlasse jetzt dem geneigten (Mit-)Leser die Interpretation.

Desweiteren habe ich mich schon damals in der Hinsicht geoutet, dass ich was von Statistik verstehe... Und Leventhal hätte auch einfach besagte Grafik benutzen können...

 

Aber bevor du hier weiter geiferst, würde ich gerne wissen, was an besagtem Testdesign falsch war, zudem das Ergebnis eindeutig war, weshalb man auf eine Verifizierung verzichten kann... Du wirst zugeben, dass ein generelles: 'Das ist falsch' nicht besonder produktiv ist, und sogar den Verdacht weckt, man hätte keine Ahnung und spielt hier den Troll. Und ich möchte doch nicht, dass du besagten Eindruck erweckst.

 

Das mit dem weiterrechnen der alphas muß ich nochmal genau nachschlagen (mir fällt gerade das Testverfahren nicht ein, und ich komme gerade auch nicht an vernünftige Unterlagen; das wurde mal in einer Vorlesung kurz behandelt, dass muß ich erst im Skript suchen), aber das geht schon ganz gut.

Um mal bei deinem Beispiel zu bleiben (wenn ich jetzt nicht gerade falsch rechne; ich war gerade Essen und brauch eigentlich erst mal Kaffee):

Das Alpha beträgt für 7 von 10 bei p=0,5 0,1718..., bei 8 von 10 0,0546...

Aber folgendes ist interessant: Die Wahrscheinlichkeit bei p=0,7 0-7 von 10 zu treffen (also ist das hier die 'Dichtefunktion') ist 0,6172... Für 10 Testreihen (ohne Fehler) ist sie 0,6172...^10 = 0,0082 ; also geringer als 1%, während das bei p=0,5 0,9453... und entsprechend 0,5698...

Bei p=0,7 ist also die Wahrscheinlichkeit, 10 mal nicht mehr als 7 Treffer bei 10 Versuchen zu haben unter 1%, während sie bei p=0,5 bei knapp 57% liegt.

Man sieht also ganz gut, was ich meine. Und wenn man jetzt eine ganze Menge Tests mit n=16 hat, kann man da schon was machen.

 

>Es hängt halt von den Annahmen ab; liegt die Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast schon übertrieben.<

Nach eigenen Aussagen ist der Unterschied gewaltig.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Ich bekomme halt Magengeschwüre, Kopfschmerzen und so ein komisches Stechen in der Brust, so um die Herzgegend rum, wenn ich sehe, wie hier die Mathematik vergewaltigt wird. Vergleichbares ist/war bei meinen Studienkollegen auch zu bemerken... Scheint sich doch um Liebe zu handeln.

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

(«Der Quereinstig von Marcel ist mir persönlich zu unwichtig, um das weiterzuführen.»)

 

Bin ja auch schon wieder weg. So wichtig ist mir der «Gedankenaustausch» mit euch auch wieder nicht. Einige haben es ja in der Herabsetzung des «Gegners» zu wahrer Meisterschaft gebracht, und viele merken es offenbar nicht einmal, dass es ihnen gar nicht (mehr) um die Sache geht, die doch eigentlich schon interessant wäre. Ich kann mich nur wundern, dass Jakob sich das antut.

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>dass es ihnen gar nicht (mehr) um die Sache geht, die doch eigentlich >schon interessant wäre.

 

Na, dann kann ich ja wenigstens nicht gemeint sein. DAS nenne ich mal ein Lob!

 

Dank & Gruß

Kobe

Diesen Beitrag teilen


Link zum Beitrag

>Soll ich nach Deinen eigenen Quellen für die "2-6 Sekunden"

>suchen?

 

Es wäre absolut förderlich, ich garantiere für viele interessante Informationen darüber, wie der moderne Stand der Wahrnehmungspsychologie und damit der Vorstellung des (auch akustischen) Gedächtnisses aussieht. :)

 

Aus der Existenz des (allgemeinen) Kurzzeitgedächtnisses kann man nicht schließen, daß Menschen ein schlechtes Gedächtnis hätten.

Aus der Existenz des echoischen Gedächtnisses kann man nicht schließen, daß Menschen ein schlechtes akustisches Gedächtnis haben.

 

An das echoische Gedächtnis schließt sich das (akustische) Kurzzeitgedächtnis an (Größenordnung max. 10-15 s, mit ähnlicher Unsicherheit wie die Zeitangaben zum echoischen Gedächtnis), danach kommt das Langzeitgedächtnis, bei dem eine Fülle verschiedener Faktoren bei der Kategorisierung und Speicherung mitwirken.

 

Interessant war ein Ansatz zur Testpraxis von Audiocodecs nach ITU. Die Autorinnen schlugen vor, die Testsamples in der Länge auf die Zeitdauer des echoischen Gedächtnisses zu beschränken und mit Sampleschleifen zu arbeiten, um Trainingsunterschiede und Fertigkeitsunterschiede in der Kategorisierung und Langzeitspeicherung von der Beurteilung auszuschließen. (arg verkürzte Darstellung)

 

Kristin Precoda, Theresa H. Meng; Subjective audio testing methodology and human performance factors; AES Preprint, 103rd Convention, 1997

 

Was der Umkehrschluß für unsere Diskussion bedeutet, kann man sich ausmalen.

 

>Man kann Dir wahrlich nicht mangelne Flexibilität

>unterstellen.....

 

Wäre es zur Abwechslung nicht auch mal ganz spannend anzunehmen, es sei nicht so, wie es Dir im ersten Augenblick erscheint?

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Auch wenn hier wirklich niemand an Ergebnissen interessiert ist:

 

Das oben erwähnte Verfahren ist das Holm- bzw. Bonferroni-Holm-Verfahren.

 

Es geht darum: Macht man viele Tests, so wird bei einigen irrtümlich H1 angenommen. Holm vermeidet diesen Effekt durch eine 'multiple Irrtumswahrscheinlichkeit' alpha.

Allerdings ist das ein konservativer Test, er begünstigt H0.

 

Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder kennt jemand eine Quelle?) kann man sich die Prozedur auch sparen.

 

Leider kann ich dazu keine gute Quelle im www finden (ich besitze (mit Ausnahme meines Statistik-Skripts) auch keine Literatur dazu), ich muß den interessierten Mitleser leider bitten, selbst mal Google anzuwerfen. Es geht hier generell um multiples Testen.

 

Der ursprüngliche Artikel war:

Holm S. A Simple Sequentially Rejective Multiple Test Procedure. Scand. J. Statist.1979; 6: 65-70

 

Sorry, aber hier wird's langsam zu speziell für vernünftige Quellen.

Gruß Kobe

 

Anmerkung: Einen Überblick über's Verfahren hab' ich doch gefunden (PostScript-Datei):

www.stat.unibe.ch/~duembgen/EinfStat/Tests.ps

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Zum einen: Nachobenschieb.

 

Zum anderen: Ich finde es erschreckend, hier das letzte Wort zu haben. Und ich warte hier noch auf das übliche getrolle. Es gibt ja genug Ansatzpunkte, ich geb' mal ein paar an: Konservativer Test, Testverfahren bzw. -design, Stichprobenumfang, Gegeifer, (Hör-)Gedächtnis,...

Diesen Beitrag teilen


Link zum Beitrag

>Auch wenn hier wirklich niemand an Ergebnissen interessiert

>ist:

 

Der Vermutungsdrang scheint unkontrollierbar. :)

 

>Das oben erwähnte Verfahren ist das Holm- bzw.

>Bonferroni-Holm-Verfahren.

>

>Es geht darum: Macht man viele Tests, so wird bei einigen

>irrtümlich H1 angenommen. Holm vermeidet diesen Effekt durch

>eine 'multiple Irrtumswahrscheinlichkeit' alpha.

>Allerdings ist das ein konservativer Test, er begünstigt H0.

 

Eine Quelle zum Nachlesen:

 

http://www.forst.tu-muenchen.de/EXT/PUBL/q.../hipotez.de.pdf

 

>Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder

>kennt jemand eine Quelle?) kann man sich die Prozedur auch

>sparen.

 

Aus statistischer Sicht ist auch dies interessant, nicht wahr?

Es stützt die auch hier schon postulierte These, daß es bislang eher wenige DBTs gab.

 

>Leider kann ich dazu keine gute Quelle im www finden (ich

>besitze (mit Ausnahme meines Statistik-Skripts) auch keine

>Literatur dazu), ich muß den interessierten Mitleser leider

>bitten, selbst mal Google anzuwerfen. Es geht hier generell um

>multiples Testen.

 

Wobei der Begriff multiples Testen eigentlich ein anderes Testszenario zu meinen scheint, als im unserem Falle.

Aber, wie Du schon sagst, da wir _überhaupt keine_ angenommenen Alternativhypothesen haben, erübrigt sich weitere Testverfahren zur Absicherung niedriger Alpha-Fehler.

 

>Der ursprüngliche Artikel war:

>Holm S. A Simple Sequentially Rejective Multiple Test

>Procedure. Scand. J. Statist.1979; 6: 65-70

>

>Sorry, aber hier wird's langsam zu speziell für vernünftige

>Quellen.

 

Diese und weitere findet man im genannten Link.

 

Grüsse

 

 

Diesen Beitrag teilen


Link zum Beitrag

>Wie bereits erwähnt, kenne ich den Ausgangspunkt der Debatte

>immer noch recht gut, und hatte auch 2 (glaub' ich) Einträge

>weiter oben entsprechende Antwort von dir an Trancemeister

>gepostet...

>Damals warst du noch der Meinung, 16 Versuche reichen. Und

>jetzt willst du Argumentieren, besagte 16 sind zu wenig?

 

Nun, die gleiche Frage stelltest Du bereits wesentlich früher, und sie wurde auch erschöpfend beantwortet. Vielleicht zu diesem Zeitpunkt für Dich aufgrund der Zuordnungsschwierigkeiten noch nicht ausreichend?!

 

Bei "relativ großen Unterschieden" und "guter Form" , was der geneigte Leser, der Leventhal nicht nur überflog, sondern las, mit hoher Erkennungswahrscheinlichkeit unschwer übersetzen kann, reichen 16 Versuche.

Falls man einen Test macht ohne jegliche Ahnung bezüglich der Erkennungwahrscheinlichkeiten _muß_ man den Stichprobenumfang erhöhen, um, bei Test auf 0.05-Niveau, mögliche sehr hohe Beta-Fehler zu vermeiden.

 

>Ich

>überlasse jetzt dem geneigten (Mit-)Leser die Interpretation.

 

Du kannst hier nur darauf hoffen, daß nicht mehr viele übrig sind. :)

 

>Desweiteren habe ich mich schon damals in der Hinsicht

>geoutet, dass ich was von Statistik verstehe...

 

Deine Behauptung stieß auf einen großen Vertrauensbonus, umso größer die Überraschung ob zahlreicher merwürdiger Beiträge.

 

Und Leventhal schrieb einen guten Artikel, den Du hättest einfach lesen sollen.

 

>

>Aber bevor du hier weiter geiferst,....

 

Holla, ein gewisses Bemühen in Sachen Stil ist unverkennbar, allein an der Originalität sollte noch gearbeitet werden. :)

 

>würde ich gerne wissen,

>was an besagtem Testdesign falsch war, zudem das Ergebnis

>eindeutig war, weshalb man auf eine Verifizierung verzichten

>kann... Du wirst zugeben, dass ein generelles: 'Das ist

>falsch' nicht besonder produktiv ist, und sogar den Verdacht

>weckt, man hätte keine Ahnung und spielt hier den Troll. Und

>ich möchte doch nicht, dass du besagten Eindruck erweckst.

 

Was andere Vermutungskünstler mit ähnlich gelagerten Wahrnehmungproblemen an Schlüssen ziehen, kann und muß nicht immer meine Sorge sein. ;)

 

Besagter Test war bereits Gegenstand ausufernder Debatten, so scheint mir eine Wiederholung an dieser Stelle nicht zielführend.

Zwei Punkte seien genannt- um die Unabhängigkeit der einzelnen Ergebnisse ist es nicht gut bestellt, und eine völlige Vernachlässigung der individuellen Hörgewohnheiten (bzw. des Trainingszustandes unter Testbedingungen) kann nur zu zweifelhaften Testergebnissen führen.

Schon aus rein formalen Gründen kann man nur schwerlich weitergehende Schlüsse aus derartigen Tests ziehen, aber für Hinweise taugt er schon.

 

>Das Alpha beträgt für 7 von 10 bei p=0,5 0,1718..., bei 8 von

>10 0,0546...

>Aber folgendes ist interessant: Die Wahrscheinlichkeit bei

>p=0,7 0-7 von 10 zu treffen (also ist das hier die

>'Dichtefunktion') ist 0,6172... Für 10 Testreihen (ohne

>Fehler) ist sie 0,6172...^10 = 0,0082 ; also geringer als 1%,

>während das bei p=0,5 0,9453... und entsprechend 0,5698...

>Bei p=0,7 ist also die Wahrscheinlichkeit, 10 mal nicht mehr

>als 7 Treffer bei 10 Versuchen zu haben unter 1%, während sie

>bei p=0,5 bei knapp 57% liegt.

 

Nanu, solltest Du hier am Ende gar dem "blödsinngerechne" mit fiktiven p gefrönt haben??

 

Wobei der Ablehungsbereich erst bei >=9 richtigen beginnt; es war nur ein hypothetisches Beispiel zur leichteren Nachrechenbarkeit; vermutlich könnte man für die genannten 10 Tests auch unterschiedliche Einzelergebnisse mit höherer Gesamterzielungswahrscheinlichkeit konstruieren, die in der Summe immer noch für 59 oder 62 richtige reichen.

Bei idealen Tests wäre vermutlich eine Summation der Einzeltestergebnisse mit anschließender Neuauswertung statthaft, in der Realität ist es wohl nicht zulässig.

 

>Man sieht also ganz gut, was ich meine. Und wenn man jetzt

>eine ganze Menge Tests mit n=16 hat, kann man da schon was

>machen.

 

Zur "ganzen Menge" s.a. den Kommentar zu Bonferroni.

 

>>Es hängt halt von den Annahmen ab; liegt die

>Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast

>schon übertrieben.<

>Nach eigenen Aussagen ist der Unterschied gewaltig.

 

Hängt halt davon ab, was man testen möchte; ist es "es kann mindestens ein Mensch einen Unterschied hören" oder ist es " der Unterschied ist galaktisch"

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Naja, nur weil's hier vielleicht keine Mitleser mehr gibt (was ich aber nicht vermute; im übrigen ist der blöde Kommentar mit dem 'Meister im Vermuten' oder so ähnlich bei mir wohl eher falsch angebracht) kann man sich immer noch beim Lernen Mühe geben, aber es war ja auch nicht anders zu Vermuten:

 

>Deine Behauptung stieß auf einen großen Vertrauensbonun, umso

>größer die Überraschung ob zahlreicher merwürdiger Beiträge.

>

>Und Leventhal schrieb einen guten Artikel, den Du hättest

>einfach lesen sollen.

Wie ich bereits etliche Male schrieb, hätten manchmal einfach ein paar Begriffe Fachchinesich genügt... Güte-, Test- und Schätzfunktion z. Bsp., aber woher nehmen?

 

>Was andere Vermutungskünstler mit ähnlich gelagerten

>Wahrnehmungproblemen an Schlüssen ziehen, kann und muß nicht

>immer meine Sorge sein. ;)

Nun ja, immerhin hab' ich insoweit ein Wahrnehmungproblem, dass ich keine gegenteilige Test kenne, Beta für was für ein p hin oder her...

Fakt ist, dass du nicht in der Lage bist, die Quelle für einen gegenteiligen Test zu liefern... Aber ist klar, dass ich keine Ahnung habe, ist nur logisch.

Und wenn wir uns mal die Mühe machen, ein wenig zurückzublättern, werden wir feststellen, dass besagte Werte für p von dir gepostet wurden. Ich habe mit deinem Zahlenbeispiel mal einfach so weitergerechnet. Klar, die Zahlen, jajaja, schon klar.

Und das schöne: Wieder mal einfach so ein paar Aussagen in den Raum geworfen ('Wobei der Ablehungsbereich erst bei >=9 richtigen beginnt...'), blödes Gelaber, hauptsache mal was geschrieben, sag' doch einfach mal, was du willst, wenn meine Zahlen falsch sind, dann rechne sie doch einfach mal nach (Mach doch einfach mal!), oder wasweißich (es ist jetzt nämlich nicht so (wie der Eindruck erweckt wird), dass meine Zahlen falsch wären (nehme ich mal an, ich hab' sie nicht mehr verifziert), nein, es geht einfach 'auf die nächste Ebene', lockeres Gespringe, ja keine Aussagen machen.

 

>Bei idealen Tests wäre vermutlich eine Summation der Einzeltestergebnisse mit anschließender Neuauswertung statthaft, in der Realität ist es wohl nicht zulässig.<

Glaubst du wirklich, dass nie mal jemand auf die Idee kam, das Verhältnis der richtigen Antworten zum Stichprobenumfang zu rechnen?

 

Du windest dich wie ein Wurm, dem jemand mit dem Stiefelabsatz auf den Schwanz steht (und mach' dir bitte an dieser Stelle keine Gedanken über meinen Stil; ich kenne genug Germanisten, die ich dazu fragen könnte).

 

Oder gibt's demnächst für dich noch 'nen Nobelpreis Literatur?

 

Das mit Nobelpreis Physik scheint ja nicht zu klappen, die Revolution der Statistik ist ja auch ausgeblieben bzw. verschoben worden, und jetzt kann ja nur die Revolution der Psychologie folgen. Ist schon klar... Wann kommt der Nobelpreis für Medizin (für die Revolution der Psychologie)? Nächstes oder übernächstes Jahr?

 

Ist halt immer wieder arm von dir, aber solange es keinen Hinweis auf p<>0,5 gibt, tja, was soll ich noch sagen? Es wäre schön, wenn's mal Butter bei die Fisch gäbe. Ansonsten ist das hier wirklich erbärmlich.

 

Gruß Kobe

 

P.S.: Weil's einfach stimmt:

Einfach mal bei Wikipedia.de den Suchbegriff Pseudowissenschaft eingeben. Oder: http://de.wikipedia.org/wiki/Pseudowissenschaft

 

Ich darf zitieren:

 

Einordnung von Pseudowissenschaften

 

Pseudowissenschaften entsprechen nicht den Kriterien zeitgenössischer Wissenschaften und richten sich insbesondere nicht nach der wissenschaftlichen Methode. Folgende Merkmale sind starke Indikatoren für Pseudowissenschaftlichkeit:

 

* Aufstellung von Behauptungen ohne deren Stützung durch experimentelle Resultate.

* Aufstellung von Behauptungen, die im Widerspruch zu experimentell erwiesenen Resultaten stehen.

* Selektive Auswahl von Daten zur Begründung einer Behauptung und systematische Unterdrückung solcher Daten die dieser Behauptung entgegenstehen.

* Unklare, nicht nachvollziehbare Herkunft von Proben an denen Experimente zur Stützung einer Behauptung durchgeführt wurden.

* Aufstellen von Behauptungen, die sich auf andere Referenzen und Quellen stützen die selbst wiederum nicht nachprüfbar oder unsicher sind, oder die falsch bzw. suggestiv zitiert werden.

* Ungenaue oder ganz fehlende Beschreibung der experimentellen oder theoretischen Vorgehensweise zur Erlangung eines Resultates.

* Fehlende Überprüfbarkeit durch reproduzierbare Experimente (siehe Falsifizierbarkeit).

Diesen Beitrag teilen


Link zum Beitrag

Und schon wieder kämpft Super-Kobe gegen das dumme Gelaber:

 

>>Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder

>>kennt jemand eine Quelle?) kann man sich die Prozedur auch

>>sparen.

>

>Aus statistischer Sicht ist auch dies interessant, nicht

>wahr?

 

Ja, genau. Oder willst du auf p<>0,5 testen, wenn es KEINEN Hinweis darauf gibt?

 

>Es stützt die auch hier schon postulierte These, daß es

>bislang eher wenige DBTs gab.

 

Wieder mal ohne Quellenangabe... Und ich denke, die Jungs aus Amiland testen ständig, deswegen gibt es die große Debatte? Ist der Artikel von Leventhal etwa total sinnlos?

 

>>Leider kann ich dazu keine gute Quelle im www finden (ich

>>besitze (mit Ausnahme meines Statistik-Skripts) auch keine

>>Literatur dazu), ich muß den interessierten Mitleser leider

>>bitten, selbst mal Google anzuwerfen. Es geht hier generell

>um

>>multiples Testen.

>

>Wobei der Begriff multiples Testen eigentlich ein anderes

>Testszenario zu meinen scheint, als im unserem Falle.

 

Oh, DU vermutest??? Dann begründe mal!

 

>Aber, wie Du schon sagst, da wir _überhaupt keine_

>angenommenen Alternativhypothesen haben, erübrigt sich weitere

>Testverfahren zur Absicherung niedriger Alpha-Fehler.

Das ist so lächerlich wachsweich formuliert, dass nicht mal das absolute Gegenteil davon falsch oder wahr ist.

H1 existiert, und ist auch bekannt, aber H0 wurde bis jetzt nicht verworfen, oder was meinst du?

 

Du kannst ja auf der nächsten Rede zu einem von deinen nächsten Nobelpreisen das Forum grüßen.

 

Gruß Super-Kobe

Diesen Beitrag teilen


Link zum Beitrag

>Und schon wieder kämpft Super-Kobe gegen das dumme Gelaber:

 

Super-Vermutungs-Kobe?!

 

>>>Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder

>>>kennt jemand eine Quelle?) kann man sich die Prozedur auch

>>>sparen.

>>

>>Aus statistischer Sicht ist auch dies interessant, nicht

>>wahr?

>

>Ja, genau. Oder willst du auf p<>0,5 testen, wenn es KEINEN

>Hinweis darauf gibt?

 

Es ist ein statistisches Argument. Gäbe es eine große Anzahl durchgeführter Tests, müßte es eine gewisse Anzahl Tests geben, bei der die Nullhypothese verworfen wurde.

(Wobei man hier auch innerhalb der verschiedenen Testverfahren untersuchen müßte; ABX, A-B etc.)

 

>

>>Es stützt die auch hier schon postulierte These, daß es

>>bislang eher wenige DBTs gab.

>

>Wieder mal ohne Quellenangabe... Und ich denke, die Jungs aus

>Amiland testen ständig, deswegen gibt es die große Debatte?

>Ist der Artikel von Leventhal etwa total sinnlos?

 

Die große Debatte gibt es (immer noch); es wird vermutlich nicht so häufig getestet, wie vermutet und der Artikel von Leventhal war berechtigt, weil die Vermeidung eines unfairen statistischen Tests in jedem Fall sinnvoll ist.

 

Ansonsten, würden die "Jungs im Amiland" ständig testen, müßte es auch ... s.o.

 

>Oh, DU vermutest??? Dann begründe mal!

 

Ein Link war angegeben.

 

>>Aber, wie Du schon sagst, da wir _überhaupt keine_

>>angenommenen Alternativhypothesen haben, erübrigt sich

>weitere

>>Testverfahren zur Absicherung niedriger Alpha-Fehler.

>Das ist so lächerlich wachsweich formuliert, dass nicht mal

>das absolute Gegenteil davon falsch oder wahr ist.

>H1 existiert, und ist auch bekannt, aber H0 wurde bis jetzt

>nicht verworfen, oder was meinst du?

 

Wenn die Nullhypothese verworfen wird, nimmt man die Alternativhypothese an. Gibt es keine angenommenen Alternativhypothesen, kann es auch keine verworfenen Nullhypothesen gegeben haben; ergo gibt es auch keine irrtümlich verworfenen Nullhypothesen, also erübrigt sich auch das Bonferroni/Holm-Verfahren, bei dem es gerade um dieses Problem ging.

Du siehst, gemeint war, was geschrieben wurde. :)

 

Grüsse

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

>Es ist ein statistisches Argument. Gäbe es eine große Anzahl

>durchgeführter Tests, müßte es eine gewisse Anzahl Tests

>geben, bei der die Nullhypothese verworfen wurde.

>(Wobei man hier auch innerhalb der verschiedenen Testverfahren

>untersuchen müßte; ABX, A-B etc.)

 

Das ist einfach nur Müll. Du vermutest doch nur. Vielleicht existieren diese Tests nicht, weil man das Ergebnis einfach verifiziert, und dann zum Ergebnis kommt, es war doch Zufall (analog zu dem Test mit den Wünschelrutengängern)?

Komisch, daß alle Leute, die jemals getestet haben, doof sind... Nur du hast den Durchblick.

 

Wieder mal bei der Revolution der Statistik? Ich dachte, die Medizin wäre jetzt dran?

 

Gruß Kobe

Diesen Beitrag teilen


Link zum Beitrag

>Naja, nur weil's hier vielleicht keine Mitleser mehr gibt (was

>ich aber nicht vermute; im übrigen ist der blöde Kommentar mit

>dem 'Meister im Vermuten' oder so ähnlich bei mir wohl eher

>falsch angebracht) kann man sich immer noch beim Lernen Mühe

>geben, aber es war ja auch nicht anders zu Vermuten:

 

Du wirst zugeben, die Formulierung konterkariert das inhaltliche Bemühen. :)

 

>Wie ich bereits etliche Male schrieb, hätten manchmal einfach

>ein paar Begriffe Fachchinesich genügt... Güte-, Test- und

>Schätzfunktion z. Bsp., aber woher nehmen?

 

Solange Du den Standpunkt vertratst, eine größerer Stichprobenumfang hätte keine Auswirkung auf den Beta-Fehler wohl aber auf die Teststärkefunktion (1-Beta), konnte dies nicht genügen.

 

>Und wenn wir uns mal die Mühe machen, ein wenig

>zurückzublättern, werden wir feststellen, dass besagte Werte

>für p von dir gepostet wurden.

 

Mach Dir bitte die Mühe zurückzublättern; ich hatte kein p=0.7 angenommen, im Beispiel enthalten war nur jeweils eine Anzahl richtiger Antworten von r=7.

 

>Ich habe mit deinem

>Zahlenbeispiel mal einfach so weitergerechnet. Klar, die

>Zahlen, jajaja, schon klar.

 

Insofern war das vorher so stark kritisierte Rechnen mit fiktivem p überraschend.

 

>Und das schöne: Wieder mal einfach so ein paar Aussagen in den

>Raum geworfen ('Wobei der Ablehungsbereich erst bei >=9

>richtigen beginnt...'), blödes Gelaber, hauptsache mal was

>geschrieben, sag' doch einfach mal, was du willst, wenn meine

>Zahlen falsch sind, dann rechne sie doch einfach mal nach

>(Mach doch einfach mal!), oder wasweißich (es ist jetzt

>nämlich nicht so (wie der Eindruck erweckt wird), dass meine

>Zahlen falsch wären (nehme ich mal an, ich hab' sie nicht mehr

>verifziert), nein, es geht einfach 'auf die nächste Ebene',

>lockeres Gespringe, ja keine Aussagen machen.

 

Wirkt es nicht komisch, erst eine Aussage zu zitieren, um Dich dann zu beklagen, es gäbe keine Aussagen?

Dazu die Klage über angebliches (vermutetes :) ) Springen, wo es doch immer noch um das gleiche Beispiel geht; (doch Wahrnehmungsprobleme?)

 

Bei einem Test mit n=10, SL=0.05, wird die Nullhypothese erst bei 9 oder 10 richtigen Antworten abgelehnt. Nicht mehr und nicht weniger bedeutet die zitierte Aussage- alles andere ist......Vermutung. :)

 

>>Bei idealen Tests wäre vermutlich eine Summation der

>Einzeltestergebnisse mit anschließender Neuauswertung

>statthaft, in der Realität ist es wohl nicht zulässig.<

>Glaubst du wirklich, dass nie mal jemand auf die Idee kam, das

>Verhältnis der richtigen Antworten zum Stichprobenumfang zu

>rechnen?

 

Die Frage ist, ob es zulässig wäre.

 

>Du windest dich wie ein Wurm, dem jemand mit dem Stiefelabsatz

>auf den Schwanz steht.

 

Die Formulierung kann gefallen, wenn sie auch inhaltlich von Realitätsferne zeugt.

 

>Das mit Nobelpreis Physik scheint ja nicht zu klappen, die

>Revolution der Statistik ist ja auch ausgeblieben bzw.

>verschoben worden,

 

Es war ja ausschließlich Deine _Vermutung_ :) eine Revolution der Statistik sei beabsichtigt (der freundliche Hinweise, dieser Vermutung läge ein Verständnisproblem zugrunde, fand keine Resonanz) deswegen liegt es mir fern, ein Ausbleiben zu beklagen.

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

>Das ist einfach nur Müll.

 

Ich mache mir doch Sorgen um den Stil.

 

>Du vermutest doch nur. Vielleicht

>existieren diese Tests nicht, weil man das Ergebnis einfach

>verifiziert, und dann zum Ergebnis kommt, es war doch Zufall

 

Dann existierten diese Tests doch, man "vergaß" nur darüber zu berichten??? Dies wäre eine überaus fragwürdige Veröffentlichungspraxis.

 

>(analog zu dem Test mit den Wünschelrutengängern)?

 

Und hier beschreibst Du auch die richtige Vorgehensweise, man verschweigt keine unpassendenen Testergebnisse sondern bemüht sich um Klärung. BTW, die Vorgehensweise beim Wünschelrutentest ergibt eben nicht Deine Schlußfolgerung, daß damit gezeigt wurde, das erste Ergebnis war "doch Zufall". Gezeigt wurde, daß bei einem zweiten Test die Nullhypothese nicht verworfen wurde.

 

>Komisch, daß alle Leute, die jemals getestet haben, doof

>sind... Nur du hast den Durchblick.

 

Doof nicht, vielleicht nur zu optimistisch, daß es ohne weitere Beschäftigung mit Testtheorie schon irgendwie klappen würde.

Eine gewisse Voreingenommenheit, die bei Ausarbeitung der Testabläufe, Pate stand, ist allerdings unverkennbar, und in den Reaktionen auf den (wie wir wissen vollkommen richigen und berechtigten) Artikel von Leventhal durchaus zu erkennen.

 

Das eine derartige Voreingenommenheit bei der Gewinnung objektiver Testergebnisse nicht hilft, liegt auf der Hand.

 

>Wieder mal bei der Revolution der Statistik? Ich dachte, die

>Medizin wäre jetzt dran?

 

S-V-K at work :)

 

Grüsse

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...