Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
Analogfan

Wie funktioniert der Audio Animator ??

Recommended Posts

Hi

 

>>Die absolute Genauigkeit ist hier nicht der Ausgangspunkt des Jitters

>Äh, könntest du mir bitte genauer erklären, was du damit

>meinst?

Wenn die Daten ausgetauscht werden, bedeutet eine leicht unterschiedliche Taktgenauigkeit zwischen Sender und Empfänger, daß die Takte beider Stellen miteindander synchronisiert werden, weswegen trotz FIFO, Reclock- und anderer Maßnahmen keine Immunität gegenüber Jitter gewährleistet ist. Es sei denn, der FIFO ist so groß, daß er die gesamte zu übertragende Datenmenge speichern kann. Soll heißen, selbst wenn der Takt der empfangenden Stelle absolut genau ( und auch jitterfrei) wäre, könnte trotzdem der Jitter der sendenden Stelle einwirken.

Von der Amplitude der Jitterfunktion ( wobei Amplitude bedeutet: bewegt sich der Jitter im ps- oder im ns-Bereich ) und vom Spektrum der Jitterfunktion hängen die Auswirkungen auf das Originalsignal ab, ein wirklich zufälliger Jitter wird Auswirkungen auf das Rauschverhalten haben, eine sinusförmige jitterfunktion wird zu Seitenbändern führen; wäre die Jitterfunktion auf irgendeine Weise mit den Daten korreliert, ist denkbar, das die Auswirkungen schlimmer sind, als bei Nichtkorrelation etc.

Mitfühlende Grüße

 

 

 

 

>Gruß Kobe

>(der gerade unter Migräne leidet, und in den man in diesem

>Zustand mit faulen Tomaten totschmeissen könnte)

 

 

Diesen Beitrag teilen


Link zum Beitrag

>Wenn die Daten ausgetauscht werden, bedeutet eine leicht

>unterschiedliche Taktgenauigkeit zwischen Sender und

>Empfänger, daß die Takte beider Stellen miteindander

>synchronisiert werden, weswegen trotz FIFO, Reclock- und

>anderer Maßnahmen keine Immunität gegenüber Jitter

>gewährleistet ist.

 

Halt, halt, halt. Das wäre mir neu, allerdings muß ich mich auch damit outen, daß ich nicht den Hauch einer Ahnung davon habe, wie das Re-clocking in der Praxis funktioniert. Ist es also so, daß durch die Synkronisation der Jitter quasi übertragen wird? Kann mal jemand kundiges was *konkretes* dazu schreiben?

 

An die mitfühlenden Grüße an Kobe schließe ich mich des übrigen gerne an.

 

Die Sommerfee

 

"Wenn man alles auf physikalische Gesetzmäßigkeiten zurückführen würde, wäre das eine Abbildung mit inadäquaten Mitteln, so als ob man eine Beethoven-Symphonie als Luftdruckkurve darstellte." (Albert Einstein)

 

Diesen Beitrag teilen


Link zum Beitrag

Einen wunderschönen guten Morgen Herr Doktor!

 

>>HighEnd-Journal geschrieben hat. (Michael hat den, bei dem

>>audiomap-Treffen bei ihm habe ich auch den Artikel

>>entdeckt/überflogen. Ich selber habe den leider nicht.)

>

>Das war nur der erste Teil. Mittlerweile hat er da einen

>zweiten, ausführlichen Teil veröffentlicht. Ich habe leider

>keinen Scanner, aber ich kann Dir das gerne zuschicken,

>wenns Dich interessiert.

 

Ja, ja, ja! Leider habe ich auch keinen Scanner, aber ansonsten interessiert das ja wohl eh' keinen ernsthaft hier.

 

>Dauert allerdingsein paar Tage, bis

>ich zur Post komme.

 

Macht nix. Danke schonmal!

 

Die Sommerfee

 

"Wenn man alles auf physikalische Gesetzmäßigkeiten zurückführen würde, wäre das eine Abbildung mit inadäquaten Mitteln, so als ob man eine Beethoven-Symphonie als Luftdruckkurve darstellte." (Albert Einstein)

 

Diesen Beitrag teilen


Link zum Beitrag

Moin Jakob!

 

>ich befürchtete schon, etwas überlesen zu haben;-)

 

Hast du ja auch, und zwar den "Don't feed the troll"-Hinweis von Michael. :-)

 

Liebe Grüße,

die Sommerfee

 

"Wenn man alles auf physikalische Gesetzmäßigkeiten zurückführen würde, wäre das eine Abbildung mit inadäquaten Mitteln, so als ob man eine Beethoven-Symphonie als Luftdruckkurve darstellte." (Albert Einstein)

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo, Thomas,

 

könntest Du mir bitte ausserhalb dieses überladenen Forums unter burckhardt@vbbonline.de Deinen Test des Audio-Animators schildern und mir auch mitteilen, welche Komponenten Du in Deiner Anlage benutzt?

 

Danke im voraus und schöne Grüße

 

Jochenberlin

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Jochen,

 

meine Ausprobierphase ist seit Gestern im gange, werde wie versprochen bei Zeiten meine Erkenntnisse hier veröffentlichen!

Schicke Dir gerne ne Kopie des Postings per mail.

 

Zum austesten benutze ich erstmal! nur meine private Kette. Die Komponenten kannst Du meinem Userprofil entnehmen!

 

;-) gruss

 

Thomas

 

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

nach ausführlichem Studium der beiträge und einer Reihe von Artikeln von TI, AK, etc.

 

komme ich zu folgendem Schlüssen:

 

- es gibt deterministischen und zufälligen Jitter

- diese 2 jitterarten addieren sich teils linear teils unlinear (sum of squares)

- der Gesamt-jitter ist eine Kombination beider Arten.

- solange dieser Gesamtjitter das jitter-Budget (unit interval) nicht überschreitet gibt es keine Bitfehler

- PLL´s haben eine gewisse Filterwirkung auf die Jitteramplitude, aber ein Feedthrough ist gegeben

- Da das digitale Signal verjittert am eigentlichen DA-Wandler ankommt, liegt es auch noch nach der R-2-Lader am I/U-Wandler an (hier sehe ich die einzig relevante Stelle direkte Einflüsse auf die Jitteramplitude eines Signals durch Kabel, etc. direkt zu messen)

- hier ist dann auch die Stelle an der sich IMHO überhaupt Klangänderungen ergeben können!! (also der eigentliche Wandelprozess!)

- aufgrund der Geringfügigkeit der möglichen Abweichungen kann die klangliche Änderung nur sehr sehr subtiler Natur sein

 

Ist DAS so richtig?? Wer kann´s bestätigen :-), wer widerlegt es? :-(

 

jauu

Calvin

 

 

 

*Intelligenz statt dicker Worte!* :-) Calvin&Hobbes

 

Diesen Beitrag teilen


Link zum Beitrag

Gude!

 

Also, nach dem FiFo wird das Signal ja Reclockt. D.h. der Jitter, der von der sendenden Quelle erzeugt wird, ist (unter der Vorraussetzung, dass eine bitidentische Übertragung vorgenommen wurde (und wenn nicht, hat der Jitter ja zugeschlagen) im FiFo nicht vorhanden. Der FiFo ist ja ein (im Prinzip) statischer Speicher, der im Takt des Quartz' des D/A-Wandlers ausgelesen wird. Nix mehr sendende Quelle. Im Prinzip ist das wie bei einem (guten) DVD-Spieler mit Speicher, wenn ein layerwechsel vorgenommen wird, oder ein Discman mit Anti-Schock: Die Daten werden übertragen (da kann Jitter Fehler erzeugen), und danach im FiFo gespeichert, ausgelesen und überschrieben, und weiterverarbeitet (letzteres im D/A-Chip selbst). Deshalb benötigt man auch keinen FiFo, der die gesamten Speichermenge aufnehmen kann

 

>und vom Spektrum der Jitterfunktion hängen die Auswirkungen

>auf das Originalsignal ab, ein wirklich zufälliger Jitter

>wird Auswirkungen auf das Rauschverhalten haben, eine

>sinusförmige jitterfunktion wird zu Seitenbändern führen;

>wäre die Jitterfunktion auf irgendeine Weise mit den Daten

>korreliert, ist denkbar, das die Auswirkungen schlimmer

>sind, als bei Nichtkorrelation etc.

 

Hm, ich verstehe jetzt wieder nicht was du meinst. Ich nehme aber an, dass (wenn man eine Häufigkeitsverteilung des Jitters macht) man so in etwa eine Normalverteilung bekommen würde (ach, ich find' den zentralen Grenzwertsatz einfach Klasse!), vielleicht bei einer weniger grossen Stichprobe 'ne Lognormalverteilung oder ähnliches. Warum das ein Sinus sein soll, kann ich nicht nachvollziehen, wir unterhalten uns ja nicht über den Verlauf der Spannung, sondern über die Zeitpunkte (bzw. die Differenz zweier aufeinanderfolgender, und davon die Differenz vom 'Soll'), an denen das Signal von 0 nach 1 bzw. umgekehrt wechselt (wobei man das wegen der Flanken nie so genau messen kann, aber diese Flanken können ja auch ein Grund von Jitter sein).

 

Gruß Kobe

(naja, mit 2 Kopfschmerztabletten geht's so)

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Kobe,

 

>(naja, mit 2 Kopfschmerztabletten geht's so)

 

mein Mitgefühl hast Du, bin selbst migränegeplagt (zum Glück aber nicht heute).

 

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

wenn Sender und Empfänger, wie von uns konstatiert mit hoher Wahrscheinlichkeit unterschiedliche Taktfrequenzen aufweisen ( wegen endlicher Genauigkeit etc) dann besteht eben die Gefahr, das der Speicher entweder leer- oder überläuft; also wird man zwangsläufig eine Kopplung der Takte vornehmen müssen, diese kann stärker oder schwächer ausfallen, bedeutet aber die Gefahr, daß eben der Jitter doch wieder relevant wird.

 

>Hm, ich verstehe jetzt wieder nicht was du meinst. Ich nehme

>aber an, dass (wenn man eine Häufigkeitsverteilung des

>Jitters macht) man so in etwa eine Normalverteilung bekommen

>würde (ach, ich find' den zentralen Grenzwertsatz einfach

>Klasse!), vielleicht bei einer weniger grossen Stichprobe

>'ne Lognormalverteilung oder ähnliches. Warum das ein Sinus

>sein soll, kann ich nicht nachvollziehen, wir unterhalten

>uns ja nicht über den Verlauf der Spannung, sondern über die

>Zeitpunkte (bzw. die Differenz zweier aufeinanderfolgender,

>und davon die Differenz vom 'Soll'), an denen das Signal von

>0 nach 1 bzw. umgekehrt wechselt (wobei man das wegen der

>Flanken nie so genau messen kann, aber diese Flanken können

>ja auch ein Grund von Jitter sein).

Annehmen darf man eine Normalverteilung durchaus und hätte dann auch ein Beispiel für eine zufälige Jitterfunktion, die ( in Abhängigkeit von der Amplitude der zeitlichen Abweichung) sich in einer Erhöhung des Rauschens bemerkbar machen würde.

Auch wenn es überrascht, Sinusfunktionen sind nicht für die Beschreibung eines Spannungsverlaufes reserviert:-))

Auch die Amlitude der zeitlichen Abweichung kann einer Sinusfunktion folgen, woher diese kommen mag, ist eine völlig andere Diskussion, hier sollte sie nur als Beispiel dafür dienen, daß eine andere Jitterfunktion zu anderen Auswirkungen führt als eine zufällige jitterfunktion.

Grüße

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Calvin,

 

>- aufgrund der Geringfügigkeit der möglichen Abweichungen

>kann die klangliche Änderung nur sehr sehr subtiler Natur

>sein

Allein hier würde ich Zweifel anmelden, weil die Geringfügigkeit nicht ohne weiteres bestätigt werden kann. Die möglichen Auswirkungen hängen von der Amplitude der Jitterfunktion ab, wenn nicht zufälliger Natur ist, sind die Auswirkungen andere als bei zufälliger und nicht zuletzt ist der Grad der Auswirkung von den Signalpegeln abhängig (sofern wir von einer linearen Quantisierung ausgehen)

Grüße

 

Diesen Beitrag teilen


Link zum Beitrag

Hi,

>Halt, halt, halt. Das wäre mir neu, allerdings muß ich mich

>auch damit outen, daß ich nicht den Hauch einer Ahnung davon

>habe, wie das Re-clocking in der Praxis funktioniert. Ist es

>also so, daß durch die Synkronisation der Jitter quasi

>übertragen wird? Kann mal jemand kundiges was *konkretes*

>dazu schreiben?

Höre ich hier etwa Zweifel an meiner Kundigkeit heraus?}>

Grüße

 

Diesen Beitrag teilen


Link zum Beitrag

>Höre ich hier etwa Zweifel an meiner Kundigkeit heraus?}>

 

Ich kenne ja deinen technischen Hintergrund nicht. (Entweder hast du dich noch nicht geoutet oder ich habe es nicht mitbekommen.) Und viel erzählen wenn der Tag lang ist kann jeder, wie man ja an meinen Beiträgen sehen kann :+

 

Die Sommerfee

 

"Wenn man alles auf physikalische Gesetzmäßigkeiten zurückführen würde, wäre das eine Abbildung mit inadäquaten Mitteln, so als ob man eine Beethoven-Symphonie als Luftdruckkurve darstellte." (Albert Einstein)

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Jakob,

 

der Jitter bedeutet doch, daß die Stromquellen im D/A-Wandler entweder ein wenig zu früh, oder zu spät geschaltet-abgeschaltet werden, oder?

Daraus ergibt sich dann nach der analogen Filterung ein Signal, das vom gewünschten Signal abweichen kann!

Bei einer fehlerfreien digitalen Übertragung aber beträgt der Jitter nur wenige Pikosekunden (er ist ja im Jitter-Budget vorgegeben als die Zeit, die notwendig ist um 1Bit zu übertragen!), der D/A-Wandler aber mit der Wordclock getaktet wird, dann kann die Auswirkung auf das Signal nicht dramatisch sein, da der Jitter bezogen auf die Wordclock ja eine annähernd proportional der Wertigkeit (z.B. 20Bit) geringere Amplitude (durch Mittelung) haben müsste!? Folge: Die klanglichen Auswirkungen sind -wenn überhaupt vorhanden- nur sehr subtiler Natur. Alles andere würde auf eine nicht fehlerfreie Übertragung (keine Bit-Identität) hindeuten :-(

Ist das so korrekt gefolgert?

 

 

jauu

Calvin

 

 

 

 

 

*Intelligenz statt dicker Worte!* :-) Calvin&Hobbes

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Calvin,

>der Jitter bedeutet doch, daß die Stromquellen im

>D/A-Wandler entweder ein wenig zu früh, oder zu spät

>geschaltet-abgeschaltet werden, oder?

Wenn der Wandler so arbeitet- ja!, aber eben nicht immer gleich zu früh oder zu spät.

>Daraus ergibt sich dann nach der analogen Filterung ein

>Signal, das vom gewünschten Signal abweichen kann!

>Bei einer fehlerfreien digitalen Übertragung aber beträgt

>der Jitter nur wenige Pikosekunden (er ist ja im

>Jitter-Budget vorgegeben als die Zeit, die notwendig ist um

>1Bit zu übertragen!), der D/A-Wandler aber mit der Wordclock

>getaktet wird, dann kann die Auswirkung auf das Signal nicht

>dramatisch sein, da der Jitter bezogen auf die Wordclock ja

>eine annähernd proportional der Wertigkeit (z.B. 20Bit)

>geringere Amplitude (durch Mittelung) haben müsste!?

In diesem Beispiel würde es sich um einen Jitter des Bittaktes handeln, der für sich genommen solange auswirkungslos bleibt, solange er die Toleranzgrenze für die Übertragung nicht überschreitet.

Aber eine Jitter des Wordtaktes z.B. kann erheblich größere Auswirkungen haben. Nocheinmal zur Erläuterung, die Technik basiert darauf, daß einem zu digitalisierenden Signal in einer kontinuierlichen Folge in exakt gleichen ZEITABSTÄNDEN Proben entnommen werden ( unter bestimmten Randbedingungen etc.) und die Rekonstruktion ist nur dann erfolgreich, wenn diese entnommenen Proben mit der korrekten Amplitude und in wiederum exakt den GLEICHEN Zeitabständen aneinander gereiht werden.

Welche Auswirkungen, Abweichungen haben, hängt eben von der Art der Abweichungen ab.

Unterschiedliche Wandlerentwürfe werden unterschiedlich stark auf Jittereffekte reagieren, gleiches wird auch für die Geräte in Ihrer Gesamtheit gelten.

Es ging mir von Anfang an nur darum, darauf hinzuweisen, daß eine Bitidentität vor der D/A-Wandlung eben keine hinreichende Begründung für Klangidentität nach der D/A-WAndlung ist.

Für eine eingehendere Diskussion wäre vielleicht ein eigener Thread hilfreich, wie schnell man dabei auf der Ebene unterschiedlicher Wandlertopologien etc. anlangt, ist ein Hinweis auf die Komplexität des Themas.

Folge:

>Die klanglichen Auswirkungen sind -wenn überhaupt vorhanden-

>nur sehr subtiler Natur. Alles andere würde auf eine nicht

>fehlerfreie Übertragung (keine Bit-Identität) hindeuten :-(

>Ist das so korrekt gefolgert?

Sofern Du nur den Bittakt betrachtest, würde, unter der oben angeführten Prämisse, gar keine Beeinflussung erfolgen.

 

Grüße

 

Diesen Beitrag teilen


Link zum Beitrag

LETZTE BEARBEITUNG am: 12-Jul-02 UM 16:04 Uhr (GMT) [p]

 

Vorab ein kleines Bonbon für alle Realos, gefunden in einem Leserbrief im jüngsten Heft von Image Hifi. Da steht sinngemäß folgendes: Wenn A behauptet, etwas zu hören, und B behauptet, nichts zu hören, dann muß die Erklärung für diesen Widerspruch nicht unbedingt das unbrauchbare Gehör von B zu sein (häufiges Goldöhrchenargument!), sondern kann ebensogut eine Gehirnstörung von A sein, ausgelöst durch Suggestion oder Autosuggestion, durch drogenbedingte Haluzis oder gar Schizophrenie. Eventuell lügt A auch einfach, z.B. um zur Szene dazu zu gehören, sich wichtig zu machen oder sonstige Vorteile für sich zu erzielen. (Wenn A ein Anbieter ist, dann ist die letzte Möglichkeit äußerst naheliegend! Anm. d. Verf.) Ist doch nett, oder? Nun brauchen wir Realos uns doch nicht mehr wegen unserer ungewaschenen Ohren zu schämen.

 

Nun zum vorstehenden von Jochenberlin im Internet gefundenen Beitrag. Auf die polemischen, unsachlichen, unfairen und aggressiven Details möchte ich hier nicht eingehen, das lohnt nicht. Der Autor wählt hier letztlich den gleichen Stil, den er seinen angeblichen "Gegnern" vorwirft und diskreditiert sich so selbst.

 

Mir geht es hier darum, klar zu stellen, welche generelle „Logik“ bzw. „Absicht“ hinter der gesamten Argumentation steckt, nämlich die systematische Abschottung gegen jede Art der Überprüfbarkeit und Kontrolle, indem als ausreichender Beweis für die Richtigkeit von Hypothesen die Behauptung irgendwelcher individueller Wahrnehmungen gesetzt wird.

Um der Argumentation das erforderliche Gewicht zu verleihen, werden den wahrnehmenden Individuen besondere Fähigkeiten zugeschrieben, die alle, die diese Wahrnehmungen nicht bestätigen, eben nicht haben: Es wird die Fiktion einer besonderen Elite aufgebaut.

Der nächste Schritt, um die nicht mit diesen Ausnahmefähigkeiten ausgestatteten zu diskriminieren und so ihre Gegenargumentation zu disqualifizieren, besteht darin, die Mitglieder der Elite als „Wissende“ zu bezeichnen, obwohl ja gerade diese nicht „wissen“, sondern bestenfalls nur glauben, etwas zu wissen. Insofern sind die Begriffe „VooDoo“, Esoterik“ usw., gegen die der Autor sich so vehement wehrt, durchaus angebracht: Auch hier bezeichnen sich "Eingeweihte" gern als „Wissende".

Weiter wird behauptet, die in Frage stehenden Phänomene seien von einer solchen subtilen Feinheit, daß eine Überprüfung unter kontrollierbaren Bedingungen -meinetwegen DBT oder ähnliches- nicht möglich sei, weil der Testaufbau bereits die Ergebnisse signifikant verfälsche. (Trivialform der Heisenbergschen Unschärferelation oder was?) Außerdem führe die enorme Stressbelastung, die bei den Hörern in dieser Testsituation entstehe, zu einem drastisch geminderten Rezeptionsvermögen für eben diese feinsten Nuancen.

Wenn es sich wirklich um kleinste Nuancen handelte, dann würde ich über dieses Argument ja u.U. noch nachdenken. Da aber gleichzeitig immer großspurig von „enormen“ und „unmittelbar hörbaren" Veränderungen gesprochen wird, die die Produkte auf geheimnisvolle Art bewirken sollen, handelt es sich dabei offensichtlich auch nur um eine weitere Schutzbehauptung, um die Abschottung zu verstärken.

 

Es erscheint angebracht, kurz „Wissen“ und „Glauben“ gegeneinander abzugrenzen. Ich will und kann hier keine philosophische Diskussion darüber aufziehen, ob man überhaupt etwas wissen kann, und, wenn ja, was. Dazu sind der Platz und mein „Wissen“ schlicht nicht ausreichend. Als pragmatische Konzeption, um im wissenschaftlichen und sonstigen Leben zu gemeinsam akzeptierten Fakten zu kommen, um also überhaupt eine intersubjektiv definierbare und allgemeingültige "Wissens"-Basis für Theorie und Praxis bilden zu können, scheint mir der Poppersche Ansatz sehr brauchbar zu sein. Kurz zusammengefaßt: 1) Eine Hypothese gilt solange als wahr, bis sie falsifiziert, also widerlegt wird. 2) Eine einzige Widerlegung genügt, um eine Hypothese zu falsifizieren, ihr also ein für alle mal den Wahrheitsanspruch zu entziehen. 3) Die Widerlegung muß wiederholbar und durch Dritte nachvollziehbar sein. 4) Eine Hypothese kann nur Wahrheitscharakter für sich beanspruchen, wenn sie von ihrer Struktur her grundsätzlich widerlegbar ist. 5) Die Verifizierung -der Beweis der Wahrheit- von Hypothesen ist prinzipiell unmöglich.

 

Was diesen Ansprüchen nicht genügt, gehört nicht in den Bereich des Wissens, sondern des Glaubens, was -bitte- völlig wertfrei zu verstehen ist: jeder soll nach seiner Fasson selig werde. Nichts liegt mir ferner, als Glauben einen geringeren Wert als Wissen zuzumessen!

 

Leider hat die Sache mit dem Glauben einen dicken Haken: jeder kann prinzipiell den größten Unfug behaupten und dafür mit fadenscheinigsten „Beweisen“ „Wahrheit“ beanspruchen. Es müßte also eigentlich das erklärte Ziel jeder Marketingstrategie sein, hinsichtlich der Eigenschaften des beworbenen Produktes möglichst rasch aus der Gefahrenzone rationaler, objektiver Vergleichbarkeit heraus- und in diesen von Subjektivismen und Emotionalitäten dominierten Bereich hineinzukommen. Ein Blick in die Werbung zeigt, daß das auch systematisch und konsequent gemacht wird.

Wenn ein Anbieter auf dieser Schiene zu fahren versucht, dann habe ich dafür sogar volles Verständnis. Nur wenn von Verbrauchern die in diesem Zusammenhang vorgetragenen Argumente übernommen und „gläubig“ als „Wissen“ heruntergebetet werden, dann fällt mir die Kinnlade runter: Nur die allerdümmsten Kälber, suchen sich den Metzger selber! Vor allem, wenn der Metzger fürs Schlachten dem dummen Kälbchen sogar vorher noch viel Geld abnimmt, wie z.B. für den Animator!

 

Fazit: Jedes Goldöhrchen mag an seine edlen Sinnesorganen glauben, soll aber doch bitte, bitte so fair sein, zuzugeben, daß, auch wenn noch viele Glaubensgenossen seine angeblichen Wahrnehmungen bestätigen, dies bedeutungslos für die Frage der Wahrheit der beobachteten oder behaupteten Phänomene ist: es gibt keine „Wahrheitsbeweise“, sondern nur „Falschheitsnachweise“ und die setzen nunmal intersubjektive Überprüfbarkeit unter kontrollierten Bedingungen (Wiederholbarkeit!) zum Zwecke der Widerlegung der betreffenden Behauptung voraus. Wer anders argumentiert, weiß es entweder nicht besser oder handelt wider bessers Wissen vorsätzlich und dann meistens, um sich persönliche Vorteile zu verschaffen.

 

Skeptix

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Skeptix,

 

nach der Lektüre Deiner Philippika habe ich den Eindruck, daß Du nur in einer Richtung skeptisch bist, also Deinem Nick nicht voll gerecht wirst.

Mit Wahrheitsmonopolen habe ich aus historisch-geographischen Gründen meine Probleme. Entsprechende "wissenschaftliche" Begründungen wurden früher auch hier geliefert. Geendet hats bekanntlich im Fiasko.

 

Für mich wird es nur problematisch, wenn einer der Größte sein will (wovon Du Dich ausdrücklich distanziert hast). Dann schwillt mir der Kamm, egal aus welcher Ecke der Beitrag kommt. Das hängt ebenfalls mit den hiesigen historischen Erfahrungen zusammen.

 

Gruß

 

Micha L

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Micha L,

 

Genau! Wahrheitsmonopolisten sind das letzte! Gerade deshalb gefällt mir eigentlich der Popperansatz so gut, weil er eben keine "beweisbaren", absoluten Wahrheiten zuläßt, sondern nur relative "Wahrheiten auf Zeit", nämlich bis zur allfälligen Widerlegung, also "Wahrheit" oder "wissen" quasi als pragmatische Konvention.

Außerdem wertet er nicht andere "Wahrheiten" ab, zum Beispiel, wenn sie auf Glauben beruhen. Er sagt nur, sie sind dann eben nicht "wissenschaftlich" im Sinne rational sinnvoller Diskussionen.

 

Insofern versteh´ich nicht so ganz, was Du sagen willst.

 

So long, Skeptix

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Skeptix,

 

wie gesagt glaubte ich Skepsis nur in einer Richtung zu erkennen. Deiner Klarstellung entnehme ich, daß dem nicht so ist.

 

Gruß

 

Micha L

 

Diesen Beitrag teilen


Link zum Beitrag

Hi,

 

überleg doch mal wirklich, ob Du nicht mit diesem Thema einen neuen Bereich öffnen willst. Wert wäre es allemal!

Grüße

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Jakob,

 

>>Übrigens, auch DBTs sind nicht immun gegenüber subjektiven Verfälschungen.

 

Hm, das verstehe ich nicht? Kannst Du mir ein Beispiel nennen, wo ein DBT durch das Subjekt "verfälscht" wird? Es ist doch gerade das Konzept des DBT, dass man möglichen subjektiven bias durch die Blindung z.T. ausschaltet (ein Accuphase klingt dann nicht zwingend ob des schönen Gehäuses und des ehrfurchteinflössenden Preises besser als ein Denon...) oder aber erratisch verteilt....

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Audiomapler,

 

meine ersten Erfahrungen mit dem Audio Animator.

 

Meine Testkette:

 

Vorstufe: Sehring SPA50

Phonovorstufe: Sovereign Phono Module

Endstufen: 2x Sehring SA50 (mono)

Phono: Thorens 166-BC, Rega RB-300 mod.

Tonabnehmer: Phonosophie Ciave Spezial

CD-Laufwerk: Parasound CDP-1000 mod.

D/A Wandler: dpa DX32 "Bigger Bit" mod.

Lautsprecher: Physical Art "Artist", Dali Skyline 1000

Kabel: Kimber, SAC, Sun Audio, Ortophon

Rack: Selbstbau a la Phonosophie "Tripod"

 

 

 

Ausgangslage:

 

Alle Geräte auf Betriebstemperatur.

Keine Geräte/Kabel "eingebrannt" oder sowas!

 

 

 

 

Tag 1:

Zuerst habe ich ca. 4 Stunden normal ohne "AA" gehört. Fast alle Musikrichtungen, Aufnahmequalität unterschiedlich von "Schlecht" bis "überragend" (Quellen: Vinyl & CD).

 

 

Tag 2:

Zuerst 1,5 Stunden normal ohne "AA". (Wieder verschiedene Musikrichtungen)

AA aus der Gefriertruhe geholt! (Eiskalte Finger!!!)

Zuerst nur CD-LW und DAC mit dem AA nach Anleitung behandelt.

Wieder 1,5 Stunden Musik gehört. (2 CD´s)

Mein Fazit Tag 2: bis jetzt, kein Klangunterschied verifizierbar!

 

 

Tag 3:

2 Stunden CD ohne AA"eingehört". Komplette Elektronik (außer Plattenspieler und Kabel) mit AA behandelt.

1 Stunde Musik gehört.

Bis jetzt: keine Unterschied zu vorher!

Jetzt komplette Kette behandelt! (Alle Geräte inkl. aller Kabel!)

Ca. 1,5 Std. gehört.

Mein Fazit Tag 3: kein Klangunterschied feststellbar!

 

 

 

 

Tag 4:

Jetzt Vinyl: 2 Stunden "Eingehört" ohne AA. Dann komplette Kette inkl. aller Kabel mit AA behandelt (sogar Plattenwaschmasch*gg* und Platte!)

1 Stunde gehört.

Mein Fazit Tag 4: leichter Klangunterschied feststellbar! (Was ich aber nicht dem AA zurechne, sondern eher dem "Wochenendstrom-Effekt" da heut Sonntag.

 

 

Zwischenfazit: Sieht so aus, als sei der Audio Animator entweder wirkungslos, oder nicht mit meine Anlage kompatibel.

Habe immer noch kalte Finger!!!

 

 

Ich werde den AA jetzt noch 1 Woche an einer gänzlich anderen Kette bei und mit einem Freund ausprobieren, und denke daß ich dann ein Urteil abgeben kann.

 

 

Wie´s jetzt aussieht! Sorry Ingo...

 

;-) gruss

 

Thomas

 

p.s Ähhh, sorry Leute muss hier weg, gleich kommen die Technos, die es sowiso schon immer wussten!

 

 

Diesen Beitrag teilen


Link zum Beitrag

LETZTE BEARBEITUNG am: 15-Jul-02 UM 11:55 Uhr (GMT) [p]Hi Rob,

 

ich hatte weiter oben schon mal etwas dazu geschrieben und kopiere der Einfachheit halber den Absatz.

"Als Techniker fühlt man sich der Objektivität verpflichtet und deswegen erscheint der DBT so symphatisch:-)

Allerdings "täuscht" der DBT nicht zuletzt durch die komplexe Mathematik eine Objektivität vor, die nicht in allen Punkten gegeben ist. Nur wissenschaftliches (logisches) Denken, oder wenn man so will, auch der gesunde Menschenverstand, kann bei der Beurteilung helfen, ob das gewählte Testverfahren innerhalb des DBTs überhaupt geeignet war und ob der DBT als solcher eine Beeinflussung darstellen kann. Und genau an dieser Stelle ist auch der DBT der Gefahr ausgesetzt, durch subjektive Faktoren entwertet zu werden."

Hinzu fügen könnte man, daß erhebliche Sorgfalt aufzuwenden ist, um überhaupt eine geeignete Hypothese zu formulieren, die getestet werden soll. Die Auswahl der Versuchspersonen bietet ebenfalls Raum für Einflußmöglichkeiten und nicht zuletzt die eigentliche Auswertung.

Die Wissenschaftsgeschichte ist darüberhinaus ja reich gesegnet an Beispielen, bei denen auch mutwillige Datenfälschungen hinzukamen.

Soll heißen, nicht das Subjekt des Tests verfälscht diesen, sondern während der Testentwicklung und Durchführung kommen zwangsläufig subjektive Faktoren ins Spiel.

Es schien mir, daß häufig, sobald der Hinweis kam, etwas sei in einem DBT getestet worden, alle sich beruhigt zurücklehnen in dem Glauben, damit allein sei die Objektivität schon gesichert.

Grüße

 

 

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...