Jump to content
HiFi Heimkino Forum
Melde dich an, um diesem Inhalt zu folgen  
lenz

Zur diskussion

Recommended Posts

Hallo Freaks

Viele Artikel in diesem Forum beschäftigen sich mit der Frage ob dieses oder jenes noch wahrnehmbar und wenn ja,wie und so weiter und sofort.

Dazu möchte ich einen kleinen Ausflug,weg von der Akustik, in die

Optik unternehmen.

Jeder kennnt von seinem PC die Bildschirmeinstellung "True-Color"

32 Bit.Neulich habe ich mich mit einem Prof des Fraunhofer-Inst.

unterhalten und er hat mir erzählt.daß es bisher noch nie einem Probanden gelungen sei,mehr als eine Auflösung von 22 Bit zu unter= scheiden.Wohlgemerkt,eine Farbnuance neben der anderen,ohne Trennbalken o.ä.

Waren dicke,schwarze oder auch irgentwie anders gestaltete Trennungen

dazwischen,sank die Rate auf etwas über 20 Bit.

Was ich damit sagen will: obwohl das Ohr m.E. empfindlicher reagiert als das Auge,so scheint mir doch,daß eine gewisse Parallelität gegeben ist.

Die Frage ist:kann ein menschliches Ohr den Unterschied zwischen

24 und 20 Bit Auflösung heraushören oder nicht.

Und hiermit stelle ich die ketzerische These auf,wenn nicht,dann kann er auch nicht die Unterschiede verschiedener verwendeter Kabel, jedweder Art unterscheiden,es sei denn es ließe sich meßtechnisch nachweisen.

Bitte jetzt keine Metamorphosischen Antworten,nur Fakten zählen.

Gruß

Lenz

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo Lenz,

 

obwohl ich mich nicht als Freak bezeichnen würde ;-) trotzdem was zum Thema:

 

In der aktuellen "Stereoplay" ist ein Artikel über das Gehör drin, der Deine Vermutung nicht bestätigt. Die Augen besitzen demzufolge 30.000 Mal mehr Empangszellen als das Gehör und sind daher "empfindlicher".

Allerdings steht in dem Artikel auch, dass die Verarbeitung von Tönen Empfindungen hervorrufen und Bilder im Kopf entstehen lassen bzw. die Phantasie anregen!!!

 

Ich will jetz nicht den ganzen Artikel abtippen. Ist aber bestimmt für Viele interessant. Außerdem sorgt er sicher auch wieder für viel Diskussionsstoff bezüglich Kabel, Racks etc. Das Ergebnis ist IMHO nämlich auch wieder extrem auslegungsfähig ;-)

 

Gruß

Kaesmaen

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Lenz!

 

8 Bit rot

8 Bit grün

8 Bit Blau

Macht in Summe 24 bit.

 

Die Differenz auf 32Bit, immerhin weitere 8 Bit, sollte wohl der "Key" sein?? Der "Key" ist enorm wichtig! Weil "Video" eben KEINE "Farbkontraste" kann... nur Helligkeits"kontraste". (Die unterschiedliche Bandbreite ist der Hemmschuh!)

 

Und mittels "Key" lassen sich Einblendungen LANGSAM durchführen.... gerade so schnell, damit es die gegebene Technik noch verkraftet.

------------------------------------------------------------------

 

Frauenhofer und Farbnuancen.......

 

Klar! Das Auge kann nicht mehr als 3 * 8 Bit auflösen.... auf der Farbebene..... und betrachtet auf einem hochwertigen RGB Monitor, der die 24 Farb-Bit auch umsetzen kann.

Bei echten Graustufen bleiben aber nur 8 Bit übrig. Diese 256 Graustufen sind aber schon unterscheidbar. ( manchmal..... *lol*) Weil eben bei "Video" die Helligkeitauflösung etwas besser ist.

 

-----------------------------------------------------------------

 

Das Ohr ist mit 8 Bit eindeutig unterfordert! (Wie das Auge mit 8 Bit Helligkeit???? Damit hast Du deine Parallelität!)). Das Ohr fordert mehr. 16 Bit sind (waren) praktisch einfach umsetzbar.... denn es macht gerade 2 ´Wörter´..... und ergibt eine nette Dynamik. (96 DB???)

 

-------------------------------------------------------------------

Du fragst:

kann ein menschliches Ohr den Unterschied zwischen

24 und 20 Bit Auflösung heraushören oder nicht.

Ich meine :

NEVER!!!!

 

Gruß, maha

 

PS: Meine Videokenntnisse wurden innerhalb einer kurzen Zeitspanne hart erarbeitet..... und das ist auch schon 7-8 Jahre her.

 

 

 

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Kaesmaen

Mit Empfindlichkeit war nicht die Anzahl der Nervenzellen gemeint,sondern ,wie soll ich es ausdrücken,die Empfindsamkeit.

Beispiel:ein Fernseher,super scharfes Bild und dennoch wird das Auge betrogen,daß sich die Balken biegen.Die "Bildschärfe" entpuppt sich bei genauerer Betrachtung,auf den Audiobereich bezogen,höchstens als Telefonstimme.Von der Bildwechselfrequenz will ich garnicht reden.

Ich bin nur im Glauben,daß sich das Auge leichter "bescheißen" läßt,als das Ohr.

Gruß

Lenz

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Kaesmaen,

 

ich denke, die vollkommen sinnfreien Spekulationen über "Auge vs. Ohr" der Stereoplay passen gut zu dem sonstigen Blödsinn, der da so verbrochen wird.

Die Anzahl macht es ja nun gar nicht. Schallwellen und elektromagnetische Wellen sind schon einmal was vollkommen anderes, ausserdem ist die Art, wie die Sinneszellen im Ohr verschaltet sind, vollkommen anders. Viel interessanter ist es da, z.B. zu wissen, dass die Schwellenempfindlichkeit des menschlichen Gehörs nicht wahnsinnig weit davon entfernt ist, die Brownsche Molekularbewegung der Umgebungsluft als permanentes Rauschen wahrzunehmen. Gleichzeitig ist der Abstand zwischen maximalem Pegel, den das Ohr verarbeiten kann und minimalem Pegel extrem hoch; meines Wissens um Zehnerpotenzen höher als beim Gesichtssinn...

Nichts desto trotz sind a l l e n menschlichen Sinnen viel engere Grenzen gesetzt, als die meisten "Highender" wahr haben wollen... Bei Graustufen sieht es noch elender als bei Farben aus; selbst bestens auf die Differenzierung trainierte Radiologen schaffen deutlich weniger als 256 ;-)

 

Diesen Beitrag teilen


Link zum Beitrag

Hi maha,

 

>>Du fragst:

kann ein menschliches Ohr den Unterschied zwischen

24 und 20 Bit Auflösung heraushören oder nicht.

Ich meine :

NEVER!!!!

 

Vollkommene Zustimmung - wobei die Dynamik des menschlichen Gehörs durchaus mehr als 16 bit fordert und mit 20 bit bestens bedient ist - ich kenne allerdings kein natürliches Instrument, welches eine solche Dynamik hat; insofern bin ich mit 16 bit/CD mehr als glücklich und empfinde die Diskussion als hochakademisch ;-).

 

Diesen Beitrag teilen


Link zum Beitrag

Hallo

 

Die Frage ist doch wie weit das kopierte Signal von der Realitaet entfernt ist. Jeder wird den Computermonitor mit spielericher Leichtigkeit von einer Kinoleinwand (incl. Film) oder einer Aussichtsplattform an der Mosel unterscheiden.

Wieviel Bit liegen nun zwischen Realitaet und Kopie?

Wenn wir das nicht unterscheiden koennten wuerde keiner mehr den Unterschied zwischen Kino und Fernseher unterscheiden koennen.

Realistisch waere ein Konzert z.B. in Bit´s umzurechnen um die Menge zu kennen die fuer ein Liveerlebniss noetig ist.

Bei den High Endern ist das ja so das man glaubt nicht weit vom Orginal entfernt zu sein, das ist bei visuellen Geraeten ja nicht der Fall. Das der Mensch Toene ueber 20kHz nicht empfinden kann gehoert aber in das Reich der Maerchen.

 

Gruesse Marc

 

Diesen Beitrag teilen


Link zum Beitrag

Hi Rob,

 

wo ihr gerade so interessante Themen diskutiert - hast Du eine für einen interessierten Laien verständliche Quelle zum Residualhören?

 

Diesen Beitrag teilen


Link zum Beitrag

Bitte anmelden um Kommentare abgeben zu können

Nachdem du dich angemeldet hast kannst du Kommentare hinterlassen



Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...