Ergänzung:

Von Bienenteppichen, Heuschreckenclustern und was das mit Sehen für Blinde zu tun hat

4 Quadranten - Stereophonie......

An sich klar einleuchtend ist, daß im Interesse eines anwenderfreundlichen Systems mit fast sofortiger Nutzungsmöglichkeit die Phänomene eines längst bekannten üblichen virtuellen "Hörraumes" sinnvoll genutzt werden sollten. Technisch heißt das analog niederfrequenzseitig sind für diese 4 Quadranten - Stereophonie vier NF-Kanäle notwendig,- ähnlich den "Surround-Stereophonie" Techniken. Aber mit dem Unterschied, daß die links/rechts Kanäle durch oben/unten Kanäle aufgespalten werden. So können Klangereignisse regelrecht in einem virtuellen Hörraum plaziert werden. Im Fall von Musik könnte so etwa der Sitz eines Solisten im Orchester lokalisiert werden. Dazu ist lediglich das entsprechende Amplitudenverhältnis der 4 NF-Kanäle notwendig. Es scheint, daß Entfernungsabschätzungen beim Menschen im Gehirn interpretiert werden und nicht als technische Parameter weitergegeben werden.

Natürlich braucht es für ein solches abgewandeltes Stereoverfahren spezielle Kopfhörer mit zwei Lautsprechersystemen pro Hörmuschel in übereinanderliegender Anordnung.

Eine solche Stereo NF-Struktur bietet sich natürlich für das oben beschriebene DSS- Verfahren hervorragend an. Der gewonnene analoge DSS-Signalstrang wird einfach auf alle vier NF-Kanäle verteilt, aber in den spezifischen Amplitudenverhältnissen. Diese ergeben sich direkt aus der absoluten Position der zweidimensionalen Bildpixel. Ähnlich der Ablenkplattenansteuerung beim Oszilloskop lassen sich so die DSS-Signale in einem "virtuellen Hörraum" plazieren.

3 D im virtuellen Hörraum.......

Ein stereoskopisches Kamerasystem liefert für nahe Objekte auf den Projektionsflächen leicht verschobene Bildstrukturen. Die analogen bzw. digitalen Signalsample weisen dann Gangunterschiede auf, deren Intensität ein Maß für die relative Entfernung bzw. Objektnähe ist. Ein schneller Algorithmus für Echtzeitmode wäre zB. etwa das Maß der Zeitdauer bis daß der relative Amplitudenwert des einen Videokanals vom anderen erreicht wird (genauer: Zeitdauer der Wiederkehr des Differenzials zweier benachbarter Sample-Bytes). So läßt sich eine analoge Stellgröße gewinnen, die über entsprechende Amplitudenerhöhung nahe Objekte im "virtuellen Hörraum" entsprechend lauter wiedergibt. Wie bereits im Hauptteil angeregt, bietet sich sinnvollerweise an, über Phasingeffekte diese Signalzüge zusätzlich zu markieren. Interessanterweise führt zu langes Phasing ("Delay-Zeit") zum "Doppelt Hören" und Choruseffekt genauso wie beim Sehen "Doppeltsehen" bei zu nahen Distanzen jedem bekannt ist.....

Die folgende Grafik zeigt die Impulsschemata, wobei das NF-Spektrum nicht als feinstreifige Bitsäule, sondern als analoger Wellenzug gezeichnet ist:

Der Sound: Sehen durch Hören............

Zu einem anschaulichen Verständnis, wie ein solches Verfahren Blinden so etwas wie "Sehen" ermöglichen kann, können folgende Vorstellungen hilfreich sein: Man denke sich die Umgebung zB. einen Weg mit Tausenden von summenden Bienen überzogen. Die Wiese daneben wäre etwa mit Tausenden summenden Hummeln überzogen. Eine im Schatten liegende Bordsteinkante könnte brummen wie eine Kiste voll Maikäfer. Die Laterne mitten im Weg wäre von einem zierzenden Heuschreckencluster überzogen usw.. Klar daß ein Blinder mit Übung so Wegverläufe bzw. Raumstrukturen hören könnte und niemals gegen die Laterne laufen würde, weil diese schon allein über ihre zunehmende Lautstärke "Kollisionsalarm" auslösen würde. Der Vergleich mit Insekten wurde hier bewußt gewählt, weil für dieses Verfahren ein Durchschlagen der Scann-Träger-Frequenzen erwartet werden kann und eine klangliche Ähnlichkeit naheliegt.

Das DSS- Verfahren liefert beim Drehen der Kamerasysteme für Objekte typische gleichförmige NF-Signale, nicht aber beim Schwenken der Kameras! Dann findet eine Frequenzveränderung statt, wobei aber das Signalmuster in seinen Zahlenverhältnissen erhalten bleibt. Der Oberflächeneindruck einer solchen "künstlichen" Klangkulisse wäre vermutlich ein sektional sphärisch wabernder Sound. Eine Nutzung dieser sonaren Möglichkeiten für Orientierungszwecke wird aber schnell das "Klangereignis" zweitrangig werden lassen.

Kanten sehen: In Bildern sind gerade Kannten nicht eine gedachte Knicklinie von Flächen sondern meist bildlich fein strukturiert, weil Reflektionen entstehen, Materialkrümmungswinkel eben doch nicht so vollendet sind usw. .Bei einer Transformation in Klänge bedeutet das natürlich die Freisetzung von krassen höheren Oberwellen die auch im virtuellen Hörraum tendenziell Flächenelemente akustisch "einrahmen" würden.

Noch eine naturgesetzliche Parallele....

Weitere Überlegungen zum DSS-Verfahren haben sich mit dem Zentrum des inneren Spiralscanns beschäftigt und die Natur zeigt erstaunliche Parallelen: Wenn ein "normal" sehender Mensch einen lichtschwachen Stern anfixiert, so kann er ihn nur dann wahrnehmen, wenn er "etwas daneben" blickt ! Das absolute innerste Sehzentrum ist also blind!!! Diese "Leerstelle" scheint nur so erklärbar, daß, wenn es sie nicht gäbe,- auch das menschliche Auge für eine durch das Zentrum gehende gesehene Linie keine im Spektrum harmonische symmetrische lineare Abtaststruktur bilden könnte (Eine Kammstruktur mit "gleichen Zinkenabständen" in Spektrum käme sonst nicht zu Stande)!

Das vermutete Postulat der Natur im Auge und auch des DSS-Verfahrens ist die Konstanz der "Pixeldichte" in jedem Scannring. Im menschliche Gehirn sind es natürlich sehr viele Nervenbahnen - nicht eine, die die Impulse weiterleiten. Aber diese vielen parallelen Impulse werden mit Sicherheit als Matrize weiterverknüpft und diese lassen sich neuronal und funktional sinnig nur verschieben, wenn oben genanntes Postulat zutrifft. Womöglich geht dieses Prinzip so weit, daß zwei beieinanderliegende Pixel mit Zweien des benachbarten Rings ein Quadrat bilden müssen. Weil dies aber in der Fläche nicht geht, kommen wir wieder zurück auf die bekannte gewölbte Struktur der Netzhaut von Lebewesen. Ist die Erfordernis der radialen Gewölbtheit der Netzhaut womöglich nicht nur durch die Brennweite der Augenlinse bedingt?

Lesen durch Hören......

Weiteres Indiz für eine solche Naturgesetzlichkeit aus dem linguistischen Bereich scheint zu sein, daß Schrifttypen jeder natürlichen Schrift regelrecht immer um dieses innerste Zentrum "herumtanzen" und höchstens als Linienzug dieses durchqueren. Erstaunlicherweise hat die Menschheit zentrumsbasierte denkbare Schrifttypen wie etwa das "*"-Zeichen in ihrer langen Geschichte niemals kreiert und das hat eben einen tieferen strukturellen Grund! (Letzteres Zeichen und ähnliche sind Folge des Computerzeitalters und sind als "Krücke" entstanden, um die ASCII Zeichensätze "aufzufüllen" und die Buchstabenmatritzen vollzumachen).

Durch eine 4 Quadranten- Stereophonie würde Lesen sehr erleichtert. Wie beim optischen Lesen würden in diesem virtuellen Hörraum das zu interpretierende Zeichen in der "Bildmitte" stehen und wäre durch "schalltote Abstände" als Folge von Leerzeilen und Leerräumen zwischen den Buchstaben von dem übrigen Objektelementen separiert. Das DSS- Verfahren würde zur Buchstabenerkennung auch bei Drehen von Kameraobjektiven gleichbleibend spezifische Klangmuster liefern.....quod erat demonstandum! Das menschliche Gehirn kann mehr als Millionen Klangmuster identifizieren,- warum dann auch nicht die paar wenigen der üblichen Zeichensätze?! Dazu eine Grafik, die die resultierenden Wellenzüge für einige Buchstaben skizziert:

Natürlich wird auch das Problem eines "liegenden I" sichtbar. Aber:: Auch diese Wellenzüge stehen in einem Abstandsverhältnis der Nachbarbuchstabenmuster und damit in einem Bezug zum Oberwellenverhältnis dieser. Ist das also eben tatsächlich kein Problem?

Für die Realisierung der Hardware bietet sich natürlich die Verwendung eines 16 Bit -Mikroprozessors an, aber mit 8 Bit geht es auch. Absolut wichtig ist natürlich die Datenbusbreite der D/A-Wandler, weil sonst nicht eine hinreichende NF-Signaldynamik erzielt wird und das geht nur ab 12, besser 16 Bit

Eine solche Grobkonzeption basierend auf gängigen Kamera-CCD-Chips sähe etwa so aus:

 

 

 

 

 

 

Hardwarekonzeption: Akustische Sehfähigkeit für Blinde

 

Kopfhörer für 4- Quadranten - Stereophonie müssen natürlich 2 Schallwandlersysteme pro Seite aufweisen. die Links/Rechtstrennung ist bei Kopfhörern natürlich supergut, aber Ziel müßte es sein, auch für Oben/Unten eine gute Richtungsidentifizierung herzustellen. Möglicherweise sind mehr als 4 NF-Kanäle sinnvoll, weil die Schallzuleitung zum Ohr und die Schallausbreitung am Ohr ein möglicherweise zu umschiffendes Problem darstellen.

Die Verwendung von herkömmlichen CCD-Chips ist nur die Adaption dessen, was es eben gibt. Das Ideal wäre vermutlich ein spezieller CCD-Chip mit radialer Pixelanordnung und gegebenenfalls einer Ringadressierung, damit nicht durch Zuschnitt einer konventionellen rechteckigen Matrix auf "Rund" und Pixelinterpolation Auflösungsvermögen verschenkt wird. Davon träumen wir!

Oktober 2001

Bitte Meinungen, Anregungen und Anmerkungen zu diesem Beitrag an:

Kontakt /Email: reiner-trimborn.de@freenet.de