3D-Displays für Raumillusion ohne Sehhilfe

Computerholographisches Video und Volumendisplays sind faszinierende neue Technologien. Aber die Rot-Grün-, Polarisations- und Shutter-Brillen haben sich bis dato beim Anwender nicht durchgesetzt - bedeuten diese Prothesen doch meist Einbusen in Komfort und Bildqualität.

Die wichtigste Information für die Tiefenwahrnehmung liefert das Stereo-Sehen: die beiden Augen übermitteln dem Gehirn zwei verschiedene Ansichten derselben Szene. Entsprechend gilt umgekehrt bei der Wiedergabe: jedem Auge muß separat eine Ansicht präsentiert werden sei es mit Hilfe von Spiegeln oder, wie heute üblich, mit Farb-, Polarisations- oder Shutter-Brillen. Aber es funktioniert auch anders: "Autostereoskopische" Displays verzichten auf derartige Nasenreiter. Sie beschreiten andere Wege, um linkes und rechtes Bild in das jeweilige Auge zu leiten. Noch weiter gehen Computer-Holographie und Volumendisplays: Sie malen 3D-Bilder direkt in den Raum, ganz ohne stereoskopische Tricks. Zu den alten, aber weithin unbekannten Ideen zählt ein Verfahren, das Sanyo auf der dies- jährigen Funkausstellung vorgestellt hat unter der Bezeichnung 'Image Splitter'. Wenn Sanyo dafür auch ein Warenzeichen angemeldet hat, so ist dieses Verfahren seit Beginn unseres Jahrhunderts bekannt ein einziges Bild enthält die zwei Ansichten des Stereopaares: in möglichst schmalen senkrechten Streifen abwechselnd ein Stück von der linken Ansicht, dann von der rechten und so weiter. Eine Streifenmaske vor diesem Bild sorgt dafür, daß das linke und das rechte Auge des Betrachters nur die ihnen zugedachten Bildstreifen sehen wenn der Betrachter seinen Kopf in einer ganz bestimmten Entfernung vor der Maske hält. Für einen zweiten Betrachter ist kein Platz. Die drei von Sanyo auf der IFA vorgestellten Modelle dieser Art arbeiten mit LCDs (4,3 bis 10,4 ZoI1), auf denen die Links/Rechtsstreifen nur ein Pixel breit sind. Vor dem Schirm liegt ein fast mikroskopisch feines Gitter der Image Splitter. Dimension Technologies (DTI) hat bereits seit 1991 ein 3D-Display im Angebot, das dieses Prinzip in abgewandelter Form verwendet: Ein Farb-TFT-LCD zeigt das Bild für das linke Auge auf den Pixelspalten mit gerader Nummer, das Bild für das rechte Auge auf den ungeraden Spalten. Die raffinierte Hintergrundbeleuchtung aus 320 weißen parallelen senkrechten Linien macht eine lichtschluckende Streifenmaske überflüssig. Witz an der Sache: Das Display kann wahlweise als normales 2D-Display (640 Spalten x 480 Zeilen) als auch im 3D-Modus (320 Spalten) betrieben werden.
Die Variante der Firma Terumo (Split-Image Display) verwendet zwei TFT-LCDs zur Darstellung des Stereopaares. Ein Halbspiegel kombiniert die beiden Bilder und bewahrt so die volle Spaltenauflösung. Zwei zusätzliche monochrome LCDs sorgen für die Streifenbeleuchtung hinter den TFT-LCDs. Ein Tracking-System mißt die Kopfposition und reguliert die Sehzonen nach, indem es Bild-Displays und Streifen-Display gegeneinander verschiebt. Anstatt die Sicht auf eine Hälfte des Bildpaares mit einer Maske zu behindern, kann man die Sicht auch gezielt fördern: durch eine dichte Reihe vertikaler halbzylinderförmiger Linsen, welche die beiden Teilbilder genau ins entsprechende Auge lenken. Derartige Lentikularsysteme, für 3 D-Postkarten beliebt, sind seit 1908 bekannt. Das Prinzip Iäßt sich erweitern: schachtelt man mehr als zwei Ansichten als Bildstreifen ineinander, läßt sich das Bild aus verschieden Blickwinkeln betrachten (Parallax-Panoramagramm). Kodak und die weniger bekannte Firma Art bieten die Produktion solcher computerberechneter 3D-Hardcopies an. Displays auf Basis eines Lentikularsystems kommen von Sanyo und dem Heinrich-HertzInstitut Berlin (HHI). Beide Entwicklungen sind Rückprojektionssysteme. Bei der Sanyo-Entwicklung projizieren zwei LCDVideoprojektoren die Bilder für das linke und das rechte Auge auf eine Mattscheibe (40 Zoll Diagonale). Vor und hinter dieser Mattscheibe befinden sich Streifenlinsen ein Doppel-Lentikularsystem. Das rückwärtige Linsenraster zerlegt die beiden projizierten Bilder in Streifen, ein zweites Linsenraster auf der Vorderseite der Mattscheibe lenkt jeden Streifen in das entsprechende Auge des Betrachters. Um den 3D-Effekt wahrzunehmen, muß der Betrachter auch bei diesem Verfahren einen bestimmten Abstand genau einhalten (l m bei Sanyo). In diesem Abstand von der Mattscheibe haben die beiden Strahlenbündel genau Augenabstand. Das Linsenraster erzeugt aber anders als der Image Splitter für jeden Punkt der Mattscheibe mehrere Strahlenbündel und damit mehrere 'Stereofenster', so daß theoretisch mehrere Zuschauer nebeneinander vor dem Display sitzen können (derzeit praktisch nur zwei). Der Hersteller zielt mit dem Gerät auf Einsätze in Museen, 3D-Minikinos und für Videospiele. Anders als die Sanyo-Konstruktion ist das Display des HHI mit einem Head-TrackingSystem ausgestattet, das den Kopf des Betrachters verfolgt. Man hat außerdem noch einen Elektroluminiszenz-Flachbildschirm im Koffer, der ebenfalls mit dem Doppel-Lentikularverfahren arbeitet; er erreicht HDTV-Auflösung. Mit der Firma Carl Zeiss entwickelt das HHI momentan einen 3DFlachbildschirm für die Medizintechnik. Dank einer verschiebbaren Linsenrasterplatte soll sich auch hier der Betrachter bewegen können. Seit 1942 lanciert Sharp ein anderes Konzept für 3D-Displays benannt Twin-LCD. Dieses System projiziert die Bilder zweier LC-Displays getrennt in die Augen des Betrachters. Interessant an dem Aufbau ist vor allem der gefaltete Strahlengang: Dank eines geschickt eingesetzten halbdurchlässigen Spiegels kommt das System mit einer einzigen Lichtquelle aus. Bewegt sich der Betrachter, genügt es, die Lichtquelle entgegengesetzt zu verschieben, und schon landen die Strahlenbündel wieder auf seinen Augen. Für die Nachführung der Lichtquelle sorgt dabei ein Tracking-System, das nicht nur reagiert, wenn sich der Betrachter dem Schirm nähert oder sich von ihm entfernt, sondern auch, wenn er sich zu Seite bewegt. Bildquellen für das TwinLCD sind entweder zwei Laserdiskplayer oder eine an das Tracking-System angeschlossene Grafik-Workstation; mit dieser können dann in Echtzeit Seitenansichten der Szene berechnet werden, so daß dem Beobachter eine dynamische Rundumsicht (Bewegungsparallaxe) bis 40 Grad um das Objekt möglich ist, solange er nicht zu schnell bewegt (bis 30 cm pro Sekunde). Ein Plan für die Zukunft: Setzt man weitere Lichtquellen in die Optik, könnten mehrere Zuschauer vor dem Twin-LCD sitzen. Alle stereoskopischen Displays erzeugen kein reelles dreidimensionales Bild, sondern nur eine Raumillusion: Das menschliche Sehsystem läßt sich mit zwei flachen Bildern betrügen. Ernste Probleme kann der Konflikt zwischen Akkomodation und Konvergenz verursachen: Die Teilbilder haben volle Tiefenschärfe, in jeder Entfernung erscheinen Gegenstände scharf. Allmähliches Nachlassen des Raumeindrucks, Kopf und Augenschmerzen bis hin zu Übelkeit und Schwindelgefühl können die Folge sein. Außerdem gewinnt man durch Bewegen des Kopfs keine neuen Einsichten - die Bewegungsparallaxe fehlt. Sie kann bestenfalls wie bei Sharp computergesteuert mit einem Tracking-System simuliert werden. Die für das dreidimensionale Sehen neben der Bewegurgsparallaxe besonders wichtigen Rauminformationen Akkomodation, Konvergenz und binokulare Parallaxe kommen nur durch reale Objekte oder reelle 3D-Bilder zustande. Die Mängelliste der Stereo-Displays ist groß: feste Betrachtungsposition, nur ein oder zwei Betrachter, keine Rundumsicht. Wer diese Probleme überwinden will, muß die 3D-Bilder in den tatsächlichen Raum malen. In den Raum gestellt Holographie ist das populärste Verfahren, Szenen dreidimensional darzustellen. Der übliche Weg, Hologramme herzustellen, besteht darin, ein Laserlichtbündel in zwei Teile zu spalten, von denen der eine direkt auf den Film gelangt (Referenzstrahl), der andere aber vom Objekt auf den Film reflektiert wird. Der Film trägt dann als Information kein unmittelbar erkennbares Bild, sondern nur die Phasendifferenz: ein Interferenzmuster aus hellen und dunklen Linien; hierin ist die Rauminformation kodiert, Das plastische 3D-Bild zeigt sich, wenn das Hologramm geeignet beleuchtet wird: es steht Im Raum und wirkt genauso echt wie der Gegenstand. Je nach Aufnahmeverfahren kann ein Hologramm auch die Farben der fotografierten Szene speichern. Heute erzielt man hochaufgelöste Wiedergaben in natürlicher Farbe aber nur von tatsächlich existierenden Objekten. Computermodelle wie auf dem Bildschirm im Raum animieren zu können, womöglich sogar in Echtzeit, das wäre Video-Holographie. Könnte man nicht auf dem Computer den holographischen Aufnahmeprozeß simulieren, den Weg der Lichtwellenfront verfolgen und so ein synthetisches Computer- Hologramm erzeugen, ganz ohne Laser, Film und realem Gegenstand? Die Spatial Imaging Group des Massachussetts Institute of Technology (MIT) arbeitet seit vier Jahren an dieser Frage. Ihre Ergebnisse können sich wirklich sehen lassen: Ausgangspunkt der Berechnungen sind 3D-Objekte, die mit CAD-Software erzeugt wurden. Ein Rechner generiert aus diesen Daten ein Hologramm, das in einem Bildspeicher abgelegt wird. Mit einem speziellen Realtime -Holographie-Display ('Holovideo') läßt sich das dreidimensionalen Bild in Echtzeit vorführen: Das computer-holographische Muster wird in Form von akustischen Schwingungen in einen Kristall hineingekoppelt (Akusto-optischer Modulator, AOM). Die Schwingungen verändern den Brechungsindex des Kristalls räumlich und zeitlich. Ein Laserstrahl, der den AOM durchstrahlt, wird entsprechend dem holographischen Interferenzmuster moduliert ähnlich wie bei einem gewöhnlichen Hologramm auf einer Fotoplatte: ein 3D-Bild entsteht im Raum. Ein nachgeschaltetes optisches Ablenksystem reflektiert das synthetische Hologramm zeilenweise mit einer Bildrate von 40 Bildern pro Sekunde zum Betracher. Größtes Problem dieser Technik sind die riesigen Datenmengen: Ein 10 x 10 x 10 cm großer Gegenstand mit 30 Grad Blickwinkel liefert ein Hologramm von 25 Gigabyte; die notwendige Datenübertragungsrate bei 60 Bildern pro Sekunde in 8-Bit-AufIösung betrüge 12 Terrabyte/s. Workstations waren bislang Minuten bis Stunden mit der Erzeugung des computergenerierten Hologramms (CGH) beschäftigt, selbst bei den notwendigen massiven Einschränkungen in der Auflösung. Echtzeitvideo-Holographie gelang mit einer Connection Machine und Datenreduktion (unter anderem Vernachlässigung der vertikalen Parallaxe, Beschränkung auf 11Grad Sehwinkel, 3 cm große Objekte). Neue Kodierungsverfahren reduzieren die Rechenzeit auf ein Hunderstel und machen heute auf Workstations die Berechnung von 6-MByte-Hologrammen in weniger als zwei Sekunden möglich: vollfarbige interaktive Video-Holographie in Echtzeit ist greifbar geworden.
Das Ideal einer dreidimensionalen Darstellung ist eine Abbildung im Raum: um sie könnte man herumgehen, das Objekt von allen Seiten ansehen. Bilderzeugung im Raum (statt auf einer oder zwei Flächen) könnte darin bestehen, nacheinander Schnittbilder des Objekts in schneller Abfolge in den Raum zu stapeln. Dazu muß die "Schreibfläche" aber ein Volumen ausfüllen. Möglich wird das mit Projektionsflächen, die durch den Raum oszillieren (multiplanare Displays). Diese Idee ist auf verschiedene Weise verwirklicht worden. Seit Mitte der sechziger Jahre setzt man schwingende oder rotierende Projektionsflächen ein. Eines dieser Konzepte benutzt einen flexiblen Hohlspiegel: Durch eine Lautsprechermembran in Schwingungen versetzt, ändert sich die Brennweite des Spiegels (varifocal mirror). Das Bild einer Kathodenstrahlröhre wird auf diese Weise auf verschiedenen Ebenen fokussiert. Dabei ist die scheinbare Bildtiefe wesentlich größer als die Amplitude des Spiegels. 1988 hat BBN mit dem SpaceGraph ein solches Gerät kommerziell hergestellt. Ein Nachteil des Prinzips sind die optischen Verzerrungen des Bildes; eine Rundumsicht ist ausgeschlossen. An der Universität Canterbury, Neuseeland, hat man 1991 ein Patent aus dem Jahr 1964 aufgegriffen und verbessert: Eine phosphorbeschichtete Scheibe rotiert in einer Kathodenstrahlkugel (statt der bekannten Kathodenstrahlröhre). Zwei Elektronenstrahlen samt konventioneller Ablenkeinheit bringen die Phosphorscheibe zum Leuchten. Wenn sich die Scheibe dreht, sieht man ein durchscheinendes dreidimensionales Bild. Die Kathoden sind um 120Grad versetzt und unterhalb des Äquators angebracht, um bessere Rundumsicht zu erhalten. Problematisch ist hier die beschränkte Größe und die hohe Anforderung an die Qualität des Vakuums. Neben weiteren Konzepten rotierender Projektionsflächen (zum Beispiel Spiralen) sind Konzepte mit selbstleuchtenden Flächen erfunden worden: 1977 wurde ein System des MIT patentiert, das auf einer rotierende Fläche 4096 rote LEDs unterbringt. Das Leuchtmuster konnte allerdings nur im Stillstand gewechselt werden. Bei zukünftige Weiterentwicklungen soll die Bildspeicher und -erzeugungselektronik mit auf der rotierenden Fläche untergebracht werden, Die mechanische Belastung durch die schnelle Drehung setzt dem Konzept Grenzen. Rotierende F1ächen, auf welche die Bildpunkte projiziert werden, sind deshalb wieder aktuell geworden. Ende der siebziger Jahre wurde von Prof. R. Hartwig zusammen mit Heidelberger Forschern ein System mit rotierender Schraubenfläche (Helix) vorgeschlagen. In einer Gemeinschaftsarbeit eines Gymnasiums in Stade mit dem Institut für Flugführung der 12T Braunschweig Ist ein derartiges 3D-Display mit rotierender Helix entstanden. Die Projektionsfläche dreht sich mit 1200 Umdrehungen pro Minute in einem Glaszylinder. Die halbtransparente F1äche ist eine 360Grad-Schraubenfläche. Rote, blaue und grüne Laserstrahlen fallen parallel zur Rotationsachse auf die Helix und erzeugen dort einen von allen Seiten aus sichtbaren Lichtfleck. Ein Computer generiert die Darstellung in Echtzeit. Die Bildauflösung ist jedoch durch die maximal erreichbare Laserablenkfrequenz und die Rechengeschwindigkeit begrenzt. Kodak verwendet ebenfalls das Hartwigsche Konzept, hat das Lasersystem aber durch einen Videoprojektor ersetzt; das machte allerdings eine komplizierte mitrotierende Linse zur Lösung der Fokussierungsprobleme nötig. Texas Instruments entwickelt ein gleiches Konzept, 'OmniView', seit 1988; 1992 ging ein Prototyp mit 36 Zoll Durchmesser an die Navy. Die Projektionsfläche dieses Displays besteht aus zwei spiegelbildlich gewundenen Schrauben. Die F1äche dreht sich mit 600 Umdrehungen pro Minute und füllt so ein Zylindervolumen. Fünf Lasersysteme für jeden Raumquadranten eins, dazu ein weiteres, um höhere Auflösung (bis zu 15 000 Voxel, volume picture elements) darzustellen, mit jeweils drei Lasern (Rot, Gelb, Grün) erzeugen farbige dreidimensionale Bilder, die rundum sichtbar sind. Die Lichtstrahlen werden mit der Umdrehung der Scheibe synchronisiert und in bis zu 10 000 kleine Pakete pro Sekunde zerhackt. In x und y-Richtung fährt ein Scanner die Laserstrahlen rasterartig über die Fläche, die z-Koordinate ergibt sich aus der Synchronisation mit der Umdrehung. Nachteile aller solcher multiplanaren Displays sind die mechanische Belastung und ihre komplizierten Ansteuerung. Die meisten haben tote Zonen, dunkle Raumteile, die sich nicht adressieren lassen, zum Beispiel die Achsen von rotierenden Projektionsflächen. Besser wäre es, wenn man die Raumpunkte direkt ansteuern könnte, ohne eine Brücke in Form der rotierenden F1äche vom Pixel-Flachland zum Voxel-Space schlagen zu müssen. Echte Volumendarstellung ist zwar noch ein Traum, aber dieser Traum hat eine handfeste Grundlage: die stufenweise Fluoreszenzanregung. Schon 1920 wurde an Quecksilberdampf beobachtet, daß sich seine Atome durch aufeinanderfolgende Bestrahlung mit zwei verschiedenen Lichtpulsen zum Nachleuchten (Fluoreszenz) anregen Iassen. Prinzipiell müssen dazu die Atome drei geeignete Energie-Niveaus besitzen: Im Schnittpunkt zweier gekreuzter unsichtbarer Infrarot-Lichtstrahlen werden die Atome vom ersten zum zweiten Niveau und von dort auf ein drittes angeregt. Bei der Rückkehr zum Grundzustand senden sie sichtbares Licht aus - der Schnittpunkt der Infrarotstrahlen leuchtet. Experimente dieser Art verliefen mit einem erbium dotierten Kalziumfluoridkristall erfolgreich. Auf diese Weise hat man adressierbare leuchtende Raumpunkte. Aber: nur im völliger Finsternis ist das Leuchten wahrnehmbar. Bisher haben die Forscher kein effizientes Medium für große Displays gefunden. Spekulieren kann man im Moment noch über andere mögliche physikalische Prozesse anstelle der Fluoreszenz: Voxel aus photochemisch angeregten Molekülen konnten Raumlicht farbig streuen.


Räumliches sehen



Die Fähigkeit zum räumlichen Sehen basiert auf einer Vielzahl von visuelen Informationen, die unsere Augen einschließlich ihrer Motorik sammeln. Einige dieser Informationen gewinnt bereits ein Auge, für andere sind zwei Augen nötig. Die Gesetze der geometrischen Perspektive waren schon Euklid bekannt. Erstmals die Renaissancemaler bedienen sich der linearen Perspektive sowie zugleich auch der Wiedergabe von Licht und Schatten, um dem Betrachter einen Tiefeneindruck zu vermitteln. Dazu kommen die Luftperspektive (Verblauen des Horizonts) und bei Leonardo da Vinci sogar die Schärfentiefe: 'Sfumato'. Die (scheinbare) Größe bekannter Gegenstände verhilft uns ebenso zu einer Entfernungseinschätzung wie die gegenseitige Lage von mehreren Gegenständen: verdeckt ein Objekt ein anderes, so liegt es vor ihm, nicht dahinter. Bewegt man sich, so verändern die Gegenstände ihre relative Position. Alle diese Tiefeninformationen kann man mit einem einzigen Auge gewinnen. Mit zwei Augen ist darüber hinaus Stereosehen möglich; ein Mensch kann dadurch Entfernungsunterschiede mit einer Genauigkeit von 1:1000 wahrnehmen. Grundlage sind die zwei auf den Netzhäuten empfangen Bilder. Sie unterscheiden sich wegen des Augenabstands. Aus den Unterschieden kann das Gehirn ein Modell des Raums gewinnen. Wie das genau geschieht, ist noch nicht völlig geklärt. Die magischen Bilder einerseits, die optischen Paradoxa eines M.C. Escher andererseits können unsere visuelle Intelligenz gleichermaßen herausfordern wie verwirren. Bei der Entfernungseinstellung beider Augen auf einen Punkt drehen sich die Augen, bis sich die Blicklininen In dem Punkt schneiden. Die für Akkomodation und Konvergenz aufgewendete Muskelspannung liefert ebenfalls sehr wichtige Tiefeninformationen. Bei Entfernungen jenseits von sechs Metern verschwinden diese okulomotorischen Effekte: die Augen sind aufs Unendliche scharfgestellt und blicken annähernd parallel. Widersprechen sich Konvergenz und Akkomodation, führt das zu Übelkeit, Kopfschmerz und zum Schwinden der Tiefenwahrnehmung.




INHALT ENGLISH Version