3D-Displays für Raumillusion ohne Sehhilfe
Computerholographisches
Video und Volumendisplays sind faszinierende neue Technologien. Aber die Rot-Grün-, Polarisations- und
Shutter-Brillen haben sich bis dato beim Anwender nicht durchgesetzt - bedeuten diese Prothesen doch meist Einbusen in
Komfort und Bildqualität.
Die wichtigste Information für die Tiefenwahrnehmung liefert das Stereo-Sehen: die beiden
Augen übermitteln dem Gehirn zwei verschiedene Ansichten derselben Szene. Entsprechend
gilt umgekehrt bei der Wiedergabe: jedem Auge muß separat eine Ansicht präsentiert
werden sei es mit Hilfe von Spiegeln oder, wie heute üblich, mit Farb-, Polarisations-
oder Shutter-Brillen. Aber es funktioniert auch anders: "Autostereoskopische"
Displays verzichten auf derartige Nasenreiter. Sie beschreiten andere Wege, um linkes und
rechtes Bild in das jeweilige Auge zu leiten. Noch weiter gehen Computer-Holographie und
Volumendisplays: Sie malen 3D-Bilder direkt in den Raum, ganz ohne stereoskopische Tricks.
Zu den alten, aber weithin unbekannten Ideen zählt ein Verfahren, das Sanyo auf der dies-
jährigen Funkausstellung vorgestellt hat unter der Bezeichnung 'Image Splitter'. Wenn
Sanyo dafür auch ein Warenzeichen angemeldet hat, so ist dieses Verfahren seit Beginn
unseres Jahrhunderts bekannt ein einziges Bild enthält die zwei Ansichten des
Stereopaares: in möglichst schmalen senkrechten Streifen abwechselnd ein Stück von der
linken Ansicht, dann von der rechten und so weiter. Eine Streifenmaske vor diesem Bild
sorgt dafür, daß das linke und das rechte Auge des Betrachters nur die ihnen zugedachten
Bildstreifen sehen wenn der Betrachter seinen Kopf in einer ganz bestimmten Entfernung vor
der Maske hält. Für einen zweiten Betrachter ist kein Platz. Die drei von Sanyo auf der
IFA vorgestellten Modelle dieser Art arbeiten mit LCDs (4,3 bis 10,4 ZoI1), auf denen die
Links/Rechtsstreifen nur ein Pixel breit sind. Vor dem Schirm liegt ein fast mikroskopisch
feines Gitter der Image Splitter. Dimension Technologies (DTI) hat bereits seit 1991 ein
3D-Display im Angebot, das dieses Prinzip in abgewandelter Form verwendet: Ein
Farb-TFT-LCD zeigt das Bild für das linke Auge auf den Pixelspalten mit gerader Nummer,
das Bild für das rechte Auge auf den ungeraden Spalten. Die raffinierte
Hintergrundbeleuchtung aus 320 weißen parallelen senkrechten Linien macht eine
lichtschluckende Streifenmaske überflüssig. Witz an der Sache: Das Display kann
wahlweise als normales 2D-Display (640 Spalten x 480 Zeilen) als auch im 3D-Modus (320
Spalten) betrieben werden.
Die Variante der Firma Terumo (Split-Image Display) verwendet zwei TFT-LCDs zur
Darstellung des Stereopaares. Ein Halbspiegel
kombiniert die beiden Bilder und bewahrt so die volle Spaltenauflösung. Zwei zusätzliche
monochrome LCDs sorgen für die Streifenbeleuchtung hinter den TFT-LCDs. Ein
Tracking-System mißt die Kopfposition und reguliert die Sehzonen nach, indem es
Bild-Displays und Streifen-Display gegeneinander verschiebt. Anstatt die Sicht auf eine
Hälfte des Bildpaares mit einer Maske zu behindern, kann man die Sicht auch gezielt
fördern: durch eine dichte Reihe vertikaler halbzylinderförmiger Linsen, welche die
beiden Teilbilder genau ins entsprechende Auge lenken. Derartige Lentikularsysteme, für 3
D-Postkarten beliebt, sind seit 1908 bekannt. Das Prinzip Iäßt sich erweitern:
schachtelt man mehr als zwei Ansichten als Bildstreifen ineinander, läßt sich das Bild
aus verschieden Blickwinkeln betrachten (Parallax-Panoramagramm). Kodak und die weniger
bekannte Firma Art bieten die Produktion solcher computerberechneter 3D-Hardcopies an.
Displays auf Basis eines Lentikularsystems kommen von Sanyo und dem Heinrich-HertzInstitut
Berlin (HHI). Beide Entwicklungen sind Rückprojektionssysteme. Bei der Sanyo-Entwicklung
projizieren zwei LCDVideoprojektoren die Bilder für das linke und das rechte Auge auf
eine Mattscheibe (40 Zoll Diagonale). Vor und hinter dieser Mattscheibe befinden sich
Streifenlinsen ein Doppel-Lentikularsystem. Das rückwärtige Linsenraster zerlegt die
beiden projizierten Bilder in Streifen, ein zweites Linsenraster auf der Vorderseite der
Mattscheibe lenkt jeden Streifen in das entsprechende Auge des Betrachters. Um den
3D-Effekt wahrzunehmen, muß der Betrachter auch bei diesem Verfahren einen bestimmten
Abstand genau einhalten (l m bei Sanyo). In diesem Abstand von der Mattscheibe haben die
beiden Strahlenbündel genau Augenabstand. Das Linsenraster erzeugt aber anders als der
Image Splitter für jeden Punkt der Mattscheibe mehrere Strahlenbündel und damit mehrere
'Stereofenster', so daß theoretisch mehrere Zuschauer nebeneinander vor dem Display
sitzen können (derzeit praktisch nur zwei). Der Hersteller zielt mit dem Gerät auf
Einsätze in Museen, 3D-Minikinos und für Videospiele. Anders als die Sanyo-Konstruktion
ist das Display des HHI mit einem Head-TrackingSystem ausgestattet, das den Kopf des
Betrachters verfolgt. Man hat außerdem noch einen Elektroluminiszenz-Flachbildschirm im
Koffer, der ebenfalls mit dem Doppel-Lentikularverfahren arbeitet; er erreicht
HDTV-Auflösung. Mit der Firma Carl Zeiss entwickelt das HHI momentan einen
3DFlachbildschirm für die Medizintechnik. Dank einer verschiebbaren Linsenrasterplatte
soll sich auch hier der Betrachter bewegen können. Seit 1942 lanciert Sharp ein anderes
Konzept für 3D-Displays benannt Twin-LCD. Dieses System projiziert die Bilder zweier
LC-Displays getrennt in die Augen des Betrachters. Interessant an dem Aufbau ist vor allem
der gefaltete Strahlengang: Dank eines geschickt eingesetzten halbdurchlässigen Spiegels
kommt das System mit einer einzigen Lichtquelle aus. Bewegt sich der Betrachter, genügt
es, die Lichtquelle entgegengesetzt zu verschieben, und schon landen die Strahlenbündel
wieder auf seinen Augen. Für die Nachführung der Lichtquelle sorgt dabei ein
Tracking-System, das nicht nur reagiert, wenn sich der Betrachter dem Schirm nähert oder
sich von ihm entfernt, sondern auch, wenn er sich zu Seite bewegt. Bildquellen für das
TwinLCD sind entweder zwei Laserdiskplayer oder eine an das Tracking-System angeschlossene
Grafik-Workstation; mit dieser können dann in Echtzeit Seitenansichten der Szene
berechnet werden, so daß dem Beobachter eine dynamische Rundumsicht (Bewegungsparallaxe)
bis 40 Grad um das Objekt möglich ist, solange er nicht zu schnell bewegt (bis 30 cm pro
Sekunde). Ein Plan für die Zukunft: Setzt man weitere Lichtquellen in die Optik, könnten
mehrere Zuschauer vor dem Twin-LCD sitzen. Alle stereoskopischen Displays erzeugen kein
reelles dreidimensionales Bild, sondern nur eine Raumillusion: Das menschliche Sehsystem
läßt sich mit zwei flachen Bildern betrügen. Ernste Probleme kann der Konflikt zwischen
Akkomodation und Konvergenz verursachen:
Die Teilbilder haben volle Tiefenschärfe, in jeder Entfernung erscheinen Gegenstände
scharf. Allmähliches Nachlassen des Raumeindrucks, Kopf und Augenschmerzen bis hin zu
Übelkeit und Schwindelgefühl können die Folge sein. Außerdem gewinnt man durch Bewegen
des Kopfs keine neuen Einsichten - die Bewegungsparallaxe fehlt.
Sie kann bestenfalls wie bei Sharp computergesteuert mit einem Tracking-System simuliert
werden. Die für das dreidimensionale Sehen neben der Bewegurgsparallaxe besonders
wichtigen Rauminformationen Akkomodation, Konvergenz und binokulare Parallaxe kommen nur durch reale Objekte oder reelle
3D-Bilder zustande. Die Mängelliste der Stereo-Displays ist groß: feste
Betrachtungsposition, nur ein oder zwei Betrachter, keine Rundumsicht. Wer diese Probleme
überwinden will, muß die 3D-Bilder in den tatsächlichen Raum malen. In den Raum
gestellt Holographie ist das populärste Verfahren, Szenen
dreidimensional darzustellen. Der übliche Weg, Hologramme herzustellen, besteht darin,
ein Laserlichtbündel in zwei Teile zu spalten, von denen der eine direkt auf den Film
gelangt (Referenzstrahl), der andere aber vom Objekt auf den Film reflektiert wird. Der
Film trägt dann als Information kein unmittelbar erkennbares Bild, sondern nur die
Phasendifferenz: ein Interferenzmuster aus hellen und dunklen Linien; hierin ist die
Rauminformation kodiert, Das plastische 3D-Bild zeigt sich, wenn das Hologramm geeignet
beleuchtet wird: es steht Im Raum und wirkt genauso echt wie der Gegenstand. Je nach
Aufnahmeverfahren kann ein Hologramm auch die Farben der fotografierten Szene speichern.
Heute erzielt man hochaufgelöste Wiedergaben in natürlicher Farbe aber nur von
tatsächlich existierenden Objekten. Computermodelle wie auf dem Bildschirm im Raum
animieren zu können, womöglich sogar in Echtzeit, das wäre Video-Holographie. Könnte
man nicht auf dem Computer den holographischen Aufnahmeprozeß simulieren, den Weg der
Lichtwellenfront verfolgen und so ein synthetisches Computer- Hologramm erzeugen, ganz
ohne Laser, Film und realem Gegenstand? Die Spatial Imaging Group des Massachussetts
Institute of Technology (MIT) arbeitet seit vier Jahren an dieser Frage. Ihre Ergebnisse
können sich wirklich sehen lassen: Ausgangspunkt der Berechnungen sind 3D-Objekte, die
mit CAD-Software erzeugt wurden. Ein Rechner generiert aus diesen Daten ein Hologramm, das
in einem Bildspeicher abgelegt wird. Mit einem speziellen Realtime -Holographie-Display
('Holovideo') läßt sich das dreidimensionalen Bild in Echtzeit vorführen: Das
computer-holographische Muster wird in Form von akustischen Schwingungen in einen Kristall
hineingekoppelt (Akusto-optischer Modulator, AOM). Die Schwingungen verändern den
Brechungsindex des Kristalls räumlich und zeitlich. Ein Laserstrahl, der den AOM
durchstrahlt, wird entsprechend dem holographischen Interferenzmuster moduliert ähnlich
wie bei einem gewöhnlichen Hologramm auf einer Fotoplatte: ein 3D-Bild entsteht im Raum.
Ein nachgeschaltetes optisches Ablenksystem reflektiert das synthetische Hologramm
zeilenweise mit einer Bildrate von 40 Bildern pro Sekunde zum Betracher. Größtes Problem
dieser Technik sind die riesigen Datenmengen: Ein 10 x 10 x 10 cm großer Gegenstand mit
30 Grad Blickwinkel liefert ein Hologramm von 25 Gigabyte; die notwendige
Datenübertragungsrate bei 60 Bildern pro Sekunde in 8-Bit-AufIösung betrüge 12
Terrabyte/s. Workstations waren bislang Minuten bis Stunden mit der Erzeugung des
computergenerierten Hologramms (CGH) beschäftigt, selbst bei den notwendigen massiven
Einschränkungen in der Auflösung. Echtzeitvideo-Holographie gelang mit einer Connection
Machine und Datenreduktion (unter anderem Vernachlässigung der vertikalen Parallaxe,
Beschränkung auf 11Grad Sehwinkel, 3 cm große Objekte). Neue Kodierungsverfahren
reduzieren die Rechenzeit auf ein Hunderstel und machen heute auf Workstations die
Berechnung von 6-MByte-Hologrammen in weniger als zwei Sekunden möglich: vollfarbige
interaktive Video-Holographie in Echtzeit ist greifbar geworden.
Das Ideal einer dreidimensionalen Darstellung ist eine Abbildung im Raum: um sie könnte
man herumgehen, das Objekt von allen Seiten ansehen. Bilderzeugung im Raum (statt auf
einer oder zwei Flächen) könnte darin bestehen, nacheinander Schnittbilder des Objekts
in schneller Abfolge in den Raum zu stapeln. Dazu muß die "Schreibfläche" aber
ein Volumen ausfüllen. Möglich wird das mit Projektionsflächen, die durch den Raum
oszillieren (multiplanare Displays). Diese Idee ist auf verschiedene Weise verwirklicht
worden. Seit Mitte der sechziger Jahre setzt man schwingende oder rotierende
Projektionsflächen ein. Eines dieser Konzepte benutzt einen flexiblen Hohlspiegel: Durch
eine Lautsprechermembran in Schwingungen versetzt, ändert sich die Brennweite des
Spiegels (varifocal mirror). Das Bild einer Kathodenstrahlröhre wird auf diese Weise auf
verschiedenen Ebenen fokussiert. Dabei ist die scheinbare Bildtiefe wesentlich größer
als die Amplitude des Spiegels. 1988 hat BBN mit dem SpaceGraph ein solches Gerät
kommerziell hergestellt. Ein Nachteil des Prinzips sind die optischen Verzerrungen des
Bildes; eine Rundumsicht ist ausgeschlossen. An der Universität Canterbury, Neuseeland,
hat man 1991 ein Patent aus dem Jahr 1964 aufgegriffen und verbessert: Eine
phosphorbeschichtete Scheibe rotiert in einer Kathodenstrahlkugel (statt der bekannten
Kathodenstrahlröhre). Zwei Elektronenstrahlen samt konventioneller Ablenkeinheit bringen
die Phosphorscheibe zum Leuchten. Wenn sich die Scheibe dreht, sieht man ein
durchscheinendes dreidimensionales Bild. Die Kathoden sind um 120Grad versetzt und
unterhalb des Äquators angebracht, um bessere Rundumsicht zu erhalten. Problematisch ist
hier die beschränkte Größe und die hohe Anforderung an die Qualität des Vakuums. Neben
weiteren Konzepten rotierender Projektionsflächen (zum Beispiel Spiralen) sind Konzepte
mit selbstleuchtenden Flächen erfunden worden: 1977 wurde ein System des MIT patentiert,
das auf einer rotierende Fläche 4096 rote LEDs unterbringt. Das Leuchtmuster konnte
allerdings nur im Stillstand gewechselt werden. Bei zukünftige Weiterentwicklungen soll
die Bildspeicher und -erzeugungselektronik mit auf der rotierenden Fläche untergebracht
werden, Die mechanische Belastung durch die schnelle Drehung setzt dem Konzept Grenzen.
Rotierende F1ächen, auf welche die Bildpunkte projiziert werden, sind deshalb wieder
aktuell geworden. Ende der siebziger Jahre wurde von Prof. R. Hartwig zusammen mit
Heidelberger Forschern ein System mit rotierender Schraubenfläche (Helix) vorgeschlagen.
In einer Gemeinschaftsarbeit eines Gymnasiums in Stade mit dem Institut für Flugführung
der 12T Braunschweig Ist ein derartiges 3D-Display mit rotierender Helix entstanden. Die
Projektionsfläche dreht sich mit 1200 Umdrehungen pro Minute in einem Glaszylinder. Die
halbtransparente F1äche ist eine 360Grad-Schraubenfläche. Rote, blaue und grüne
Laserstrahlen fallen parallel zur Rotationsachse auf die Helix und erzeugen dort einen von
allen Seiten aus sichtbaren Lichtfleck. Ein Computer generiert die Darstellung in
Echtzeit. Die Bildauflösung ist jedoch durch die maximal erreichbare Laserablenkfrequenz
und die Rechengeschwindigkeit begrenzt. Kodak verwendet ebenfalls das Hartwigsche Konzept,
hat das Lasersystem aber durch einen Videoprojektor ersetzt; das machte allerdings eine
komplizierte mitrotierende Linse zur Lösung der Fokussierungsprobleme nötig. Texas
Instruments entwickelt ein gleiches Konzept, 'OmniView', seit 1988; 1992 ging ein Prototyp
mit 36 Zoll Durchmesser an die Navy. Die Projektionsfläche dieses Displays besteht aus
zwei spiegelbildlich gewundenen Schrauben. Die F1äche dreht sich mit 600 Umdrehungen pro
Minute und füllt so ein Zylindervolumen. Fünf Lasersysteme für jeden Raumquadranten
eins, dazu ein weiteres, um höhere Auflösung (bis zu 15 000 Voxel, volume picture
elements) darzustellen, mit jeweils drei Lasern (Rot, Gelb, Grün) erzeugen farbige
dreidimensionale Bilder, die rundum sichtbar sind. Die Lichtstrahlen werden mit der
Umdrehung der Scheibe synchronisiert und in bis zu 10 000 kleine Pakete pro Sekunde
zerhackt. In x und y-Richtung fährt ein Scanner die Laserstrahlen rasterartig über die
Fläche, die z-Koordinate ergibt sich aus der Synchronisation mit der Umdrehung. Nachteile
aller solcher multiplanaren Displays sind die mechanische Belastung und ihre komplizierten
Ansteuerung. Die meisten haben tote Zonen, dunkle Raumteile, die sich nicht adressieren
lassen, zum Beispiel die Achsen von rotierenden Projektionsflächen. Besser wäre es, wenn
man die Raumpunkte direkt ansteuern könnte, ohne eine Brücke in Form der rotierenden
F1äche vom Pixel-Flachland zum Voxel-Space schlagen zu müssen. Echte Volumendarstellung
ist zwar noch ein Traum, aber dieser Traum hat eine handfeste Grundlage: die stufenweise
Fluoreszenzanregung. Schon 1920 wurde an Quecksilberdampf beobachtet, daß sich seine
Atome durch aufeinanderfolgende Bestrahlung mit zwei verschiedenen Lichtpulsen zum
Nachleuchten (Fluoreszenz) anregen Iassen. Prinzipiell müssen dazu die Atome drei
geeignete Energie-Niveaus besitzen: Im Schnittpunkt zweier gekreuzter unsichtbarer
Infrarot-Lichtstrahlen werden die Atome vom ersten zum zweiten Niveau und von dort auf ein
drittes angeregt. Bei der Rückkehr zum Grundzustand senden sie sichtbares Licht aus - der
Schnittpunkt der Infrarotstrahlen leuchtet. Experimente dieser Art verliefen mit einem
erbium dotierten Kalziumfluoridkristall erfolgreich. Auf diese Weise hat man adressierbare
leuchtende Raumpunkte. Aber: nur im völliger Finsternis ist das Leuchten wahrnehmbar.
Bisher haben die Forscher kein effizientes Medium für große Displays gefunden.
Spekulieren kann man im Moment noch über andere mögliche physikalische Prozesse anstelle
der Fluoreszenz: Voxel aus photochemisch angeregten Molekülen konnten Raumlicht farbig
streuen.
Räumliches sehen
Die Fähigkeit zum räumlichen Sehen basiert auf einer Vielzahl von visuelen
Informationen, die unsere Augen einschließlich ihrer Motorik sammeln. Einige dieser
Informationen gewinnt bereits ein Auge, für andere sind zwei Augen nötig. Die Gesetze
der geometrischen Perspektive waren schon Euklid bekannt. Erstmals die Renaissancemaler
bedienen sich der linearen Perspektive sowie zugleich auch der Wiedergabe von Licht und
Schatten, um dem Betrachter einen Tiefeneindruck zu vermitteln. Dazu kommen die
Luftperspektive (Verblauen des Horizonts) und bei Leonardo da Vinci sogar die
Schärfentiefe: 'Sfumato'. Die (scheinbare) Größe bekannter Gegenstände verhilft uns
ebenso zu einer Entfernungseinschätzung wie die gegenseitige Lage von mehreren
Gegenständen: verdeckt ein Objekt ein anderes, so liegt es vor ihm, nicht dahinter.
Bewegt man sich, so verändern die Gegenstände ihre relative Position. Alle diese
Tiefeninformationen kann man mit einem einzigen Auge gewinnen. Mit zwei Augen ist darüber
hinaus Stereosehen möglich; ein Mensch kann dadurch Entfernungsunterschiede mit einer
Genauigkeit von 1:1000 wahrnehmen. Grundlage sind die zwei auf den Netzhäuten empfangen
Bilder. Sie unterscheiden sich wegen des Augenabstands. Aus den Unterschieden kann das
Gehirn ein Modell des Raums gewinnen. Wie das genau geschieht, ist noch nicht völlig
geklärt. Die magischen Bilder einerseits, die optischen Paradoxa eines M.C. Escher
andererseits können unsere visuelle Intelligenz gleichermaßen herausfordern wie
verwirren. Bei der Entfernungseinstellung beider Augen auf einen Punkt drehen sich die
Augen, bis sich die Blicklininen In dem Punkt schneiden. Die für Akkomodation und Konvergenz
aufgewendete Muskelspannung liefert ebenfalls sehr wichtige Tiefeninformationen. Bei
Entfernungen jenseits von sechs Metern verschwinden diese okulomotorischen Effekte: die
Augen sind aufs Unendliche scharfgestellt und blicken annähernd parallel. Widersprechen
sich Konvergenz und Akkomodation, führt das zu Übelkeit, Kopfschmerz und
zum Schwinden der Tiefenwahrnehmung.
|
|