Original-URL des Artikels: https://www.golem.de/1001/72608.html    Veröffentlicht: 24.01.2010 16:25    Kurz-URL: https://glm.io/72608

Eyesi: Augmented Reality für die Ausbildung am Auge

Ärzte können künftig mit PC-Hilfe die Untersuchung von Augen erlernen

Ein neuartiges Augmented-Reality-System könnte die Ausbildung von Ärzten bereichern: Mit dem Eyesi Ophthalmoscope, entwickelt bei einem Mannheimer Unternehmen in Kooperation mit Universitäten, lassen sich Augen virtuell untersuchen.

In der Augenheilkunde ist eine der wichtigsten Untersuchungsmethoden das Spiegeln der Netzhaut. Dazu wird die Pupille weit getropft und mit einer hellen Lichtquelle das Augeninnere ausgeleuchtet. Diese Untersuchungstechnik ist schwierig zu erlernen, sie erfordert wochenlanges tägliches Training - Kommilitonen und Patienten als Übungsobjekte können da schon mal die Geduld verlieren.

Nicht so der Augmented-Reality-Simulator, den das Mannheimer Unternehmen VR Magic in Kooperation mit der Klinik für Augenheilkunde der Goethe-Universität und dem Lehrstuhl für Informatik der Universität Heidelberg entwickelt hat. Das Bundesministerium für Wirtschaft und Technologie hat das Projekt gefördert. Augmented-Reality-Geräte, die Operationen simulieren, sind bereits länger verfügbar - der Einsatz derartiger Systeme in der Ausbildung von Medizinstudenten wäre hingegen neu.

Der Simulator mit dem Namen Eyesi Ophthalmoscope besteht aus einer Videobrille, die auf dem Untersucherkopf getragen wird, einem Patientenmodellkopf aus Kunststoff, zwei frei beweglichen Lupen und einem PC mit Touchscreen zur Steuerung des Systems. Durch die Videobrille sieht der Benutzer des Simulators während der Augenuntersuchung die reale Szene mit seiner Hand und der Lupe. Statt des Kunststoffmodellkopfs sieht der Untersuchende durch die Videobrille einen virtuellen Patientenkopf und kann durch die Lupe den dreidimensionalen Augeninnenraum betrachten.

Anschließend wird sowohl die gestellte Diagnose als auch die Effizienz der Untersuchung objektiv bewertet. Berücksichtigt wird dabei beispielsweise die Zeit, die für die Untersuchung benötigt wurde, die Belastung der Netzhaut durch Licht und der in der Lupe sichtbare Anteil der Netzhaut.

Mit vielen verfügbaren Krankheitsbildern erweitert die Datenbank des Trainingssystems das Lehr- und Lernspektrum in der ärztlichen Ausbildung - unabhängig von real vorhandenen Patienten oder Testpersonen. "Studierende haben sonst nie Gelegenheit, diese Veränderungen tatsächlich an einer Netzhaut zu sehen", erklärt Frank Koch, Leiter des Schwerpunkts Glaskörper- und Netzhautchirurgie an der Klinik für Augenheilkunde der Goethe-Universität. [von Katja Höhne]  (ps)


Verwandte Artikel:
Google: Deep-Learning-System analysiert Augenscans nach Krankheiten   
(20.02.2018, https://glm.io/132869 )
PixelNN: Mit Machine Learning unscharfe Bilder erkennbar machen   
(25.09.2017, https://glm.io/130236 )
Telemedizin: Neue Patienten für die Onlinepraxis   
(04.02.2018, https://glm.io/132569 )
Forschungsförderung: Medizin-Nobelpreisträger Rosbash kritisiert Trump   
(11.12.2017, https://glm.io/131597 )
Digitalmedizin: Wenn das Pflaster die Wunde überwacht   
(12.11.2017, https://glm.io/131100 )

© 1997–2018 Golem.de, https://www.golem.de/