Möchten Sie die Darstellung der Website ihren persönlichen Bedürfnissen anpassen?
Die Einstellungen können Sie auch später noch über das Symbol ändern.

Zum Inhalt springen

Johns Hopkins University: Forscher entwickeln KI-gestütztes Navigationssystem für Sehbehinderte

Newsletter zum Anhören

Liebe Abonennten,

US-Wissenschaftler haben gemeinsam ein Navigationssystem entwickelt, das es blinden oder sehbehinderten Nutzern ermöglicht, sich in ihrer Umgebung mit größerer Sicherheit und Genauigkeit zurechtzufinden.

Das System, so erklären die Forschenden aus zwei Abteilungen der Johns Hopkins University – dem Applied Physics Laboratory (APL) in Laurel, USA, und der Whiting School of Engineering in Baltimore, USA – , verwende künstliche Intelligenz (KI), um Umgebungen abzubilden, den Standort des Nutzers zu verfolgen und um diesen so in Echtzeit zu führen. Es verarbeite auch Daten von Tiefenbildsensoren sowie von den Rot-, Grün- und Blau(RGB)-Kanälen, die in Bildsensoren zur Erfassung visueller Informationen dienen, um detaillierte semantische Karten der Umgebung zu erstellen. Diese ermögliche es dem Navigationssystem, nicht nur Hindernisse zu erkennen, sondern auch bestimmte Objekte und deren Eigenschaften zu identifizieren. Die Wissenschaftler betonen, dass dank dieser Fähigkeit, der Benutzer vom System Anweisungen zu bestimmten Objekten oder Merkmalen in seiner Umgebung abfragen kann. Das mache die Navigation intuitiver und effektiver.

„Was dieses System besonders innovativ macht, ist seine Fähigkeit, die Interpretierbarkeit der Umgebung für die Benutzer erheblich zu verbessern“, erklärte der leitende Forscher Nicolas Norena Acosta, ein Software-Ingenieur für Robotikforschung bei APL. „Herkömmliche Navigationssysteme für Sehbehinderte stützen sich oft auf eine einfache sensorgestützte Kartierung, die nur zwischen belegten und unbelegten Räumen unterscheiden kann“, erklärte der Ingenieur. „Der neue semantische Mapping-Ansatz bietet jedoch ein viel umfassenderes Verständnis der Umgebung und ermöglicht Mensch-Computer-Interaktionen auf hohem Niveau.“

Schaffung eines umfassenden Navigationssystems

Derzeitige Sehprothesen, so die Wissenschaftler, könnten nur einen kleinen Bereich des Sehvermögens stimulieren und böten nur ein minimales visuelles Feedback. Das sei für die Benutzer nicht robust genug, um sicher und unabhängig in ihrer Umgebung zu navigieren. Norena Acosta und sein Team – Chigozie Ewulum, Michael Pekala und Seth Billings von APL und Marin Kobilarov von der Fakultät für Maschinenbau der Whiting School – haben dieses grundlegende visuelle Feedback durch zusätzliche haptische, visuelle und auditive Sinneseindrücke ergänzt, um ein umfassenderes Navigationssystem zu schaffen.

Die haptische Rückmeldung erfolgt über ein von APL entwickeltes Stirnband, wie die Forscher berichten. Dieses vibriere an verschiedenen Stellen, um die Lage von Hindernissen oder den Weg anzuzeigen, dem der Benutzer folgen soll. Wenn der Weg zum Beispiel nach rechts führe, vibriere die rechte Seite des Stirnbands. Das auditive Feedback verwende Sprachansagen und räumliche Geräusche, um verbale Hinweise und Warnungen über die Umgebung mitzuteilen.

Die kombinierten sensorischen Eingaben an das System würden auch in ein visuelles Feedback umgesetzt, das die Fähigkeit des Benutzers verbessere, Hindernisse wahrzunehmen und effektiv zu navigieren. Das System biete eine klare, vereinfachte Sicht auf die Umgebung, merken die Forscher an. So hebe es nur die wichtigsten Informationen hervor, die zur Vermeidung von Hindernissen und zur sicheren Fortbewegung benötigt würden. „Die Herausforderung bestand darin, ein System zu entwickeln, das mehrere Arten von Sensordaten in Echtzeit synchronisieren und verarbeiten kann“, sagt Norena Acosta. „Die genaue Integration des visuellen, haptischen und auditiven Feedbacks erforderte ausgeklügelte Algorithmen und eine robuste Rechenleistung sowie fortschrittliche KI-Techniken.“

Die Forschungsergebnisse wurden der Mitteilung zufolge im April auf der SPIE Defense + Commercial Sensing 2024 vorgestellt. Das System, so heißt es, werde derzeit in einer klinischen Studie getestet, deren Ergebnisse für diesen Sommer erwartet würden. Finanziert werde diese Arbeit vom National Eye Institute.

Verbesserung der Lebensqualität

Die Wissenschaftler erwarten, dass dieses System die Fähigkeiten kommerzieller Netzhautprothesen verbessern kann. Eine robuste, intuitive Navigationshilfe wie dieses System habe das Potenzial, die Unabhängigkeit und Mobilität seiner Nutzer erheblich zu steigern. „Die potenziellen Auswirkungen dieser Arbeit auf die Patientenpopulationen sind erheblich“, betonte Billings, leitender Forscher dieses Projekts. „Dies könnte zu einer größeren sozialen Eingliederung und Teilnahme an täglichen Aktivitäten führen, was letztlich die Lebensqualität blinder und sehbehinderter Menschen insgesamt verbessern würde.“

Quellen:
Johns Hopkins University/ Applied Physics Laboratory
biermann-medizin.de vom 15.07.2024

Mit freundlichen Grüßen
Ihre Newsletter-Redaktion
eingestellt von Rainer Bartels

Anmeldung Newsletter PRO RETINA auf einen Klick und Forschungsnewsletter
Patientenregister von PRO RETINA
LHON Patientenregister von PRO RETINA

Podcast und Infocast von PRO RETINA:
Blind verstehen und Forschung heute

Die Social-Media Kanäle von PRO RETINA:
Facebook
Instagram
X
YouTube

PRO RETINA - Jetzt spenden

PRO RETINA Stiftung zur Verhütung von Blindheit
www.pro-retina-stiftung.de
Die PRO RETINA Stiftung auf Facebook
Retina View - Der Podcast der PRO RETINA Stiftung
Der digitale Stiftungsbrief (DSB)

Möchten Sie die PRO RETINA Stiftung unterstützen: Online spenden

PRO RETINA Deutschland e. V.
Selbsthilfevereinigung von Menschen mit Netzhautdegenerationen
Mozartstr. 4 - 10
53115 Bonn

Telefon: +49 (228) 227 217 0
E-Mail: info@pro-retina.de
Internet: pro-retina.de