Das ergibt Sinn

Von Volker Paulun und Björn Carstens
Sehen, Hören, Fühlen, Riechen und Schmecken – diese fünf Sinne haben nicht nur eine biologische Bedeutung für uns Menschen, sie vernetzen uns mit unserem Umfeld. Umso schwerer wiegen Störungen im sensorischen System. Hightech aus den Baukästen der Laborwelt kann Abhilfe schaffen.
© Getty
Ich sehe was, was du auch siehst

Blinde wieder sehend zu machen – das ist seit Jahrhunderten ein großes Ziel von Wissenschaft und Medizin. Aktuell sind 43 Millionen Menschen weltweit blind, 295 Millionen stark sehbehindert. So groß der Wunsch, ihnen zu helfen, so groß sind auch die damit verbundenen Herausforderungen. Erste Ansätze, das Wunder des Sehens technologisch nachzuahmen, gibt es bereits. Seit einigen Jahren werden künstliche Retinas bei Patienten mit Netzhautschädigungen implantiert. Dort übernimmt ein Chip die Arbeit defekter Sehzellen und wandelt Lichtsignale in elektrische Impulse um, die dann über den natürlichen Sehnerv ans Gehirn weitergeleitet werden. Auch erste Fortschritte wurden in diesem Bereich bereits erzielt, sowohl was die Bildschärfe angeht als auch darin, dass mittlerweile der optische Apparat des natürlichen Auges anstelle einer Kamerabrille genutzt werden kann. Doch das Seherlebnis ist immer noch mau: Grobe Umrisse werden in Graustufen erkannt. Wen wundert’s, schließlich gilt der visuelle Sinn nicht nur als der wichtigste für uns Menschen, sondern auch als der komplexeste. Das menschliche Auge kann zwischen 600.000 Farben unterscheiden und nimmt in jeder Sekunde mehr als zehn Millionen Informa­tionen auf, die in rasanter Geschwindigkeit an das Gehirn weitergeleitet und dort gefiltert und verarbeitet werden.

Ein internationales Team von Forschenden hat vor zwei Jahren ein komplettes bionisches Auge präsentiert, das nicht nur schärfer gucken kann als das menschliche Gegenstück, sondern auch Farbspektren wie Infrarotlicht sieht. Kernelement ist eine sphärische Kunst-Netzhaut, deren ultrafeine Nanodraht-Sensoren lichtempfindlicher sind als die Photorezeptoren des Menschen. Die technische Basis für eine hochauflösende Augenprothese ist also gelegt. Aber es bleibt noch viel Arbeit, sie ins komplexe visuelle System des Menschen zu integrieren, insbesondere die Vernetzung mit dem Sehzentrum des Gehirns. Apropos Vernetzung: Das künstliche Auge könnte auch Echtzeitsignale an Freunde schicken oder im Internet posten. Damit all diese Visionen wahr werden, muss auch eine praktikable Lösung gefunden werden, den hohen Energiebedarf eines solchen künstlichen visuellen Systems dauerhaft bereitzustellen. Hürden, die dazu führen können, dass die bionischen Superaugen zunächst in Maschinen eingesetzt werden.

Besser hören mit Licht

© Getty

Wenn das herkömmliche Hinter-dem-Ohr-Gerät nicht mehr reicht, kommen bei Hörgeschädigten Cochlea-Implantate (CI) zum Einsatz. Die Hörprothesen stimulieren den Hörnerv via Strom. Deren Vorgeschichte reicht bis ins 18. Jahrhundert zurück. Batteriepionier Alessandro Volta steckte sich schon zwei geladene Metallstäbe ins Ohr und hörte ein Geräusch, das dem einer kochenden Suppe ähnelte. Vom ersten Implantat 1957, das die Funktionen der erbsengroßen Hörschnecke (Cochlea) ersetzte, indem es über Elektroden Schall in Stromimpulse umwandelte, bis zur heutigen CI-Generation gab es etliche Weiterentwicklungen.

Allerdings eint alle ein Problem: Der Strom breitet sich in der Salzlösung der Hörschnecke weit aus. Sehr viele Zellen werden angeregt, die für verschiedene Frequenzen zuständig sind. „Dann klingt Mozart, als würde ein Pianist mit beiden Fäusten in die Tasten hauen“, sagt Marcus Jeschke von der Universität Göttingen. Dort haben Hörforschende an einer CI-Version gearbeitet, die auf Licht statt Strom setzt. Der Vorteil: Licht lässt sich besser fokussieren. Bei dem Verfahren werden die Nervenzellen der Hörschnecke genetisch verändert. Statt auf eher breiige Geräusche reagieren sie dann auf präzise Lichtsignale. ­Hörgeschädigte sollen so selbst ein vielstimmiges Sprachgewirr entknoten und feine Untertöne wie Ironie erkennen können.

Fühl dich gedrückt

Schon die alten Ägypter liefen vor 3.000 Jahren auf funktionstüchtigen Gehhilfen. Mittlerweile erlauben Hightech-Prothesen dank Sensoren und winziger E-Motoren komplexe Bewegungen, aber auf eines müssen Menschen nach Amputationen immer noch verzichten: auf das Gefühl. Forschende machen jetzt Hoffnung, insbesondere künstlichen Händen Tastsinn zu vermitteln. So wurde an der US-Universität Stanford eine sensible Gummihaut mit stromleitenden Mini-Röhrchen als Sensoren entwickelt. Je stärker der (Hände)Druck, desto mehr Röhrchen berühren sich und umso mehr Strom leitet der künstliche Tastsinn ans Nervensystem weiter.
Ferner haben britische Forschende der University of Bristol künstliche Fingerspitzen aus dem 3D-Drucker entwickelt. Die gedruckten Papillen, die jenen empfindlichen Zapfen unter der menschlichen Haut ähneln, können Formen erkennen und diese Daten über künstliche Nervensignale weiterleiten.

Ein solcher künstlicher und dennoch sensibler Tastsinn könnte nicht nur geschädigten Menschen helfen, sondern auch der Robotik ganz neue Möglichkeiten eröffnen. Auch in diesem Bereich wird rund um den Planeten geforscht. Zum Beispiel am Max-Planck-Institut für Intelligente Systeme in Stuttgart. Die dortigen Forscher haben einen daumenähnlichen Sensor entwickelt, der über druckabhängige Oberflächenverformung entstehende Lichtmuster verarbeitet und an neuronale Netze weitergibt. Auch wenn noch einiges an Forschungsarbeit zu leisten ist, vielleicht haben Roboter schon bald das, was bislang ein Privileg des Menschen war: taktiles Feingefühl.

Ein ganz feines Näschen

© Getty

Schon heute können künstliche Nasen bei Sicherheitskontrollen zum Beispiel Sprengstoff erschnüffeln oder in Laboren Chemikalien identifizieren. Forschende arbeiten bereits an „Supernasen“, die sogar Krankheiten wie Demenz, Krebs oder Covid riechen können. Aber kann ein künstlicher Geruchssinn auch Menschen helfen, die unter Anosmie leiden, also wenig oder nichts riechen können? Eric Holbrook von der Harvard Medical School in Boston will genau diese Einschränkungen beseitigen. Und es ist ihm bereits gelungen, Riechnerven mit elektrischen Impulsen so zu manipulieren, dass bei einem Probanden die für das Geruchsempfinden zuständige Hirnstruktur namens Riechkolben Zwiebelgeruch wahrnahm, den es faktisch nicht gab.

Aber bis ein künstlicher Geruchssinn tatsächlich den menschlichen ersetzen kann, sind noch einige Baustellen zu lösen: Zum Beispiel die genaue Platzierung der Elektroden am Riechkolben und eine sensible Sensorik, die ein großes Geruchsspektrum aufnehmen, analysieren und in elektrische Impulse umwandeln kann. Ungleich schwieriger ist es, einen gestörten Geschmackssinn zu ersetzen. Denn dieser ist aus wissenschaftlicher Sicht ein komplexes Zusammenspiel aus Geschmack, Geruch, Tast- und Temperaturempfinden in der Mundhöhle.

Sprachlose sprechen lassen

Für Menschen, die nicht mehr sprechen können, gibt es zwar schon heute einige Hilfen, aber diese künstliche verbale Kommunikation klingt doch sehr holperig. Bekanntestes Beispiel ist der weltberühmte und 2018 verstorbene Physiker Stephen Hawking, der seine letzten 20 Lebensjahre via Computereingabe „sprach“, was sich sehr roboterhaft anhörte. Die Eingabe der Worte über eine Computertastatur erschwert einen Sprachdialog ebenfalls.

Wissenschaftler verschiedenster Fachbereiche forschen an komfortablen Möglichkeiten, Sprachlosen wieder eine authentische Stimme zu geben. Zum Beispiel an der chinesischen Tsinghua-Universität. Dort haben die Forschenden jüngst flexible, dehnbare Sensoren mit Kohlenstoff-Nanofasermembranen entwickelt, die auf dem Gesicht platziert werden. Dort erfassen sie typische Bewegungen, die beim Bilden phonetischer Laute auftreten. Die Signale werden an einen Microcomputer weitergegeben und von einer KI in Audiosignale für den Lautsprecher verwandelt. Die Sensoren erfassen auch den gesamten Gesichtsausdruck, Temperaturschwankungen sowie den Puls und können so sogar Emotionen in die Sprachausgabe einbinden. Erste Versuche verliefen vielversprechend, doch der Weg bis zum realen Alltagseinsatz ist noch lang.

Auch die Forschenden der University of California stehen noch am Anfang ihrer Entwicklung, Dort arbeitet man daran, elektrische Impulse, die das Gehirn eigentlich an den Artikulationsapparat zur Sprachausgabe weitergibt, abzugreifen und in eine künstliche Stimme zu verwandeln. Das Gehirn formuliert, die Technik artikuliert. Erste Probanden konnten mit dieser Methode 50 einfache Testsätze wie „Tina Turner ist eine Pop-Sängerin“ hörbar machen. Joseph Makin von der University of California sagt: „Wir sind noch längst nicht da, wo wir hinmüssten, aber wir glauben, das könnte die Basis für eine Sprachprothese sein.“

2045

wird der Tod optional sein. Das sagt Raymond Kurzweil. Der Futurist und Google-Chefentwickler verkündet damit die Erfüllung eines von vielen gehegten Menschheitstraums: Unsterblichkeit. Eine breit angelegte Studie aus dem Jahr 2021 hält hingegen 150 Lebensjahre für die Obergrenze. Wobei auch hier einige der beteiligten Wissenschaftler sagen, dass mit etwas Hilfe auch durchaus ein paar Jahre mehr drin seien. Der Wissenschaftsphilosoph David Wood, der zusammen mit dem Ingenieur José Cordeiro das Buch „Der Sieg über den Tod“ geschrieben hat, prophezeit: „Was in unserer Reichweite liegt, ist die Überwindung der größten Todesursache, nämlich der biologischen Alterung.“ Den Schlüssel hierfür soll die winzige Qualle Turritopsis dohrnii liefern. Sie kann sich selbst verjüngen und ist damit potenziell unsterblich. Cordeiro will das Ewigkeitsrezept der Qualle entschlüsseln und mit dem Wissen den Alterungsprozess des Menschen schon in frühen Jahren entschleunigen, sodass das Leben zumindest Richtung Unendlichkeit verlängert werden kann. Ob das schon 2045 so weit ist, wie Kurzweil prognostiziert, wollen die beiden nicht bestätigen. Wood empfiehlt: „Lebe lange genug, um ewig zu leben.“ Ob man das überhaupt wirklich will, steht auf einem ganz anderen Blatt.