Natur schwer kopierbar |
Isabel Weinert |
30.07.2025 12:00 Uhr |
Hände sind ein Wunderwerkzeug, dessen vielfältigste Funktionen immer noch nicht vollständig zu ersetzen sind. / © Adobe Stock/Westock
Die Hand zählt zu den kompliziertesten biomechanischen Systemen der Natur. Gesteuert von 36 Muskeln in Hand und Unterarm meistert sie Bewegungen mit Präzision und Fingerspitzengefühl ebenso mühelos wie mit Kraft und Dynamik. Allein der Daumen wird von acht Muskeln bewegt und ist durch seine besondere Stellung für das Greifen und Festhalten von Gegenständen unerlässlich. Papillarleisten an der Handinnenfläche verbessern die Haftung beim Greifen. Rund 10.000 Sensoren in der Haut von Hand und Fingern versorgen das Gehirn permanent mit Informationen über Strukturen, Oberflächenbeschaffenheiten oder Temperaturen von Objekten und Gegenständen. Das Gehirn wiederum ermittelt aus diesen Informationen Handstellung, Bewegungsabfolge und Kraft, die für das Greifen oder Berühren eines Gegenstandes aufgewendet werden müssen.
Ohne Informationsaustausch zwischen Hand und Gehirn gäbe es beim Greifen so manche Überraschung: Bei zu viel Kraftaufwand ist ein Apfel zerquetscht bevor er zum Mund geführt werden kann. Gläser und Tassen zerbrechen allein durch das Halten in der Hand. Ist die Kraftaufwendung zu gering, gelingt weder das Aufheben noch das Festhalten eines Gegenstands. Und nicht zuletzt wären wir nicht in der Lage, glatte von rauen oder kratzigen Oberflächen zu unterscheiden.
Die hohe Komplexität der Hand macht sie zu einer Herausforderung für die Medizintechnik. Bis heute können Prothesen menschliche Hände nicht vollständig ersetzen, obwohl schon zu Zeiten der alten Römer versucht wurde, adäquaten Ersatz zu finden. Verbreitet waren damals und in den nachfolgenden Jahrhunderten in erster Linie rein kosmetische Prothesen aus Holz oder Metall, die das Körperbild vervollständigen sollten. Der römische General Marcus Sergius soll jedoch bereits eine Prothese getragen haben, die eine für ihn wichtige Funktion erfüllte. Er konnte ein Schild einklemmen und damit weiter in den Krieg ziehen.
Im Jahr 1812 entwickelte der Berliner Zahnarzt und Chirurgietechniker Pierre Ballif die erste Handprothese, die durch den verbliebenen Armstumpf des Trägers gesteuert werden konnte. Aufgebaut war sie aus zwei Seilzügen, die an einem Brustgurt nahe der Achselhöhle befestigt wurden. Durch das Strecken des Ellenbogengelenks beziehungsweise das seitliche Anheben des Armstumpfs wurden die Seilzüge gespannt und die Finger sowie der Daumen bewegt.
Einige Jahre später konnte die Instrumentenmacherin Margarethe Karoline Eichler die Technik weiter verbessern. Die Streckbewegung des Arms führte nun zu einer geschlossenen Faust, was die Prothese leistungsfähiger machte.
Mit den beiden Weltkriegen stieg sowohl die Nachfrage nach funktionsfähigen Handprothesen als auch die Entwicklung neuer Steuerungsmethoden stark an. Zum praktischen Einsatz kam das Verfahren des Chirurgs Ferdinand Sauerbruch von der Universitätsklinik Zürich, bei dem Kontraktionen des verbliebenen Bizeps genutzt wurden, um die Prothese zu bewegen. Über einen Rückkopplungsmechanismus konnte der Träger bereits spüren, wie stark er zugriff. Ein entscheidender Nachteil: Die Greifkraft war so gering, dass sich nur leichte greifen ließen. Dennoch war die Prothese bis Ende der 1950er Jahre regelmäßig und bis in die 1990er Jahre hinein noch gelegentlich in Verwendung.
Der Durchbruch in puncto Greifkraft kam mit dem Einbau von Elektromotoren und Gasdrucksystemen. Angetrieben werden sie in den heutigen sogenannten myoelektrischen Prothesen durch die gezielte Kontraktion einzelner Muskeln im verbliebenen Armstumpf.
Die Muskelkontraktion ist als elektrische Spannung auf der Haut messbar und wird von Sensoren erfasst. Diese leiten sie anschließend als Steuerbefehl an Elektromotoren in der Prothese weiter, die die gewünschte Bewegung umsetzen. Über die Stärke der Anspannung kann der Prothesenträger steuern, ob die Handbewegung schnell, langsam, kräftig oder vorsichtig ausgeführt werden soll.
Bis eine myoelektrische Handprothese im Alltag präzise verwendet werden kann, müssen Prothesenträger derzeit noch viel Geduld aufbringen. Das Ansteuern der einzelnen Muskeln muss aktiv erlernt werden und erfordert regelmäßiges Üben. Auch die richtige Kraftaufwendung im Umgang mit verschiedenen Gegenständen benötigt Erfahrung, die nur ständiges Training mit sich bringt.
Zwar wurde die Rückmeldungsfunktion von Prothesen über die eingesetzte Kraft ebenfalls weiter verbessert, lässt sich aber nicht mit der während des natürlichen Greifprozesses vergleichen. Je nach Prothesenart spüren Betroffene einen leichten Druck, Vibrationen oder hören ein verändertes Geräusch, auf das sie durch Regulierung der Muskelanspannung reagieren können.
Probleme können zudem die Sensoren bereiten. Für die korrekte Messung der Muskelanspannung müssen sie fest auf der Haut haften, was bei einigen Menschen Druckstellen verursacht. Durch starkes Schwitzen oder Erschütterungen, Verrutschen der Sensoren oder Handysignale sind Fehlfunktionen der Prothese möglich. Hier sollen KI-gestützte Systeme künftig helfen, zwischen Stör- und Nutzsignalen zu unterscheiden.
Nicht allen Menschen, die mit einer myoelektrischen Prothese versorgt werden können, gelingt der Umgang so gut, dass sie als Erleichterung im Alltag erlebt wird. Oft wird die Prothese dann nur selten getragen. Andere trauen sich das Erlernen der Steuerung nicht zu und entscheiden sich von Beginn an gegen eine Prothese oder tragen eine rein kosmetische Variante.
Um allen Menschen Zugang zu einer funktionsfähigen Prothese ermöglichen zu können, ist es ein großes Anliegen der Medizintechnik, die Steuerung intuitiver und natürlicher zu gestalten. Das Projekt SOMA (Ultrasound peripheral interface and in-vitro model of human somatosensory system and muscles for motor decoding and restoration of somatic sensations of amputees), an dem Wissenschaftler des Fraunhofer-Instituts für Biomedizinische Technik sowie Forschende weiterer europäischer Länder beteiligt sind, setzt hierfür auf Ultraschallsensoren.
Diese sind in den Prothesenschaft integriert und schicken laufend Schallimpulse an das Muskelgewebe des Unterarms, die wiederum vom Gewebe reflektiert werden. Die Laufzeiten der reflektierten Signale liefern Informationen über die räumliche Tiefe des Muskelstrangs, der die jeweilige Schallwelle zurückschickt.
So lassen sich nicht nur die durch Nervenstimuli des Gehirns ausgelösten Kontraktionen im Muskelgewebe beobachten, sondern auch Aktivierungsmuster im Muskel erkennen, die für bestimmte Bewegungen der Hand oder eines Fingers stehen. Die Auswertung der Signale übernimmt eine KI-gesteuerte Software, die sie anschließend als Befehle an die Handprothese sendet, wo sie in Bewegungen umgesetzt werden. Der ganze Prozess soll in Echtzeit ablaufen.
Geplant ist zudem, die Rückmeldungsfunktion zu verbessern. Hierfür sollen Handprothesen künftig sensorische Reize vermitteln. Statt auf Ultraschallsensoren setzen die Forscher auf Elektroden, die an Nerven implantiert werden. Sie leiten die Signale anschließend an das Gehirn weiter, das wie bei einer gesunden Hand mit Anpassungen des Greifprozess reagiert.
Noch befindet sich das SOMA-Projekt in der Laborphase. Forschende konnten aber bereits zeigen, dass die ultraschallbasierte Technik eine feinfühligere und präzisere Steuerung von Handprothesen ermöglicht als Elektroden. Und besonders wichtig: Um die Prothese bedienen zu können, ist nur ein kurzes und einfaches Training erforderlich. Es reicht bereits aus, wenn der Prothesenträger versucht, Teile der Hand und Finger zu bewegen. Die jeweiligen Aktivierungsmuster werden erfasst und als Referenz im System hinterlegt.
Wissenschaftler des Deutschen Primatenzentrums (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen denken noch einen Schritt weiter und wollen die Steuerung von Handprothesen künftig über Gehirn-Computer-Schnittstellen ermöglichen. Dahinter steckt folgendes Prinzip: Gehirn-Computer-Schnittstellen beruhen auf der Entdeckung, dass das Gehirn elektrische Felder erzeugt. Diese sind auf der Kopfhaut messbar und gehen bei bestimmten Bewegungsabläufen mit charakteristischen Mustern einher. Ein Computer kann die Muster auslesen und in Bewegung umsetzen.
Gearbeitet wird derzeit mit Rhesusaffen, die ein vergleichbares Nerven- und Sehsystem und eine ganz ähnliche Feinmotorik wie Menschen besitzen. Die Affen wurden darauf trainiert, eine virtuelle Avatarhand auf einem Bildschirm zu bewegen. Anfangs führten die Affen die Handgriffe mit der eigenen Hand aus und sahen die Bewegungen der virtuellen Hand auf einem Bildschirm. Währenddessen zeichnete ein Daten-Handschuh die Handbewegungen auf.
Im nächsten Schritt sollten die Affen die virtuelle Hand steuern, indem sie sich den Griff nur vorstellten. Dabei wurde die Nervenzellaktivität in den Hirnarealen gemessen, die an der Steuerung von Handsystemen beteiligt sind.
Für den Algorithmus der Gehirn-Computer-Schnittstelle konzentrierten sich die Wissenschaftler vor allem auf die Signale, die die Haltungspositionen von Hand und Fingern repräsentieren. Beim anschließenden Vergleich der Greifbewegungen der echten Hand und der imaginären Hand zeigte sich, dass beide mit vergleichbarer Präzision ausgeführt wurden.