Pflanzen und KI. Rangordnung und Neujahrswunsch
Im letzten Monat des Jahres 2023 mit seinen großen Umwälzungen und täglichen Schreckensnachrichten hatte ich mich auf der Suche nach etwas Anderem wieder einmal mit Pflanzen beschäftigt. Natürlich nur, um am Ende festzustellen, dass es kein von Allem losgelöstes Thema gibt. Auch dieses ist komplex, existenziell und sogar hochpolitisch. Eine gewisse Aktualität bekamen Pflanzen mit den Weihnachtsbäumen. Millionen gefällter Bäume in einer Zeit von sich zuspitzender Klimakatastrophe? Beim näheren Hinschauen kommt man auf viele Pros und Contras. Zu den neuen und überraschenden Erkenntnissen gehört dann, dass die Ökobilanz bei den künstlichen Bäumen meist sogar schlechter ist als bei den natürlichen, wenn diese regionale Bäume aus biologischen Baumschulen sind.
Aber hier geht es mir weder um Weihnachtsbäume noch um diesen Teil des Themas Pflanzen – ihre Nutzung durch uns – sondern um etwas Anderes: unsere selbstgegebene Hierarchie, die gefühlte Rangordnung von ganz oben nach ganz unten. Menschen, Tiere, Pflanzen. Die Dominanz des Menschen. Und das hochaktuelle Infragestellen dieser Rangordnung durch die Künstliche Intelligenz, genauer, die AGI oder gar ASI.
Der Mensch an der Spitze der Hierarchie?
Der Mensch hält sich ja für die Krone der Schöpfung, aber das ist er nur in dem Sinne, dass er die meisten Veränderungen in unserer Welt bewirkt hat. Etwa 9000 Jahre vor unserer Zeitrechung begann das Holozän – der Name heißt “alles neu” – in welchem es durch Klimawandel umwälzende Veränderungen im Tier- und Pflanzbereich gab; in den letzten Jahrhunderten griff der Mensch immer mehr ein, das Anthropozän ( “neu durch Menschen” ) wird ab dem 17. Jahrhundert oder auch erst im 20. gesehen. Eingreifend also wirkt der Mensch, alles beherrschend, aber ansonsten ist diese Hierarchie gar nicht so gut begründet: viele Tiere sehen, hören, riechen besser als wir, sie sind muskelstärker und laufen schneller; und Pflanzen haben uns das Wichtigste überhaupt voraus: sie können meist ihre Nahrung selbst herstellen, während wir alles zuführen müssen. Kein Grund also eigentlich für die Dominanz eines der Wesen in der Hierarchie, da keins Alles kann.
Pflanzen am Ende der Rangordnung.
Völlig unberechtigterweise stehen die Pflanzen in unserer selbstgeschaffenen Rangordnung ganz unten, trotz ihrer enormen Bedeutung für uns. Erst langsam mehren sich die Stimmen, die nicht nur ihre Bedeutung in Bezug auf Vernutzung wie bei Ernährung und Landwirtschaft hervorheben, sondern sich auch allgemeiner nach dem Status fragen, den wir den Pflanzen zuordnen. Innerhalb des großen Gebiets der Ethik entwickelt sich nach der Tierethik auch eine Pflanzenethik. Die Erkenntnis, wieviel wir auch von Pflanzen lernen könnten, kommt schleppend. Zu beobachten sind da beispielsweise die Überlebenstechniken Vernetzung und Kommunikation sowie ein perfektes Team Work! Unterirdische Pilzgeflechte von Pflanzen, die dem Austausch von Nährstoffen dienen, wurden schon mit neuronalen Netzwerken verglichen. Symbiosen führen dazu, dass alte Bäume schwache kranke und junge mitversorgen und dass überlebenswichtige Stoffe als Vorrat gespeichert werden können.
KI und die Rangordung
Der britische Mathematiker Irving John Good hat 1965 in Oxford eine Arbeit mit dem Titel “Spekulationen über die ersten superintelligente Maschinen” veröffentlicht, in der steht, dass die erste superintelligente Maschine die letzte Errungenschaft des Menschen sein wird, weil sie aufgrund eben dieser Superintelligenz selbst neue bessere Maschinen bauen würde. Spekulation war der richtige Ausdruck, denn das war logisch, aber Science Fiction. Ein halbes Jahrhundert später sprechen wir intensiv und immer ernsthafter über AGI, die ‘Allgemeine Künstliche Intelligenz’ und sogar über ASI, die sich völlig selbständig machende Superintelligenz. Genauer: wir als Nicht-Experten und Leser sprechen immer intensiver und die Wissenschaftler immer ernsthafter über dieses Thema. Weltweit geht es um die eine Frage, die alle umtreibt: nachdem wir bisher KI als Werkzeug benutzten, (ANI oder Artificial Narrow Intelligence) – welchen Einfluss können wir darauf haben, dass eine entstehende AGI, also eine KI mit dem Menschen ähnlichen kognitiven Fähigkeiten, oder gar eine ASI, die uns nicht in Teilen, sondern in Allem überlegen ist, für uns positive Auswirkungen hat?
Neujahrswunsch 2024
Um uns zwischen Begeisterung und Ohnmacht zu bewegen, vor allem aber um uns nicht in einem Dauerzustand gefühlter Bedrohung durch eine möglicherweise bösartige Superintelligenz zu fühlen, brauchen wir auf jeden Fall mehr Verständnis und Beteiligung. Gegen Ängste hilft Informiertsein. Es erscheinen lohnende Arbeiten über die Ethik der Künstlichen Intelligenz. Da oft nicht einmal die Begriffe klar sind, werden Versuche von Klassifizierungen unternommen, wie kürzlich von Google Deep Mind.
Und was hat das alles mit den Pflanzen zu tun?
Es hat sehr viel mit unserer genannten Hierarchie zu tun, die im Augenblick vielleicht noch nicht unmittelbar bedroht, aber jedenfalls durch die AGI und das Konzept der ASI in Frage gestellt wird. Wäre dieser Punkt nicht eine Gelegenheit für uns, sie radikal zu hinterfragen? Diese Rangordnung im Sinne von Hackordnung endlich abzuschaffen und Symbiosen von Menschen, Tieren und Pflanzen als das Wesentliche zu begreifen? Zu lernen also grenzübergreifend voneinander und von schon vorhandenen Organisationsformen in unserer Tier- und Pflanzenwelt? Das wäre dann ein Neujahrswunsch! Und die Pflänzchen, die sich im Bild oben aus den Steinen ihren Weg bahnen, wären ein Symbol für Hoffnung.
Danke für Bild an Mabel Amber auf Pixabay
Literaturtipps
Angela Kallhoff: Prinzipien der Pflanzenethik
Stefan Mancuso: Die Pflanzen und ihre Rechte
Stefan Mancuso: Die unglaubliche Reise der Pflanzen
Lebensdauer – Todeszeitpunkt
Ärzte und Ärztinnen kennen die Frage: Wie lange habe ich noch? Oft wird die Frage nach Lebensdauer und Todeszeitpunkt sofort bei der Diagnose ‘Krebs’ gestellt, fast immer am Ende eines langen Leidens – Prozesses, wo es darum geht, welcher Behandlungsweg weiter eingeschlagen werden soll.
Lebensdauer – Todeszeitpunkt: sinnvolle Frage oder Neugierde?
Man kann die Frage aber auch ‘nur so’ stellen – das Internet macht es möglich. Tatsächlich kann, wer möchte, die verschiedensten sites finden; zum Teil sind diese bewusst als eine von mehr oder weniger spielerischen Grusel-Möglichkeiten angelegt, teilweise führen sie aber zu Sichtbarmachung der allgemeinen Lebenserwartung. Das kann sehr sinnvoll sein: hier wird zum Beispiel im Endeffekt aufgezeigt, wie sehr die allgemeine Lebenserwartung für Einzelne beinflussbar ist. So könnte eine solche site beispielsweise dazu führen, dass Menschen sehen, wieviel Lebensjahre sie gewinnen könnten, wenn sie lang Gewusstes in die Tat umsetzen würden: sich gesünder ernähren, nicht mehr rauchen, Alkoholkonsum einschränken, mehr Bewegung in ihren Alltag einbauen und soziale Beziehungen stärken.
Allgemeine Lebenserwartung und persönliche Lebensdauer
Es geht dabei aber immer um die allgemeine Lebenserwartung. Die Antwort ist eine statistische und kann für eine Einzelperson nur aussagen: so wie du jetzt bist, und wenn alles so bleibt, wirst du in dieser Gesellschaft und in diesem Land etwa – sagen wir – bis zum 92. Lebensjahr leben. Diese Antworten der Statistiken können nicht den Einzelnen erfassen, nicht wissen und einrechnen, ob du mit nur 56 im nächsten Jahr einen tödlichen Unfall erleidest oder einen Herzinfarkt, oder ob du nach mehrfachen Infektionen vielleicht niereninsuffizient wirst und eine Dialyse benötigst oder auf eine Transplantation wartest uvm.
Ganz anders ist das bei den Fragen, die in der Medizin an Ärzt:innen gerichtet werden oder die Ärzt:innen und Pfleger:innen an die Medizin als Wissenschaft richten. Hier wird unter Vorlage aller bekannten medizinischen Daten gefragt, wie sich die ganz persönliche Lebenserwartung darstellt; die Frage also ist, wie lange der Mensch X mit den Untersuchungsdaten Y noch leben wird. Kann man diese Frage heute beantworten? Um es gleich zu sagen: nein, wenn es um einen genauen Todeszeitpunkt geht. Allerdings werden die Annäherungswerte immer besser. Das bringt Chancen und Probleme mit sich.
In die Zukunft schauen: was können wir schon?
Die Frage ist so alt wie die Menschheit: Seit der Antike kennen wir die Orakel, Wahrsager hatten Zulauf bei Jahrmärkten, Tarotkarten sind weiterhin beliebt. In allen Fällen geht es um reine Auslegung. Heute gibt es zur Bestimmung von Lebensdauer – Todeszeitpunkt Algorithmen, die für bestimmte Gruppen eine Art Standortbestimmung vornehmen können. Dazu gehört beispielsweise das für gebrechliche alte Menschen in häuslicher Pflege von Wissenschaftlern der Universität Ottawa konzipierte Projekt Respect.
Dieses in Kanada entwickelte tool basiert auf mehreren Fragen und gibt am Ende eine Einschätzung, mit welcher prozentualen Wahrscheinlichkeit innerhalb von drei Monaten bis fünf Jahren der Tod eintritt. Solche Voraussagemodelle sind schon spezifischer, aber weit entfernt von einer genauen Voraussage. Perfektionierter wirken da die in Laboruntersuchungen feststellbaren Biomarker.
14 solche Biomarker können die Wahrscheinlichkeit berechnen, innerhalb der nächsten 5-10 Jahre zu sterben. Über längere Zeiträume gibt es bisher kaum Möglichkeiten, besonders bei älteren Menschen. Aber über eine Kombination dieser Biomarker mit anderen Untersuchungsbefunden ist eine immer genauere Einschränkung zu erwarten.
Todeszeitpunkt – sollten wir nähere Bestimmung anstreben?
Einiges spricht dafür:
- Jede frühzeitige Erkenntnis über die individuelle Lebenserwartung erleichtert auch noch mögliche präventive Maßnahmen, dazu eine sinnvolle Therapieplanung.
- Möglichst genaue Kenntnisse über das Sterberisiko können Ärzt:innen bei der Einschätzung auch des Risikos einer Operation helfen. Ist der/die zu Operierende zu gebrechlich für den Eingriff? Welches Positive ist für die Patient:innen im Ganzen von dem Eingriff zu erwarten?
- Auf der Grundlage solcher Kenntnisse könnte leichter bei unheilbar Kranken über die am besten einzuschlagende Behandlung entschieden werden. Patient:innen könnten klarer entscheiden, ob sie beispielsweise lieber das Krankenhaus verlassen und zu Hause durch einen ambulanten Palliativdienst betreut werden wollen.
Und Vieles dagegen:
- Eine solche statistische Risikoeinschätzung könnte einen zu hohen Stellenwert in der individuellen Medizin bekommen und es würden sich unzählige neue Fragen ergeben: dürften Krankenkassen fordern, dass Algorithmen über Operationen entscheiden, die für Patient:innen noch finanziert werden würden? Dürfte eine KI die Patient:innen in Gruppen einteilen, welche generell noch Leistungen (zum Beispiel Medikamente, Dialyse) erhalten und welche nicht? Wäre eine solche Einteilung nach individuellen Untersuchungsbefunden gerechter als eine Einteilung nach Alter, die ja von Gesundheitsökonomen als objektives und gerechtes Kriterium bezeichnet und in verschiedenen Ländern schon angewendet wird?
- Wie weit könnten Ärzt:innen damit unter Druck gesetzt werden? Würde von ihnen verlangt werden, dass sie im Gespräch zur gemeinsamen Entscheidungsfindung mit Patient:innen nur noch solche Therapien vorstellen, die aufgrund der Einteilung des Algorithmus ‘lohnend’ sind?
- Ergebnisse von Vorhersagen können Patient:innen stark beinflussen. Das größte Problem ist die ‘selbsterfüllende Prophezeiung’. “Alles lohnt sich bei mir ja sowieso nicht” kann zu Depression und Selbstaufgabe führen, was für jeden Heilungsprozess sicher nicht förderlich ist. An dieser Stelle ist auch darauf hinzuweisen, dass Patient:innen einerseits alles gemeinsam mit Ärzt:innen entscheiden sollen, aber andererseits ein ‘Recht auf Nichtwisssen’ haben. Wie und wodurch müssten alle Patient:innen den Wunsch nach Nichtwissen festlegen und zur Kenntnis Aller bringen?
Lebensdauer – Todeszeitpunkt kennen: wollen wir das überhaupt?
In dieser Frage stecken zwei verschiedene Gedanken. Was wollen wir als Gesellschaft? Und: Was will ich für mich? Die erste Frage verlangt eine breitere gesellschaftliche Diskussion als bisher geführt und zwar bald; denn natürlich hängt diese Frage auch zusammen mit unserer demografischen Entwicklung, mit drohenden immer größeren Problemen bei der Finanzierung im Gesundheitswesen, Standortbestimmungen der Krankenkassen, Leistungsmöglichkeiten der Krankenhäuser. Steigt der Kostendruck immer weiter, wäre gar die Konsequenz möglich, dass solche immer besser werdenden Tests zur Bestimmung der Lebenserwartung zu einer Pflicht werden könnten? Der Deutsche Ethikrat hat schon 2017 in seiner Stellungnahme zu Big Data in der Gesundheit zumindest klargestellt, dass der Gebrauch von derartigen in der Zukunft möglichen Risikoprofilen für den Gebrauch der Gesetzlichen Krankenkassen verboten werden sollte, schon allein deshalb, weil ein solcher Gebrauch das Solidaritätsprinzip aushebeln würde.
Mit der zweiten Frage: “Was will ich für mich” sollte sich allerdings Jeder bewusst auseinandersetzen. Auch wenn es offensichtlich einzelne Menschen gibt, die ein ewiges Weiterleben für erstrebenswert halten, (Stichwort beispielsweise Kryokonservierung) trifft das wohl für die Mehrheit nicht zu. Ob notgedrungen oder aus fundierten Überzeugungen bejahen Menschen die Tatsache, dass wir sterben und dass neue Generationen nach uns leben werden. Nachdenken müssen wir viel intensiver über die Frage, was jeder Einzelne für sich für Lebensqualität hält; darüber, was für mich selbst ‘sinnvoll’ erscheint, dass ich vielleicht weniger Angst vor dem Tod habe als vor einem für mich persönlich nicht mehr sinnvollen Leben und vor allem vor einem Leben in Schmerzen und Not. In diesem Zusammenhang müssen wir, jeder Einzelne, tatsächlich auch mehr über ‘sinnvolle Medizin‘ nachdenken und darüber, dass es ‘vergebliche Medizin’ nicht gibt. Darüber hinaus darüber, ob wir über alles, was man untersuchen kann, inklusive Voraussagen, informiert werden wollen oder nicht, und wir müssen solche Entscheidungen dann auch kommunizieren. Sprechen mit Menschen unseres Vertrauens, schriftlich aufnehmen in unsere Vorsorgevollmacht.
Dank für Bild an Lucas Pezeta auf Pexels
Literaturtipps
Thomas Ramge: Wollt Ihr ewig leben?
Thomas Ramge: Augmented Intelligence. Wie wir mit Daten und KI besser entscheiden
Gerd Gigerenzer: Risiko. Wie man die richtigen Entscheidungen trifft
Können Roboter den Pflegenotstand beheben?
Die Situation: der demografische Wandel – Zunahme älterer bei Abnahme jüngerer Menschen – ist längst da. Zusätzlich kommt in wenigen Jahren die Generation der ‘Babyboomer’ ins Rentenalter. Somit wird die Anzahl pflegebedürftiger Menschen nochmals stark ansteigen. Pflegenotstand ist jetzt schon Fakt, besonders dramatisch der Mangel an Pflegefachpersonen. Zusätzlich gibt es immer mehr Ausfälle bei den jetzt Pflegenden, die durch dauernde Überforderung in Schichtdiensten eher erkranken oder ganz ausfallen oder kündigen. So ist der Personalschlüssel Pflege in Deutschland im europäischen Vergleich schlecht. Was liegt also näher, als endlich Roboter zur Lösung einzusetzen? Die Frage ist: Können Roboter den Pflegenotstand beheben?
Pflegerobotik update
Unter diesem Titel hatte ich im März 2022 zusammengefasst, was es neu gab. Inzwischen ist mehr als ein Jahr vergangen. Gibt es einen Durchbruch? Um es gleich zu sagen: nein, und das trotz der immensen technischen Fortschritte. Kurz zusammengefasst: es stehen uns bereits zur Verfügung:
- Serviceroboter mit immer mehr Möglichkeiten: Material wie Wäsche oder Verbandsmaterial in Kliniken zu den verschiedenen Stationen transportieren, inzwischen selbständig Aufzug fahren, be- und entladen. Was hier mit der Pflege zu tun hat, ist die Zeitersparnis. Wichtig, aber eben nur das.
- Näher an Patient:innen sind Assistenzrobotsysteme wie ferngesteuerte immer flexiblere und sensiblere technische Arme, die beispielsweise Verbandswechsel bei großflächigen Wunden durchführen können, Lagerungen in Isolierzimmern wegen Infektionsgefahr und Vieles mehr. Diese arbeiten aber nicht selbständig, sondern als Werkzeug für Pflegekräfte. Allerdings können Assistenzroboter auch einfache praktische Hilfen bereitstellen; sie können beispielsweise Getränke bringen, hingefallene Gegenstände aufheben, Erinnerungsfunktionen übernehmen und Stürze melden. Assistenzroboter wie Pepper spielen auch eine Rolle nur bei der Zeitersparnis, da sie Patient:innen eine Zeitlang beschäftigen können, ob durch Vorlesen und Spiele oder durch Gymnastikprogramme.
- Sozioemotionale Roboter wie die Robbe Paro (in den USA als Medizinprodukt zertifiziert und von den Kassen erstattet), die wie eine Tiertherapie dort eingesetzt werden können, wo aus hygienischen Gründen Tiere nicht gestattet sind. Menschliche soziale Umarmungen und Berührungen können aber auch durch immer menschenähnlichere humanoide Roboter nur dargestellt, nicht ersetzt werden.
Und was gibt es immer noch nicht ? Eine Kombination aus allem. Und schon gar nicht gibt es ein technisches System, welches eine Pflegefachkraft ersetzen könnte. Die – je nach Standpunkt und Interessen – Hoffnung oder Angst, dass Roboter Fachpflegekräfte ersetzen können, scheint immer unbegründeter.
Anforderungen an Pflegeroboter
Was müsste es denn geben, um Menschen in der Situation der Pflege, welche nicht Ersatz von einzelnen Funktionen, sondern Sorgearbeit ist, ersetzen zu können? Die Antwort wäre: Roboter mit sehr umfangreichen, wenn nicht allen menschlichen Eigenschaften, körperlicher und geistiger Interaktionsfähigkeit, sehr komplexem und selbständigem Verhalten (was der Verantwortung einer Person entspricht, auch mit allen rechtlichen Konsequenzen). Spätestens an dieser Stelle wird aber wohl deutlich, dass es um Fragen geht, die nicht nur die Grenze des Machbaren, sondern auch des Wünschbaren berühren! So formulierte Peter Tackenberg vom Deutschen Berufsverband für Pflegeberufe 2019 lapidar: “Technik, die das menschliche Beurteilungsvermögen durch künstliche Intelligenz ersetzt statt ergänzt, wird in der Pflege nicht benötigt.”
Pflegeroboter und Pflegenotstand heute
Was sind die Fakten? Im Augenblick muss der Einsatz sozialer Robotik von Pflegepersonen begleitet werden; es ist nicht nur die Technik, die Einführung verlangt, weil einmal die Nutzung robotischer Systeme technische Kenntnisse erfordert und zum Anderen diese Systeme gewartet werden müssen. Vor allem benötigen Menschen Zeit, um sich an Interaktionen mit Robotern zu gewöhnen; das gilt ganz besonders bei Patient:innen mit kognitiven Einschränkungen. Dadurch entsteht aber mehr, nicht weniger Arbeit für Pflegepersonen, also genau auf dem Gebiet, wo (Altenpflege!) Roboter von der Werbung als die Lösung hingestellt werden. Ganz abgesehen davon, dass die Maschinenethik weiterhin ausgebaut werden muss, dass der Einsatz selbstlernender Systeme erst am Anfang steht, dass Fragen zur Verantwortung und Haftung weiter ungeklärt und gesetzgeberische Maßnahmen sowie rechtliche Vorgaben noch lückenhaft sind.
Pflegerobotik in der Entwicklung
Neueren Datums ist die Erkenntnis, die wegweisend sein könnte: dass die Probleme schon bei der Entwicklung gesehen werden müssen. Entwickler müssten zunächst die Komplexität pflegerischer Maßnahmen verstehen, abgesehen von allem, was mit den ethischen und sozialen Fragestellungen verbunden ist. Das ist nur durch enge Zusammenarbeit mit Pflegefachkräften erreichbar. Am Ende dieses Prozesses müsste ein Roboter stehen, bei dem eine Pflegefachkraft zusätzlich Aufgabenstellung und Veränderung für ihre einzelnen Patient:innen individuell vornehmen kann. Es klingt so einfach und ist am schwierigsten: Roboter, die in der Interaktionsarbeit (Arbeit an und mit Menschen) einen Menschen ersetzen sollen, müssen sich an die Anforderungen des Einzelfalls und die Bedürfnisse jedes einzelnen Menschen anpassen können und sie müssen in dieser Interaktion mit den beteiligten Menschen weiterlernen.
Wie geht es weiter?
Immerhin, es gibt Stimmen, die sagen: “[…] die Frage ist nicht, ob, sondern wie, wo und letztlich wann intelligente und autonome Roboter in der Altenpflege Einsatz finden werden”. Wenn man die Frage etwas erweitert auf ‘Seniorenbetreuung’, zum Beispiel auf alleinlebende ältere Menschen, die möglichst lange selbständig zu Hause bleiben wollen, ist das wohl richtig. Hier gibt es inzwischen Pilotprojekte. Auch Kombinationen aus Assistenz- und Unterhaltungsrobotern wie TEMI werden in Praxisprojekten getestet, kommen allerdings bisher immer wieder an ihre Grenze. Ansonsten ist der Begriff Pflegeroboter, unter dem verstanden wird, dass eine Maschine Pflegekräfte ersetzt, auch heute nur irreführend. Wer Werbung sieht, glaubt, ein Roboter könne sich selbständig um Körperpflege, Ernährung und Medikamentenverabreichung kümmern und gleichzeitig Gesellschafter oder gar Ansprechpartner sein, und das ist nicht korrekt. Es trifft heute nicht zu und wird flächendeckend als Lösung unseres Pflegenotstandes zumindest sehr lange nicht zutreffen. Auf der anderen Seite steht das Problem, dass Serviceroboter von Pflegekräften zur Arbeitserleichterung audrücklich gewünscht werden, aber in der Altenpflege kaum zum Einsatz kommen. Grund? Die Kosten. Oder: Verschiebung des Problems auf die höchste strukturelle Ebene: politischer Wille. So ist selbst hier, wo es bereits möglich wäre, kaum ein Fortschritt zu verzeichnen.
Fazit:
- Im Augenblick ist im Pflegebereich jeder Roboter noch selbst zu stark ‘pflegebedürftig’; er braucht die Menschen mehr als die Menschen ihn.
- Die in der Werbung oft dargestellte Kombination aus Serviceroboter und sozioemotionalem Roboter ist weder erreicht noch im Augenblick vostellbar.
- Der Technikfortschritt ist deutlich. Er bedeutet aber letztlich, dass nicht weniger, sondern mehr und vor allem besonders qualifizierte Pflegekräfte mit differenzierter Ausbildung erforderlich sind.
- Die Zukunft der Pflegerobotik liegt im individuellen Anpassen an die Bedürfnisse der einzelnen Menschen. Dazu wäre nicht nur viel mehr interdisziplinäre Forschung nötig, sondern vor allem praktische Zusammenarbeit von Entwicklern und Pflegefachkräften lange vor dem Einsatz eines Roboters. Die Einbindung der Pflege ist bereits in der ersten Entwicklungsphase dringend erforderlich.
Nicht der Roboter pflegt, sondern die Pflegekraft
Ich glaube, das Beitragsbild symbolisiert den jetzigen Stand sehr schön: die menschliche Hand und die Roboterhand versuchen, sich zu berühren, aber die Lücke zwischen beiden ist nicht zu schließen. Bei der Annäherung der zwei Welten ist ein Händedruck noch nicht in Sicht. So bleibt auch 2023 nur die Feststellung: nicht der Roboter pflegt, sondern die Pflegekraft. Oder, wie es der Deutsche Ethikrat
schon 2020 formulierte: es gibt einen möglichen Nutzen von Robotik im Pflegebereich, aber der liegt nicht in der Beseitigung von Personalengpässen im Einzelnen und des Pflegenotstandes im Ganzen, sondern in der Unterstützung und Förderung guter Pflege. Ferner kann und darf ein Roboter nicht im Sinne von Effizienzmaximierung als Ersatz zwischenmenschlicher Beziehung betrachtet und niemals gegen den Willen von Gepflegten und Pflegenden eingesetzt werden; schließlich ist nötig, dass alle Betroffenen in die Entwicklung der Technik einbezogen werden.
Dank an Tara Winstead für Foto auf pexels
Literaturtipps
Ludwig Binder: Pflegeroboter als Zukunft im Gesundheitswesen
Ronald Deckert: Digitalisierung in der Altenpflege
Katrin Misselhorn: Grundfragen der Maschinenethik
Thomas Rampe: Mensch und Maschine
Hergesell Jannis et al (Hrsg): Genese und Folgen der Pflegerobotik
Oliver Korn ( Hrsg) : Social Robots
Nicole Kaczmar: Pflegeroboter in der Altenpflege
Ist Chat GPT intelligent? Geht Technik vor Ethik?
‘Ist ChatGPT intelligent’ und ‘Geht Technik vor Ethik’? Grundlegende Fragen, die zu wenig gestellt werden. Große KI-Sprachmodelle wie ChatGPT, vor wenigen Monaten nur Insidern bekannt, gehören jetzt zum Alltag. Sie schreiben Texte und Programme, Privatbriefe, Hausarbeiten für Schüler und Studenten und inzwischen sind auch akustische und bildliche Eingaben möglich. Parallel zu den immer größer werdenden Möglichkeiten steigt ein allgemeines Unbehagen, auch treten mögliche Bedrohungen in unser Bewusstsein. Die Angst vor Sicherheitsrisiken und vielfältigem Missbrauchspotenzial ist überall präsent. Die Technik galoppiert, die Beschäftigung mit ihren Risiken versucht Schritt zu halten. Wir wissen kaum etwas und benutzen blind. Mit einer am 20. März 2023 veröffentlichten Stellungnahme hat der Deutsche Ethikrat etwas Licht auf “Mensch und Maschine” geworfen.
Was ist denn so neu an dieser KI?
Wir haben uns längst daran gewöhnt, dass mit Hilfe von Künstlicher Intelligenz große Datenmengen verarbeitet werden können und dass das auf allen Gebieten, auch in der Medizin, sehr hilfreich ist. Jetzt aber treten Systeme auf, die als “smart” bezeichnet werden, die uns nicht nur den Eindruck selbständiger Entscheidungen erwecken, sondern uns ganz persönlich und sogar emotional anzusprechen scheinen. Spätestens an dieser Stelle kommt es zu einer neuen gefühlten Bedrohung: gab es bisher nur Bedenken wegen missbräuchlicher Anwendung, beispielsweise von Schadsoftware, phishing mails und Sicherheitsbedrohungen, geht es jetzt um Ängste, die uns in unserer Existenz betreffen, eine Bedrohung durch ein Etwas, welches uns gleichwertig oder überlegen wäre und uns ersetzen würde.
Gesetzgebung für KI?
Weltweit gibt es Bestrebungen, Gefahren einzuhegen, die klar definierbare Gebiete betreffen. So stellen sich Probleme von Haftung, wenn KI immer unabhängiger von Menschen agieren würde. Wer wäre anzuklagen und müsste Entschädigungen bezahlen? Praktische Fragen. die zu regeln sind, aber immer zurückweisen auf die Grundsatzfragen: sprechen wir von tools, von Maschinen, wenn wir KI meinen? Oder kann ein technisches System wie KI eine eigene Rechtspersönlichkeit haben? Hilft oder schadet uns KI mehr? Beides! Sie hilft: wir können Arbeiten delegieren. Sie schadet: sie stellt unsere Urheberschaft infrage. Eine Gesetzgebung der Handhabung zu finden ist nachvollziehbar ungeheuer schwierig. Mit diesen Fragen setzen sich Techniker und Juristen auseinander; es geht aber um weit mehr. Zunächst fällt auf, dass wir im Zusammenhang mit KI Begriffe benutzen, die wir dringend genauer definieren müssten.
Was ist Intelligenz?
Unser Begriff KI erweckt den Eindruck, es handele sich um unsere Intelligenz, die aber künstlich hergestellt sei. Ist das so? Zur menschlichen Intelligenz gehören – selbst wenn man die sogenannte emotionale Intelligenz weglässt – verschiedenste Faktoren, die nicht nur die Fähigkeit zu logischen Schlüssen umfassen, beispielsweise räumliches Vorstellungsvermögen und assoziatives Gedächtnis. Rationales Denken und entsprechendes Schlussfolgern gehören ebenso dazu wie danach ein zielgerichtetes Handeln; unser Verstehen von menschlicher Intelligenz umfasst theoretische und praktische Vernunft. Diese kann nicht von unserem Leib abgekoppelt werden (vereinfacht: ein isoliertes menschliches Gehirn in einer Nährflüssigkeit kann nicht denken und handeln. ICH bin nicht in einem isolierten Gehirn.) So kommt der Deutsche Ethikrat in seiner Stellungnahme zu dem Schluss, dass es gravierende Unterschiede gibt: auch wenn sich in der Arbeitsweise von KI Parallelen zur theoretischen Vernunft aufzeigen lassen, verfügen “…die bislang verfügbaren KI- Systeme nicht über die dafür relevanten Fähigkeiten des Sinnverstehens, der Intentionalität und der Referenz auf eine außersprachliche Wirklichkeit”. In leichter Sprache: KI – Systeme können nicht denken und verstehen.
Ist ChatGPT intelligent – ohne Vernunft? Handlung? Absicht?
Noch mehr gilt das für die praktische Vernunft, die mit einem weiteren Begriff verbunden ist: dem der Handlung. Handlung ist nicht alles, was wir tun, sondern nur ein Tun, welches zweckgerichtet, beabsichtigt und kontrolliert ist. Wenn also eine Maschine nicht die Absicht hat, etwas zu tun, können wir ihr nicht zuschreiben, dass sie handelt. Zum Begriff der Absicht gehört unsere Vorstellung von einer Person, die handelt und dann auch moralisch und rechtlich dafür verantwortlich ist. Handlungsurheberschaft ist die Grundlage für das, was wir als Autonomie bezeichnen. Wir Menschen können uns selbst Gesetze geben und unsere Handlungen danach ausrichten. Wenn also technische Systeme jeder Art absichtlich und verantwortungsfähig handeln könnten, müssten wir sie folgerichtig als Person betrachten.
Anthropomorphisierung vermeiden
Je mehr uns klar wird, dass es sich bei KI nicht um eine menschliche Intelligenz handelt, sondern um etwas gänzlich Anderes, umso mehr sollten wir zu dem Schluss kommen, dass wir sprachlich die Vermenschlichung der technischen Systeme vermeiden und neue Begriffe suchen sollten. Dass in den heute stattfindenden öffentlichen Diskursen KI nicht von menschlicher Intelligenz unterschieden wird, hat Folgen. Wenn wir sagen, dass technische Systeme lernen, denken und entscheiden, sprechen wir von etwas, was Philosophie und Psychologie jahrhundertelang durchdacht haben und was für uns zu einem Begriff mit automatischen Vorannahmen und Assoziationen wurde. Wir müssen uns klarer darüber werden, dass unsere Begriffe bei KI gar nicht mehr zutreffen und daraus Schlüsse ziehen. Wenn nicht mehr zu jedem Zeitpunkt ganz deutlich wird, dass der Begriff Intelligenz in Bezug auf technische Systeme nur metaphorisch ist, müssen wir neue Begriffe finden, sonst täuschen wir uns dauerhaft selbst. KI ist keine menschliche Superintelligenz, sie ist eine andere Intelligenz.
Gefahr durch Automation Bias
Hier genau ist nämlich der Punkt, wo die Nutzung schon der bisherigen KI-Systeme gefährlich sein könnte: als Automation Bias wird die ungeprüfte Übernahme algorithmisch vorgeschlagener Ergebnisse bezeichnet; diese entsteht dadurch, dass wir den algorithmisch erzeugten Ergebnissen mehr vertrauen als unseren (auf begrenzteren Daten beruhenden) Erkenntnissen. Praktisches Beispiel aus der Medizin: wenn wir durch KI erstellte Wahrscheinlichkeitsdiagnosen bei Hautkrebs einfach übernehmen. Solange wir davon ausgehen, dass KI unserer Intelligenz entspricht, freuen wir uns unter Umständen immer mehr nicht nur an schnell bereit gestellten Daten, sondern übernehmen ‘Entscheidungen‘, da wir unbewusst diesen künstlichen Akteuren auch Vernunft und Verantwortung zuschreiben. Es liegt an uns selbst, KI -Systeme weiterhin strikt als Entscheidungsunterstützer, nicht aber als Entscheider zu sehen. Sonst höhlen wir selbst unser eigenes System von Urheberschaft, Autorschaft und Verantwortlichkeit aus, ganz unabhängig von rechtlichen Gegebenheiten.
Wird “Starke KI” Wirklichkeit?
Dabei gelten all diese Überlegungen schon für die KI von heute; technisch sowie philosophisch ist man weiter darüber uneins, ob die sogenannte Starke oder Generelle Künstliche Intelligenz wirklich realisiert werden kann. Der Historiker Yuval Noah Harari sagte kürzlich in einem Vortrag, man solle den Begriff Artificial Intelligence durch Alien Intelligence ersetzen, da artificial (= künstlich) ja meine, dass etwas durch uns erschaffen wurde, was aber nicht mehr gelte. Das trifft für die jetzige Situation wohl (noch?) nicht ganz zu, fest steht aber, dass unsere früher klare Grenzlinie zwischen Mensch und Technik immer mehr verschwimmt. KI ist anders ‘intelligent’.
ChatGPT als Moralische Maschine?
Oliver Bendel bezeichnet ChatGPT erstmalig als moral machine im Sinne der Maschinenethik. Das heisst nicht, ein technisches System bilde sich ein eigenes Urteil darüber, was moralisch richtig oder falsch ist; es reproduziert nur menschliche Urteile. Wie KI ist maschinelle Moral nur ein terminus technicus, ein Begriff. Gemeint ist ein System, welches nicht selbst gut oder böse ist, sondern menschliche Moral simuliert, indem es moralische Regeln befolgt. Das technische System ist nicht neutral. Es lernt auf Basis vorhandener Daten, bei ChatGPT von Sprache, die Menschen geschaffen haben, und damit kann es Stereotypen benutzen und Ungerechtigkeiten verewigen. Grundlegende ethische Fragen werden hier an vielen Stellen berührt, beispielhaft hier zwei:
- im Vorfeld, wo das System mit menschlichen Moralen trainiert wird. GPT heißt Generative Pre-trained Transformer; am Anfang steht also Training durch Menschen. Sozusagen in Handarbeit wurden dabei Inhalte gesichtet, um unerwünschte auszusortieren. Es ist bekannt, dass diese psychisch ungeheuer belastende Tätigkeit (die beispielsweise ständige Konfrontation mit Gewaltdarstellungen, Vergewaltigungen usw. beinhaltete), von billigeren Arbeitskräften im globalen Süden geleistet wurde.
- in der anhaltenden Testphase. Da eine spezielle Form des maschinellen Lernens benutzt wird (Reinforcement Learning from Human Feedback, RLHF), trainieren Benutzer durch ihre Rückmeldungen, in denen sie Antworten als richtig und gut ansehen, das System immer weiter. Insofern sind Systeme wie ChatGPT durch die Benutzer veränderbar. Diese können sie besser machen oder gezielt dahingehend beeinflussen, dass sie für Desinformation und Manipulation missbraucht werden können.
Erstes Ziel: Transparenz
Die Frage, ob Einsetzen von KI moralisch vertretbar ist, kommt jedenfalls zu spät; KI ist auf vielen Ebenen längst implementiert, ohne dass es uns überhaupt bewusst ist. Wir müssen aber alle Anstrengungen für eine effektive und machbare Handhabung unternehmen mit dem Ziel, dass KI zum Wohl der Allgemeinheit eingesetzt wird; dabei sind Gesichtspunkte der Entwickler zu hinterfragen, bei denen Ökonomisches oft im Vordergrund stehen. Auch müssen Menschen, die technische Systeme gezielt für Desinformation einsetzen, zur Rechenschaft gezogen werden.
Darüber hinaus müssen wir zwischen Euphorie und apokalyptischem Denken einen Mittelweg finden, eine verantwortliche Haltung. An erster Stelle ist Transparenz für alle Beteiligten und Betroffenen erforderlich, dazu der erste unabdingbare Schritt: Quellenangaben, damit jeder Einzelne veröffentlichte Inhalte auf Zuverlässigkeit überprüfen kann. Bei dieser Gelegenheit sollten wir uns selbst hinterfragen: agieren wir nicht oft selbst wie Chatbots, wenn wir ungeprüft irgendwo gelesene oder gehörte Informationen einfach weitergeben? Es ist erfreulich, dass der European AI Act, dem das EU-Parlament gerade zustimmte, auch verschiedene Riskogruppen definiert. Medizin gehört sicher zum Hochrisikobereich. Das komplexe Thema angedeutet in einem Satz: KI kann uns rasch große Datenmengen für eine sicherere Beurteilung zur Verfügung stellen, aber weder Ärzt:innen Entscheidungen abnehmen noch korrekt mit der Aufklärung und Entscheidungsfindung von Patient:innen umgehen. Ähnlich wie KI sicher nach rascher Paragrafensichtung schneller ein korrektes Strafmaß nach Gesetzesvorgaben finden, aber nicht über Menschen richten kann.
Literaturtipps
Deutscher Ethikrat: Stellungnahme Mensch und Maschine
Catrin Misselhorn: Grundfragen der Maschinenethik
Katharina Zweig: Ein Algorithmus hat kein Taktgefühl
Oliver Bendel:450 Keywords Digitalisierung
Und schließlich kann man heute auch schon einen diesbezüglichen von KI (ChatGPT) erstellten Text mit korrekt angegebenem ‘Autor ChatGPT’ erwerben und lesen. Spannend wären hier Rezensionen von Philosoph:innen.
ChatGPT (Autor): Die ethischen Herausforderungen im Umgang mit ChatGPT: eine platonische Betrachtung
Dank für Bild an Julius H. auf pixabay
Futility – vergebliche Medizin?
“Du siehst, wohin du siehst, nur Eitelkeit auf Erden; was dieser heute baut, reißt jener morgen ein…” schreibt im 17. Jahrhundert der Barockdichter Andreas Gryphius, und das liest sich genauso wie die Texte des Propheten Salomo aus dem Alten Testament über die VANITAS, die Vergeblichkeit: “Alles ist Eitelkeit”. Bei Salomo und im Barock ging es um die Vergänglichkeit des Irdischen und den Glauben, dass sowieso das Glück des Menschen erst im Jenseits zu finden sei. Im Barock erlebten die Menschen die Pestepidemie und den dreißigjährigen Krieg, im 20.Jahrhundert tobte der erste Weltkrieg und Paul Cezanne malte wieder das Vanitas – Motiv in seinem Stilleben mit Totenschädeln. Heute sagt man nicht mehr “Eitelkeit” in dieser Bedeutung, und auch ‘Vergeblichkeit’ wird im Deutschen selten benutzt. Man spricht eher von erfolglos, sinnlos, nicht lohnend, “ohne Sinn und Zweck”. In der Medizin hat sich zudem ‘frustran’ und ‘futile’ etabliert. Gibt es futility – vergebliche Medizin?
Futility – vergebliche Medizin?
Dabei ist die Bedeutung von ‘frustran’ noch ziemlich klar und einfach. Ein Wiederbelebungsversuch war dann frustran, wenn er nicht zum Erfolg führte. Es kann viele frustrane Versuche einer künstlichen Befruchtung geben, die zu immer mehr Wiederholungen führen. Hier sieht man schon, dass es einen großen Spielraum des Ermessens gibt. Will sich ein Paar bei einer unter zehn Prozent liegenden Erfolgsaussicht einem so zermürbenden Prozess weiter aussetzen? Kann das trotzdem ‘sinvoll’ sein, also eben nicht ‘vergeblich’ in der Bedeutung von ‘sinnlos’?
Aber sonst? Kann ärztliche Bemühung um das Leben von Patient:innen überhaupt so verstanden werden? Ohne Sinn und Zweck sein, verlorene Liebesmüh? Der Begriff ‘futile’ umfasst all dieses. “Die Natur macht nichts vergeblich” steht bei Aristoteles; aber ist das die ‘Natur’, die mit allen technischen Mitteln auf einer Intensivstation Lebensverlängerung anstrebt? Mit der langsam zuehmenden Erkenntnis, dass diese Lebensverlängerung auch nur Leidensverlängerung bedeuten kann, begannen die Fragen bereits vor Jahrzehnten; 2021 rief dann die Schweizerische Akademie der Medizinischen Wissenschaften SAMW zu einer breiten Diskussion über dieses Themas auf. Gleichzeitig erschien ein Positionspapier in Deutschland, welches die Frage der “Überversorgung” in der Intensivmedizin thematisiert: wie sei diese zu erkennen, zu benennen, zu vermeiden?
Übertherapie und Überversorgung
Unter Übertherapie werden medizinische Behandlungen verstanden, die für eine Heilung keinen Zusatznutzen erbringen, aber auch nicht für die Linderung von Symptomen. Diese also unnötigen Maßnahmen sind dazu nicht risikofrei, bedeuten daher nicht nur unnötige Kosten, sondern auch Schädigungen bis hin zu Todesfällen.
„Überversorgung“ dagegen ist der weitere Begriff aus der Gesundheitswissenschaft, dieser beinhaltet keine möglicherweise schädigenden, sondern unnötige und unwirtschaftliche Behandlungen. Dabei können viele andere Faktoren Einfluss haben: gesellschaftliche Wertvorstellungen, Versorgungsstrukturen im Gesundheitswesen, medizintechnische Entwicklungen, rechtliche Regelungen, kommerzielle Interessen sowie die individuelle Arzt – Patienten-Beziehung; dazu kommen die oft ganz falschen Vorstellungen und Erwartungen von Patient:innen und Angehörigen sowie Bevollmächtigten in Bezug auf die Intensivmedizin.
“Alles tun”?
Offensichtlich ist “alles tun” nicht unbedingt gleichzusetzen mit guter Gesundheitsverorgung. Natürlich soll man “alles” für mich oder meine Angehörigen tun! Angesichts aber der immer weiter wachsenden technischen Möglichkeiten einer “Lebensverlängerung”, die etwas verlängert, was für mich vielleicht nicht mehr “Leben” bedeutet, ohne Aussicht auf eine Besserung des Zustandes oder sogar Heilung, geht es doch eher darum, individuell eine Behandlung festzulegen, die meinem Willen bestmöglich entspricht. Das ist am einfachsten, wenn eine Patientenverfügung vorliegt, die klar und eindeutig formuliert ist und auf die Situation zutrifft. Oft ist am Anfang bei einer Krankenhauseinweisung ja noch gar nicht klar, wie der Verlauf der Krankheit sein wird, und genau darum wird natürlich zunächst “alles” getan. Aber es kann der Punkt kommen, wo das medizinische Team absieht, dass “Futility” eingetreten ist. Dann muss entschieden werden, ab wann auf den Einsatz medizinischer Maßnahmen verzichtet werden sollte. Das nennt man ‘Änderung des Therapieziels’.
Gemeinsame Entscheidung
Eine Verpflichtung zur Behandlung besteht nur in Notfallsituationen. In jedem anderen Fall muss das medizinische Team zu Vorschlägen über medizinisch indizierte Maßnahmen kommen, über die dann mit den Patient:innen gemeinsam entschieden wird. Dennoch wird dieser gemeinsame Entscheidungsprozess oft von Seiten der Ärzt:innen immer weiter verschoben. Dafür gibt es viele Gründe: Das Medizinstudium bildet zum “Retten” aus, die Grenzen der Medizin werden weniger aufgezeigt als ihre immer weiter steigenden Möglichkeiten. – Nicht-Handeln wird als Versagen empfunden, als Verlieren in einem Kampf, – ‘Weitermachen’ ist einfacher als die bewusste Konfrontation mit den Erwartungshaltungen und dem Druck von Patient:innen und Angehörigen. – Nicht zuletzt muss ein systemischer Druck erwähnt werden, ökonomische Gesichtspunkte in einem Krankenhaus, welches eine bestimmte Zahl von diagnostischen oder therapeutischen Maßnahmen erreichen will.
Was sagt das Recht?
Bei immer weiter zunehmenden rechtlichen Regulierungen, die viele Grauzonen übrig lassen, fühlen sich Ärzt:innen zudem häufig in der Defensive und fürchten Klagen und rechtliche Folgen. Dabei ist heute ganz klar: wenn sich Ärzt:innen und Patient:innen oder deren Vertreter:innen über eine diagnostische oder therapeutische Maßnahme einig sind, dann bestehen aus rechtlicher Sicht keine Probleme!
Futility in der Medizin
Die große Frage ist also: wann besteht futility? Nachdem trotz jahrzehntelanger Diskussion schon seit den 70er Jahren der Begriff weiterhin nicht ganz klar war, hat 2022 die Zentrale Ethikkommission der Bundesärztekammer eine hilfreiche Positionierung veröffentlicht, in der zwei Stufen von futility unterschieden werden: bei der einen kann die medizinische Maßnahme mit hundert Prozent Sicherheit nicht zum Erfolg führen. Es ist für jeden einsichtig, dass eine so sinnlose Maßnahme überhaupt nicht angeboten werden darf. Solche Situationen sind aber sehr selten. Die häufigen Probleme liegen in der zweiten Gruppe: es gibt viele medizinische Maßnahmen, die nach heutigem Wissen mit hoher Wahrscheinlichkeit nicht zu einem Therapieerfolg führen. Es wird klar, dass hier eine Abwägung von Nutzen und Schaden individuell für alle Patient:innen stattfinden muss und dass es daher keine allgemein gültigen Regeln geben kann.
Wohl oder Wille?
Die Abwägung muss sich auf das individuelle Patientenwohl beziehen, und dieses “Wohl” definieren heute nach dem Gesetz nicht die Ärzt:innen, sondern nur die Patient:innen selbst. Der Patientenwille ist also das oberste Kriterium; es ist einfach zu hoffen, dass alle Menschen diesen Willen für sich selbst bestimmen und schriftlich niederlegen, diesen vor allem aber mit Vertrauenspersonen besprechen, für die sie dann frühzeitig eine Vorsorgevollmacht erstellen.
Medizinische und ärztliche Indikation
Wenn eine Maßnahme im Hinblick auf ein Weiterleben mit einer für die Patient:innen akzeptablen Lebensqualität ‘futile’, also aussichtslos ist, somit das medizinische Therapieziel geändert werden soll, heißt das aber nicht, dass ‘aufgehört, nichts mehr getan’ wird. Es heißt, dass von diesem Punkt an die Palliativmedizin übernehmen sollte. Denn selbstverständlich bleibt ‘Hilfe’ für die Patient:innen als oberstes ärztliches Ziel bestehen. Eine der wichtigsten Aufgaben dürfte also sein, den Patient:innen oder ihren Vertreter:innen in dieser Situation den Unterschied zwischen medizinischer und ärztlicher Indikation aufzuzeigen und so zu einer gemeinsamen Entscheidung zu kommen.
Nicht ‘keine Medizin’, sondern Palliativmedizin
Diese andere Therapie wird von der Palliativmedizin geleistet. Auf der site der Universitätsklinik Jena findet sich eine schöne Beschreibung: “Palliativmedizin ist die aktive, ganzheitliche Behandlung von Patienten mit einer fortschreitenden Erkrankung und einer begrenzten Lebenserwartung […]. Palliativmedizin bejaht das Leben und akzeptiert das Sterben als normalen Prozess. Sie will den Tod weder beschleunigen noch hinauszögern. Ziel in der Palliativmedizin ist der Erhalt der bestmöglichen Lebensqualität bis zum Tod. Die Linderung von Schmerzen und anderen belastenden Krankheitsbeschwerden, psychischen, sozialen und spirituellen Problemen treten in den Vordergrund. Palliativmedizin ist interdisziplinär und multiprofessionell, d.h. die verschiedenen Berufsgruppen und Fachrichtungen in der medizinischen Versorgung arbeiten im Team miteinander.” Palliativmedizin umfasst die Behandlung und Betreuung nicht nur von von Patient:innen, sondern auch von deren Angehörigen.
Ärztliche und pflegerische Maßnahmen sind nicht vergeblich
Futility in der Medizin gibt es also so gesehen nicht: eine medizinische Maßnahme kann futile im Sinne von ‘nicht mehr nützlich’ im Hinblick auf Besserung und Heilung sein – die ärztliche Maßnahme, Patient:innen Schmerzen oder Luftnot zu erleichtern, ist niemals futile im Sinne von ‘vergeblich’. Und da Patient:innen über die Maßnahmen entscheiden müssen, wäre es gut, wenn alle ihren Willen bilden und schon in jungen Jahren eine entsprechende Vorsorgevollmacht unterzeichnen.

Ute Altanis-Protzer
Dr. med., M.A.
Ärztin, Medizinethikerin, Literaturwissenschaftlerin und Autorin