Inhalte: Verantwortung

Ist Chat GPT intelligent? Geht Technik vor Ethik?

‘Ist ChatGPT intelligent’ und  ‘Geht Technik vor Ethik’? Grundlegende Fragen, die zu wenig gestellt werden. Große KI-Sprachmodelle wie ChatGPT,  vor wenigen Monaten nur Insidern bekannt,  gehören jetzt zum Alltag. Sie schreiben Texte und Programme, Privatbriefe, Hausarbeiten für Schüler und Studenten und inzwischen sind auch akustische und bildliche Eingaben möglich. Parallel zu den immer größer werdenden Möglichkeiten steigt ein allgemeines Unbehagen, auch treten mögliche Bedrohungen in unser Bewusstsein. Die Angst vor Sicherheitsrisiken und vielfältigem Missbrauchspotenzial ist überall präsent. Die Technik galoppiert, die Beschäftigung mit ihren Risiken versucht Schritt zu halten. Wir wissen kaum etwas und benutzen blind. Mit einer am 20. März 2023 veröffentlichten Stellungnahme hat der Deutsche Ethikrat etwas Licht auf “Mensch und Maschine” geworfen.

Was ist denn so neu an dieser KI?

Wir haben uns längst daran gewöhnt, dass mit Hilfe von Künstlicher Intelligenz große Datenmengen verarbeitet werden können und dass das auf allen Gebieten, auch in der Medizin, sehr hilfreich ist. Jetzt aber treten Systeme auf, die als “smart” bezeichnet werden, die uns nicht nur den Eindruck selbständiger Entscheidungen erwecken, sondern uns  ganz persönlich und sogar emotional  anzusprechen scheinen. Spätestens an dieser Stelle kommt es zu einer neuen gefühlten Bedrohung: gab es bisher nur Bedenken wegen missbräuchlicher Anwendung, beispielsweise von Schadsoftware, phishing mails und Sicherheitsbedrohungen, geht es jetzt um Ängste, die uns in unserer Existenz betreffen, eine Bedrohung durch ein Etwas, welches uns gleichwertig oder überlegen wäre und uns ersetzen würde.

Gesetzgebung für KI?

Weltweit gibt es Bestrebungen, Gefahren einzuhegen, die klar definierbare Gebiete betreffen. So stellen sich Probleme von Haftung, wenn KI immer unabhängiger von Menschen agieren würde. Wer wäre anzuklagen und müsste Entschädigungen bezahlen?  Praktische Fragen. die zu regeln sind, aber immer zurückweisen auf die Grundsatzfragen: sprechen wir von tools, von Maschinen, wenn wir KI meinen?  Oder kann ein technisches System wie KI eine eigene Rechtspersönlichkeit haben? Hilft oder schadet uns KI mehr?  Beides! Sie hilft: wir können Arbeiten delegieren. Sie schadet: sie stellt unsere Urheberschaft infrage. Eine Gesetzgebung der Handhabung zu finden ist nachvollziehbar ungeheuer schwierig. Mit diesen Fragen setzen sich Techniker und Juristen auseinander; es geht aber um weit mehr. Zunächst fällt auf, dass wir im Zusammenhang mit KI Begriffe benutzen, die wir dringend genauer definieren müssten.

Was ist Intelligenz?

Unser Begriff KI erweckt den Eindruck, es handele sich um unsere Intelligenz, die aber künstlich hergestellt sei. Ist das so? Zur menschlichen Intelligenz gehören – selbst wenn man die sogenannte emotionale Intelligenz weglässt – verschiedenste Faktoren, die nicht nur die Fähigkeit zu logischen Schlüssen umfassen, beispielsweise räumliches Vorstellungsvermögen und assoziatives Gedächtnis. Rationales Denken und entsprechendes Schlussfolgern gehören ebenso dazu wie danach ein zielgerichtetes Handeln; unser Verstehen von menschlicher Intelligenz umfasst theoretische und praktische Vernunft. Diese kann nicht von unserem Leib abgekoppelt werden (vereinfacht: ein isoliertes menschliches Gehirn in einer Nährflüssigkeit kann nicht denken und handeln. ICH bin nicht in einem isolierten Gehirn.)  So kommt der Deutsche Ethikrat in seiner Stellungnahme zu dem Schluss, dass es gravierende Unterschiede gibt: auch wenn sich in der Arbeitsweise von KI Parallelen zur theoretischen Vernunft aufzeigen lassen, verfügen “…die bislang verfügbaren KI- Systeme nicht über die dafür relevanten Fähigkeiten des Sinnverstehens, der Intentionalität und der Referenz auf eine außersprachliche Wirklichkeit”. In leichter Sprache: KI – Systeme können nicht denken und verstehen.

Ist ChatGPT intelligent – ohne Vernunft? Handlung? Absicht?

Noch mehr gilt das für die praktische  Vernunft, die mit einem weiteren Begriff verbunden ist: dem der Handlung. Handlung ist nicht alles, was wir tun, sondern nur ein Tun, welches zweckgerichtet, beabsichtigt und kontrolliert ist. Wenn also eine Maschine nicht die Absicht hat, etwas zu tun, können wir ihr nicht zuschreiben, dass sie handelt. Zum Begriff der Absicht gehört unsere Vorstellung von einer Person, die handelt und dann auch moralisch und rechtlich dafür verantwortlich ist. Handlungsurheberschaft ist die Grundlage für das, was wir als Autonomie bezeichnen. Wir Menschen können uns selbst Gesetze geben und unsere Handlungen danach ausrichten. Wenn also technische Systeme jeder Art absichtlich und verantwortungsfähig handeln könnten, müssten wir sie folgerichtig als Person betrachten.

Anthropomorphisierung vermeiden

Je mehr uns klar wird, dass es sich bei KI nicht um eine menschliche Intelligenz handelt, sondern um etwas gänzlich Anderes, umso mehr sollten wir zu dem Schluss kommen, dass wir sprachlich die Vermenschlichung der technischen Systeme vermeiden und neue Begriffe suchen sollten. Dass in den heute stattfindenden öffentlichen Diskursen KI nicht von menschlicher Intelligenz unterschieden wird, hat Folgen. Wenn wir sagen, dass technische  Systeme lernen, denken und entscheiden, sprechen wir von etwas, was Philosophie und Psychologie jahrhundertelang  durchdacht haben und was für uns  zu einem Begriff mit automatischen Vorannahmen und Assoziationen wurde. Wir müssen uns klarer darüber werden, dass unsere Begriffe bei KI gar nicht mehr zutreffen und daraus Schlüsse ziehen. Wenn nicht mehr zu jedem Zeitpunkt  ganz deutlich wird, dass der Begriff Intelligenz in Bezug auf technische Systeme nur metaphorisch ist, müssen wir neue Begriffe finden, sonst täuschen wir uns dauerhaft selbst. KI ist keine menschliche Superintelligenz, sie ist eine andere Intelligenz.

Gefahr durch Automation Bias

Hier genau ist nämlich der Punkt, wo die Nutzung schon der bisherigen KI-Systeme gefährlich sein könnte: als Automation Bias wird die ungeprüfte Übernahme algorithmisch vorgeschlagener Ergebnisse bezeichnet; diese entsteht dadurch, dass wir den algorithmisch erzeugten Ergebnissen mehr vertrauen als unseren (auf begrenzteren Daten beruhenden) Erkenntnissen. Praktisches Beispiel aus der Medizin: wenn wir durch KI erstellte Wahrscheinlichkeitsdiagnosen bei Hautkrebs einfach übernehmen. Solange wir davon ausgehen, dass KI unserer Intelligenz entspricht, freuen wir uns unter Umständen immer mehr nicht nur an schnell bereit gestellten Daten, sondern übernehmen ‘Entscheidungen‘, da wir unbewusst diesen künstlichen Akteuren auch Vernunft und Verantwortung zuschreiben. Es liegt an uns selbst, KI -Systeme weiterhin strikt als Entscheidungsunterstützer, nicht aber als Entscheider zu sehen. Sonst höhlen wir selbst unser eigenes System von Urheberschaft, Autorschaft und Verantwortlichkeit aus, ganz unabhängig von rechtlichen Gegebenheiten.

Wird “Starke KI” Wirklichkeit?

Dabei gelten all diese Überlegungen schon für die KI von heute; technisch sowie philosophisch ist man weiter darüber uneins, ob die sogenannte Starke oder Generelle Künstliche Intelligenz wirklich realisiert werden kann. Der Historiker Yuval Noah Harari sagte kürzlich in einem Vortrag, man solle den Begriff Artificial Intelligence durch Alien Intelligence ersetzen, da artificial (= künstlich)  ja meine, dass etwas durch uns erschaffen wurde, was aber nicht mehr gelte. Das trifft für die jetzige Situation wohl (noch?) nicht ganz zu, fest steht aber, dass unsere früher klare Grenzlinie zwischen Mensch und Technik immer mehr verschwimmt.  KI  ist anders  ‘intelligent’.

ChatGPT als Moralische Maschine?

Oliver Bendel bezeichnet ChatGPT erstmalig als moral machine im Sinne der Maschinenethik. Das heisst nicht, ein technisches System bilde sich ein eigenes Urteil darüber, was moralisch richtig oder falsch ist;  es reproduziert nur menschliche Urteile. Wie KI  ist maschinelle Moral nur ein terminus technicus, ein Begriff. Gemeint ist ein System, welches nicht selbst gut  oder böse istsondern menschliche Moral simuliert, indem es moralische Regeln befolgt. Das technische System ist nicht neutral.  Es lernt auf Basis vorhandener Daten, bei ChatGPT von Sprache, die Menschen geschaffen haben, und damit kann es Stereotypen benutzen und Ungerechtigkeiten verewigen. Grundlegende ethische Fragen werden hier an vielen Stellen berührt, beispielhaft hier zwei:

  • im  Vorfeld, wo das System mit menschlichen Moralen trainiert wird. GPT heißt Generative Pre-trained Transformer; am Anfang steht also Training durch Menschen. Sozusagen in Handarbeit wurden dabei Inhalte gesichtet, um unerwünschte auszusortieren. Es ist bekannt, dass diese psychisch ungeheuer belastende Tätigkeit (die beispielsweise ständige Konfrontation mit Gewaltdarstellungen, Vergewaltigungen usw. beinhaltete), von billigeren Arbeitskräften im globalen Süden geleistet wurde.
  • in der anhaltenden Testphase. Da eine spezielle Form des maschinellen Lernens benutzt wird (Reinforcement Learning from Human Feedback, RLHF), trainieren Benutzer durch ihre Rückmeldungen, in denen sie Antworten als richtig und gut ansehen, das System immer weiter. Insofern sind Systeme wie ChatGPT durch die Benutzer veränderbar. Diese können sie besser machen oder gezielt dahingehend beeinflussen, dass sie für Desinformation und Manipulation missbraucht werden können.

Erstes Ziel: Transparenz

Die Frage, ob Einsetzen von KI moralisch vertretbar ist, kommt jedenfalls zu spät; KI ist auf vielen Ebenen längst implementiert, ohne dass es uns überhaupt bewusst ist. Wir müssen aber alle  Anstrengungen für eine effektive und machbare Handhabung unternehmen mit dem Ziel, dass KI zum Wohl der Allgemeinheit eingesetzt wird; dabei sind Gesichtspunkte der Entwickler zu hinterfragen, bei denen Ökonomisches oft im Vordergrund stehen. Auch müssen Menschen, die technische Systeme gezielt für Desinformation einsetzen, zur Rechenschaft gezogen werden.

Darüber hinaus müssen wir zwischen Euphorie und apokalyptischem Denken einen Mittelweg finden, eine verantwortliche Haltung. An erster Stelle ist Transparenz für alle Beteiligten und Betroffenen erforderlich, dazu der erste unabdingbare Schritt: Quellenangaben, damit jeder Einzelne veröffentlichte Inhalte auf Zuverlässigkeit überprüfen kann. Bei dieser Gelegenheit sollten wir uns selbst hinterfragen: agieren wir nicht oft selbst wie Chatbots, wenn wir ungeprüft irgendwo gelesene oder gehörte Informationen einfach weitergeben? Es ist erfreulich, dass der European AI Act, dem das EU-Parlament gerade zustimmte, auch verschiedene Riskogruppen definiert. Medizin gehört sicher zum Hochrisikobereich. Das komplexe Thema angedeutet in einem Satz: KI kann uns rasch große Datenmengen für eine sicherere Beurteilung zur Verfügung stellen, aber weder Ärzt:innen Entscheidungen abnehmen noch korrekt mit der Aufklärung und Entscheidungsfindung von Patient:innen umgehen. Ähnlich wie KI sicher nach rascher Paragrafensichtung schneller ein korrektes Strafmaß nach Gesetzesvorgaben finden, aber nicht über Menschen richten  kann.

 

Literaturtipps

Deutscher Ethikrat: Stellungnahme Mensch und Maschine

Catrin Misselhorn: Grundfragen der Maschinenethik

Katharina Zweig: Ein Algorithmus hat kein Taktgefühl

Oliver Bendel:450 Keywords Digitalisierung

Und schließlich kann man heute auch schon einen diesbezüglichen von KI  (ChatGPT)  erstellten Text mit korrekt angegebenem ‘Autor ChatGPT’ erwerben und lesen. Spannend wären hier Rezensionen von Philosoph:innen.

ChatGPT (Autor): Die ethischen Herausforderungen im Umgang  mit ChatGPT: eine platonische Betrachtung

 

Dank für Bild an Julius H. auf pixabay

Neujahrswunsch: Freiheit Solidarität ‘reloaded’

Zum erstenmal sind fast drei Monate seit dem letzten Beitrag vergangen. Eigentlich sollte sich der neue mit den Entwicklungen beim Thema ‘Triage’ beschäftigen, aber immer neue Meldungen, Gründe für Gedanken zu so vielen weiteren schwerwiegenden Themen, häuften sich. Offensichtlich sind die meisten Menschen überschwemmt und überfordert von alledem, was gleichzeitig auf uns einstürmt: ein nicht endenwollender grausamer Krieg – eine weiter bestehende Pandemie (oder Endemie, jedenfalls weiterhin bestehende Gefahr) –  die Klimakatastrophe, die immer weniger beherrschbar erscheint –  Hunger und Flucht, Hass und Terror –  zunehmende Ängste und auch hier bei uns viel zu viele finanzielle Nöte. Was denken, was tun? Ich habe mir Gedanken zu den beiden Begriffen gemacht, die in diesem Jahr nach meinem Eindruck am meisten missverstanden, fehlinterpretiert, sogar missbraucht wurden: Freiheit und Solidarität. Ich habe keine Lösungen, aber den Neujahrswunsch: Solidarität und Freiheit ‘reloaded’, neu gedacht.  …mehr lesen

Seltene Erkrankungen – Orphan Diseases

Wenn eine Erkrankung bei weniger als 1 Million Einwohner auftritt, gilt sie definitionsgemäß als “selten”. Wir können aber nicht etwas als “selten” ignorieren, was in Deutschland etwa 4 Millionen und weltweit 400 Millionen Menschen betrifft. Im Gegenteil gehen uns die besonderen Probleme der Betroffenen alle an, gehören sie doch zu den vulnerabelsten und damit schutzbedürftigsten Mitgliedern unserer Gesellschaft.

…mehr lesen

Pflegerobotik Update

Vor zwei und vor vier Jahren habe ich mich hier mit Robotern im Zusammenhang mit Pflege, zuletzt besonders mit “Gefühlen” bei Robotern beschäftigt. Zeit für ein Update. Was hat sich geändert? Gibt es inzwischen DEN Durchbruch? Um es gleich zu sagen: nein. Auch wenn es vor allem technisch sehr viel Fortschritt gegeben hat.

Assistenzroboter oder sozioemotionale Roboter

Weiterhin gilt diese Einteilung. “Assistenz”- oder “Service”- Roboter arbeiten selbständig, das gilt sowohl für Industrieroboter wie den Saugroboter im Haushalt. Sozioemotionale oder auch “Begleit”- Roboter, z.B. Pepper, Paro und deren Nachfolger können in der Beschäftigung von Menschen eingesetzt werden. Das Problem für den Einsatz in der Pflege liegt darin, dass es diese beiden Leistungen nicht gleichzeitig gibt. Assistenzrobotik kann die Pflege selbstverständlich entlasten, als Pflegerobotik kann man sie aber ebenso wenig bezeichnen wie zum Beispiel einfache Transportsysteme. Sie kann lediglich Zeit und Kraft einsparen helfen. Das ist wichtig, aber keine “Pflege”, zumindest keine selbständige. Der “Pflegenotstand” kann nicht durch Roboter beendet werden.

Fachpflege, was ist das eigentlich?

Bei pflegerischem genauso wie ärztlichem Handeln ging es eigentlich immer um Für – Sorge, was nicht gleichbedeutend mit Ver – Sorgen ist. Die Wurzeln liegen in Tätigkeit als Hilfe und Sorge, care, caritas,  aber es gibt einen Professionalisierungsprozess, der immer weiter fortschreitet. In beiden Fällen ist eine langjährige Ausbildung nötig. Im Pflegeberufegesetz werden die Tätigkeiten aufgelistet, die examinierten Pflegekräften vorbehalten sind. Dazu gehören Organisation, Gestaltung, Sicherung und Entwicklung der Qualität in der Pflege, vor allem aber die “Erhebung und Feststellung des individuellen Pflegebedarfs”. Das zeigt klar, dass Fachpflege heute auf eigenen Konzepten beruht, entwickelt und begründet vom Fach “Pflegewissenschaft” und dass es sich keinesfalls nur um Ausführung ärztlicher Anordnungen handelt. Warum ist das wichtig?

Pflegeplan ist individuell

Ein guter Pflegeplan kann nicht standardisiert nach Diagnosen aufgestellt werden, sondern nach der Beobachtung und Expertise durch eine Fachpflegekraft. Die Pflegewissenschaftlerin Professorin Martina Hassler wies bei einem kürzlichen Vortrag beispielhaft darauf hin, dass die Pflegeperson während des Transportes eines Patienten viel wahrnimmt; sie registriert den Augenkontakt, erfährt viel über Orientierung und den neurologisch-psychischen Status. Dieser Hinweis zeigt besser als jede theoretische Diskussion, wie ganz falsch es sein  würde, wenn wirklich Patienten in der Klinik nur noch von voll automatisierten Systemen beispielsweise zur Röntgenabteilung gefahren werden würden.

Handlungskompetenz als Ziel

Das letztliche Ziel der Fachausbildung ist Handlungskompetenz, nach der Definition der Kultusministerkonferenz 2018  „die Bereitschaft und Befähigung des Einzelnen, sich in beruflichen, gesellschaftlichen und privaten Situationen sachgerecht durchdacht sowie individuell und sozial verantwortlich zu verhalten“. Spätestens hier wird klar, dass Roboter nicht Fachpflege ersetzen können. Roboter “denken” nicht, “entscheiden” nicht und “handeln” nicht. Wir werden völlig neue Begriffe brauchen und sicher diese uns bekannten vielleicht neu überdenken und  im Zusammenhang mit  Künstlicher Intelligenz (KI) neu bewerten müssen. Handlungen und Entscheidungen jedenfalls haben immer mit Verantwortung zu tun, und diese ist dadurch charakterisiert, dass sie einklagbar ist.

Der ethische Aspekt

Wichtig ist ferner der Aspekt  ethischer Verantwortung. Es wird die Achtung der Menschenrechte, einschließlich kultureller Rechte, des Rechts auf Leben und Entscheidungsfreiheit auf Würde und auf respektvolle Behandlung als untrennbar von der Pflege bezeichnet. Pflege wird “mit Respekt und ohne Wertung des Alters, der Hautfarbe, des Glaubens, der Kultur, einer Behinderung oder Krankheit, des Geschlechts, der sexuellen Orientierung, der Nationalität, der politischen Einstellung, der ethnischen Zugehörigkeit oder des sozialen Status ausgeübt”. Auch hier ergeben sich viele Fragen für den Einsatz von “selbständigen” Robotern.

Wie weit ist das  Recht

2019 hatte die “High-Level Expert Group on AI” im Anschluss an eine Pilotphase mit weitreichender Diskussion einen Vorschlag für Leitlinien einer vertrauenswürdigen KI gemacht. 2020 wurde eine “Final Assessment list for trustworthy AI” vorgestellt, auf die Entwickler zurückgreifen sollten. 2021 gab es von Seiten der EU- Kommission Entwürfe für Regeln, den Umgang mit künstlicher Intelligenz betreffend. Danach soll eine vertrauenswürdige KI neben allen geltenden Gesetzen auch besondere Anforderungen erfüllen: sie soll die menschliche Entscheidungsfreiheit und Autonomie unterstützen, nicht beeinträchtigen und einschränken. Die zugrundeliegenden Algorithmen müssten konsistent, fehlerfrei und robust arbeiten. Entscheidungen der KI müssten nachvollziehbar und es müsste eindeutig sein, wer für sie verantwortlich ist. Menschen sollten die Kontrolle über ihre Daten behalten und dürften durch die Datenverarbeitung der KI nicht geschädigt oder diskriminiert werden.

Robotergesetze von 1942

Wenn man das liest, sieht man im Grunde die schon 1942 formulierten “Robotergesetze” von Isaac Asimov: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. – Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Nichts Neues also? Das wäre vereinfacht. Es ist erfreulich, dass der weltweite Diskurs seit Jahren gefördert wurde. Bis allerdings wirklich EU-Regeln vorliegen, werden weitere Jahre vergehen, da der demokratische Prozess erfordert, dass Vorschläge der EU-Kommission anschließend durch die EU-Staaten und das Europaparlament verhandelt werden müssen. Bis zu einem solchen Punkt ist jedenfalls für den Kontext “Pflege” festzuhalten, dass Roboter niemals allein am Patienten bleiben dürfen, was allein schon aus Sicherheitsaspekten ausgeschlossen sein muss.

Was heißt das für die Pflege?

Der Deutsche Ethikrat hatte 2020 in seiner Stellungnahme gesagt, dass er einen möglichen Nutzen der Robotik für den Pflegebereich anerkenne, diesen aber nicht in der Beseitigung von Personalengpässen oder des Pflegenotstandes sehe, sondern im Sinne der Unterstützung und Förderung guter Pflege. Voraussetzung sei in jedem Falle, dass Roboter nicht als Ersatz zwischenmenschlicher Beziehungen betrachtet werden im Sinne einer bloßen Effizienzmaximierung, ferner, dass sie nie gegen den Willen von Gepflegten und Pflegenden eingesetzt werden dürften und dass alle Betroffenen in die Entwicklung der Technik einbezogen werden. Dem ist eigentlich nichts  hinzuzufügen, aber man kann heute erfreut feststellen, dass die Diskussion jetzt in eben diese Richtung geht.

Zusammenarbeit von Pflege und Technik

Es werden gemeinsame differenziertere Ziele von Pflegewissenschaft und Technik formuliert. Dabei ergeben sich auch neue Fragen: zum Beispiel bestehen andere Anforderungen für Pflege in der Klinik und für solche zu Hause. Das Gute der technischen Seite  ist, dass sie Roboter anpassen kann; das muss aber im Hinblick auf die jeweilige Anforderung erfolgen und setzt im Vorfeld eine konstruktive Arbeit mit Pflegenden, Patienten und Angehörigen voraus, in der Klinik ferner mit Pflegedienstleitern und Organisationsstrukturen. Ein weites Feld! Zudem scheint auch ein neues Problem auf: wird die Einführung von mehr Technik nicht auch in der Pflege selbst mehr Standardisierungsdruck machen, weil die Individualisierung auch bei Robotern technisch und finanziell an ihre Grenzen stoßen wird?

Fazit

  • Die je nach Standpunkt und Interessen Hoffnung oder Angst, dass Roboter Fachpflegekräfte ersetzen können, scheint immer unbegründeter.
  • Im Augenblick ist jeder Roboter noch selbst sehr “pflegebedürftig”,  er braucht noch mehr die Menschen als die Menschen ihn.
  • Die in der Werbung oft dargestellte Kombination von Serviceroboter und sozioemotionalem Roboter ist nicht erreicht und im Augenblick gar nicht vorstellbar.
  • Der Technikfortschritt ist deutlich. Er bedeutet allerdings auch, dass nicht weniger, sondern mehr und vor allem besonders qualifizierte Pflegefachkräfte erforderlich sind.
  • Eine Zukunft in der Pflegerobotik liegt im individuellen Anpassen an die Bedürfnisse der Menschen. Dazu ist nicht nur viel mehr interdisziplinäre Forschung erforderlich, sondern auch praktische Zusammenarbeit von Entwicklern und Pflegefachkräften vor dem Einsatz eines  Roboters im Einzelfall.

 

Literaturtipps

 

Archiv für Wissenschaft und Praxis der sozialen Arbeit: Digitalisierung in der Pflege

Jannis Hergesell, Hrsg: Genese und Folgen der Pflegerobotik

Tina Drechsel, Julia Inthorn (Hrsg) 

 

 

Danke an Pete Linforth für Bild auf Pixabay

 

Tier oder Labor? Woher kommt das Corona – Virus?

Pandemie? Man kommt mit dem Lesen kaum noch nach. In einer Zeit, in der sich außer Virus – Mutationen zu viele “Fake News” und Verschwörungstheorien exponentiell verbreiten, ging eine wichtige Veröffentlichung in der New York Times vielleicht etwas unter: ein Aufruf von Forschern, die weitere “unbehinderte und internationale” Untersuchungen fordern, um die Herkunft des Coronavirus Sars- Cov- 2 zu klären, weil es da nicht nur um die jetzt herrschende Pandemie, sondern um mögliche zukünftige ginge. …mehr lesen