Inhalte: Künstliche Intelligenz

Ist Chat GPT intelligent? Geht Technik vor Ethik?

‘Ist ChatGPT intelligent’ und  ‘Geht Technik vor Ethik’? Grundlegende Fragen, die zu wenig gestellt werden. Große KI-Sprachmodelle wie ChatGPT,  vor wenigen Monaten nur Insidern bekannt,  gehören jetzt zum Alltag. Sie schreiben Texte und Programme, Privatbriefe, Hausarbeiten für Schüler und Studenten und inzwischen sind auch akustische und bildliche Eingaben möglich. Parallel zu den immer größer werdenden Möglichkeiten steigt ein allgemeines Unbehagen, auch treten mögliche Bedrohungen in unser Bewusstsein. Die Angst vor Sicherheitsrisiken und vielfältigem Missbrauchspotenzial ist überall präsent. Die Technik galoppiert, die Beschäftigung mit ihren Risiken versucht Schritt zu halten. Wir wissen kaum etwas und benutzen blind. Mit einer am 20. März 2023 veröffentlichten Stellungnahme hat der Deutsche Ethikrat etwas Licht auf “Mensch und Maschine” geworfen.

Was ist denn so neu an dieser KI?

Wir haben uns längst daran gewöhnt, dass mit Hilfe von Künstlicher Intelligenz große Datenmengen verarbeitet werden können und dass das auf allen Gebieten, auch in der Medizin, sehr hilfreich ist. Jetzt aber treten Systeme auf, die als “smart” bezeichnet werden, die uns nicht nur den Eindruck selbständiger Entscheidungen erwecken, sondern uns  ganz persönlich und sogar emotional  anzusprechen scheinen. Spätestens an dieser Stelle kommt es zu einer neuen gefühlten Bedrohung: gab es bisher nur Bedenken wegen missbräuchlicher Anwendung, beispielsweise von Schadsoftware, phishing mails und Sicherheitsbedrohungen, geht es jetzt um Ängste, die uns in unserer Existenz betreffen, eine Bedrohung durch ein Etwas, welches uns gleichwertig oder überlegen wäre und uns ersetzen würde.

Gesetzgebung für KI?

Weltweit gibt es Bestrebungen, Gefahren einzuhegen, die klar definierbare Gebiete betreffen. So stellen sich Probleme von Haftung, wenn KI immer unabhängiger von Menschen agieren würde. Wer wäre anzuklagen und müsste Entschädigungen bezahlen?  Praktische Fragen. die zu regeln sind, aber immer zurückweisen auf die Grundsatzfragen: sprechen wir von tools, von Maschinen, wenn wir KI meinen?  Oder kann ein technisches System wie KI eine eigene Rechtspersönlichkeit haben? Hilft oder schadet uns KI mehr?  Beides! Sie hilft: wir können Arbeiten delegieren. Sie schadet: sie stellt unsere Urheberschaft infrage. Eine Gesetzgebung der Handhabung zu finden ist nachvollziehbar ungeheuer schwierig. Mit diesen Fragen setzen sich Techniker und Juristen auseinander; es geht aber um weit mehr. Zunächst fällt auf, dass wir im Zusammenhang mit KI Begriffe benutzen, die wir dringend genauer definieren müssten.

Was ist Intelligenz?

Unser Begriff KI erweckt den Eindruck, es handele sich um unsere Intelligenz, die aber künstlich hergestellt sei. Ist das so? Zur menschlichen Intelligenz gehören – selbst wenn man die sogenannte emotionale Intelligenz weglässt – verschiedenste Faktoren, die nicht nur die Fähigkeit zu logischen Schlüssen umfassen, beispielsweise räumliches Vorstellungsvermögen und assoziatives Gedächtnis. Rationales Denken und entsprechendes Schlussfolgern gehören ebenso dazu wie danach ein zielgerichtetes Handeln; unser Verstehen von menschlicher Intelligenz umfasst theoretische und praktische Vernunft. Diese kann nicht von unserem Leib abgekoppelt werden (vereinfacht: ein isoliertes menschliches Gehirn in einer Nährflüssigkeit kann nicht denken und handeln. ICH bin nicht in einem isolierten Gehirn.)  So kommt der Deutsche Ethikrat in seiner Stellungnahme zu dem Schluss, dass es gravierende Unterschiede gibt: auch wenn sich in der Arbeitsweise von KI Parallelen zur theoretischen Vernunft aufzeigen lassen, verfügen “…die bislang verfügbaren KI- Systeme nicht über die dafür relevanten Fähigkeiten des Sinnverstehens, der Intentionalität und der Referenz auf eine außersprachliche Wirklichkeit”. In leichter Sprache: KI – Systeme können nicht denken und verstehen.

Ist ChatGPT intelligent – ohne Vernunft? Handlung? Absicht?

Noch mehr gilt das für die praktische  Vernunft, die mit einem weiteren Begriff verbunden ist: dem der Handlung. Handlung ist nicht alles, was wir tun, sondern nur ein Tun, welches zweckgerichtet, beabsichtigt und kontrolliert ist. Wenn also eine Maschine nicht die Absicht hat, etwas zu tun, können wir ihr nicht zuschreiben, dass sie handelt. Zum Begriff der Absicht gehört unsere Vorstellung von einer Person, die handelt und dann auch moralisch und rechtlich dafür verantwortlich ist. Handlungsurheberschaft ist die Grundlage für das, was wir als Autonomie bezeichnen. Wir Menschen können uns selbst Gesetze geben und unsere Handlungen danach ausrichten. Wenn also technische Systeme jeder Art absichtlich und verantwortungsfähig handeln könnten, müssten wir sie folgerichtig als Person betrachten.

Anthropomorphisierung vermeiden

Je mehr uns klar wird, dass es sich bei KI nicht um eine menschliche Intelligenz handelt, sondern um etwas gänzlich Anderes, umso mehr sollten wir zu dem Schluss kommen, dass wir sprachlich die Vermenschlichung der technischen Systeme vermeiden und neue Begriffe suchen sollten. Dass in den heute stattfindenden öffentlichen Diskursen KI nicht von menschlicher Intelligenz unterschieden wird, hat Folgen. Wenn wir sagen, dass technische  Systeme lernen, denken und entscheiden, sprechen wir von etwas, was Philosophie und Psychologie jahrhundertelang  durchdacht haben und was für uns  zu einem Begriff mit automatischen Vorannahmen und Assoziationen wurde. Wir müssen uns klarer darüber werden, dass unsere Begriffe bei KI gar nicht mehr zutreffen und daraus Schlüsse ziehen. Wenn nicht mehr zu jedem Zeitpunkt  ganz deutlich wird, dass der Begriff Intelligenz in Bezug auf technische Systeme nur metaphorisch ist, müssen wir neue Begriffe finden, sonst täuschen wir uns dauerhaft selbst. KI ist keine menschliche Superintelligenz, sie ist eine andere Intelligenz.

Gefahr durch Automation Bias

Hier genau ist nämlich der Punkt, wo die Nutzung schon der bisherigen KI-Systeme gefährlich sein könnte: als Automation Bias wird die ungeprüfte Übernahme algorithmisch vorgeschlagener Ergebnisse bezeichnet; diese entsteht dadurch, dass wir den algorithmisch erzeugten Ergebnissen mehr vertrauen als unseren (auf begrenzteren Daten beruhenden) Erkenntnissen. Praktisches Beispiel aus der Medizin: wenn wir durch KI erstellte Wahrscheinlichkeitsdiagnosen bei Hautkrebs einfach übernehmen. Solange wir davon ausgehen, dass KI unserer Intelligenz entspricht, freuen wir uns unter Umständen immer mehr nicht nur an schnell bereit gestellten Daten, sondern übernehmen ‘Entscheidungen‘, da wir unbewusst diesen künstlichen Akteuren auch Vernunft und Verantwortung zuschreiben. Es liegt an uns selbst, KI -Systeme weiterhin strikt als Entscheidungsunterstützer, nicht aber als Entscheider zu sehen. Sonst höhlen wir selbst unser eigenes System von Urheberschaft, Autorschaft und Verantwortlichkeit aus, ganz unabhängig von rechtlichen Gegebenheiten.

Wird “Starke KI” Wirklichkeit?

Dabei gelten all diese Überlegungen schon für die KI von heute; technisch sowie philosophisch ist man weiter darüber uneins, ob die sogenannte Starke oder Generelle Künstliche Intelligenz wirklich realisiert werden kann. Der Historiker Yuval Noah Harari sagte kürzlich in einem Vortrag, man solle den Begriff Artificial Intelligence durch Alien Intelligence ersetzen, da artificial (= künstlich)  ja meine, dass etwas durch uns erschaffen wurde, was aber nicht mehr gelte. Das trifft für die jetzige Situation wohl (noch?) nicht ganz zu, fest steht aber, dass unsere früher klare Grenzlinie zwischen Mensch und Technik immer mehr verschwimmt.  KI  ist anders  ‘intelligent’.

ChatGPT als Moralische Maschine?

Oliver Bendel bezeichnet ChatGPT erstmalig als moral machine im Sinne der Maschinenethik. Das heisst nicht, ein technisches System bilde sich ein eigenes Urteil darüber, was moralisch richtig oder falsch ist;  es reproduziert nur menschliche Urteile. Wie KI  ist maschinelle Moral nur ein terminus technicus, ein Begriff. Gemeint ist ein System, welches nicht selbst gut  oder böse istsondern menschliche Moral simuliert, indem es moralische Regeln befolgt. Das technische System ist nicht neutral.  Es lernt auf Basis vorhandener Daten, bei ChatGPT von Sprache, die Menschen geschaffen haben, und damit kann es Stereotypen benutzen und Ungerechtigkeiten verewigen. Grundlegende ethische Fragen werden hier an vielen Stellen berührt, beispielhaft hier zwei:

  • im  Vorfeld, wo das System mit menschlichen Moralen trainiert wird. GPT heißt Generative Pre-trained Transformer; am Anfang steht also Training durch Menschen. Sozusagen in Handarbeit wurden dabei Inhalte gesichtet, um unerwünschte auszusortieren. Es ist bekannt, dass diese psychisch ungeheuer belastende Tätigkeit (die beispielsweise ständige Konfrontation mit Gewaltdarstellungen, Vergewaltigungen usw. beinhaltete), von billigeren Arbeitskräften im globalen Süden geleistet wurde.
  • in der anhaltenden Testphase. Da eine spezielle Form des maschinellen Lernens benutzt wird (Reinforcement Learning from Human Feedback, RLHF), trainieren Benutzer durch ihre Rückmeldungen, in denen sie Antworten als richtig und gut ansehen, das System immer weiter. Insofern sind Systeme wie ChatGPT durch die Benutzer veränderbar. Diese können sie besser machen oder gezielt dahingehend beeinflussen, dass sie für Desinformation und Manipulation missbraucht werden können.

Erstes Ziel: Transparenz

Die Frage, ob Einsetzen von KI moralisch vertretbar ist, kommt jedenfalls zu spät; KI ist auf vielen Ebenen längst implementiert, ohne dass es uns überhaupt bewusst ist. Wir müssen aber alle  Anstrengungen für eine effektive und machbare Handhabung unternehmen mit dem Ziel, dass KI zum Wohl der Allgemeinheit eingesetzt wird; dabei sind Gesichtspunkte der Entwickler zu hinterfragen, bei denen Ökonomisches oft im Vordergrund stehen. Auch müssen Menschen, die technische Systeme gezielt für Desinformation einsetzen, zur Rechenschaft gezogen werden.

Darüber hinaus müssen wir zwischen Euphorie und apokalyptischem Denken einen Mittelweg finden, eine verantwortliche Haltung. An erster Stelle ist Transparenz für alle Beteiligten und Betroffenen erforderlich, dazu der erste unabdingbare Schritt: Quellenangaben, damit jeder Einzelne veröffentlichte Inhalte auf Zuverlässigkeit überprüfen kann. Bei dieser Gelegenheit sollten wir uns selbst hinterfragen: agieren wir nicht oft selbst wie Chatbots, wenn wir ungeprüft irgendwo gelesene oder gehörte Informationen einfach weitergeben? Es ist erfreulich, dass der European AI Act, dem das EU-Parlament gerade zustimmte, auch verschiedene Riskogruppen definiert. Medizin gehört sicher zum Hochrisikobereich. Das komplexe Thema angedeutet in einem Satz: KI kann uns rasch große Datenmengen für eine sicherere Beurteilung zur Verfügung stellen, aber weder Ärzt:innen Entscheidungen abnehmen noch korrekt mit der Aufklärung und Entscheidungsfindung von Patient:innen umgehen. Ähnlich wie KI sicher nach rascher Paragrafensichtung schneller ein korrektes Strafmaß nach Gesetzesvorgaben finden, aber nicht über Menschen richten  kann.

 

Literaturtipps

Deutscher Ethikrat: Stellungnahme Mensch und Maschine

Catrin Misselhorn: Grundfragen der Maschinenethik

Katharina Zweig: Ein Algorithmus hat kein Taktgefühl

Oliver Bendel:450 Keywords Digitalisierung

Und schließlich kann man heute auch schon einen diesbezüglichen von KI  (ChatGPT)  erstellten Text mit korrekt angegebenem ‘Autor ChatGPT’ erwerben und lesen. Spannend wären hier Rezensionen von Philosoph:innen.

ChatGPT (Autor): Die ethischen Herausforderungen im Umgang  mit ChatGPT: eine platonische Betrachtung

 

Dank für Bild an Julius H. auf pixabay

Gendermedizin und Feministische Medizin

Gendermedizin, Feministische Medizin – alles nur neue Schlagworte? Etwas, was gerade “in” ist? Nein, denn endlich wird ein Problem wahrgenommen, bedacht, diskutiert und erforscht, welches schon lange bekannt ist, aber bisher nicht den nötigen Stellenwert bekam: die Tatsache, dass die Medizin bisher nicht differenziert arbeitet und dass sie selbst nicht etwa geschlechtsneutral ist, sondern männlich! Es geht darum, dass wir von einer Gleichberechtigung im Gesundheitswesen weit entfernt sind.

Rollenstereotype

Auch wenn schon 1754 Dorothea Christiane Erxleben (geborene Leporin) zum „Doktor der Arzeneygelahrtheit“ erklärt wurde, waren zum Medizinstudium Frauen in Deutschland erst ab 1908 zugelassen. Heute gibt es praktisch gleich viele Ärzte und Ärztinnen. Die Ausbildung ist für alle gleich und beruht auf einem Berufsbild, welches von Anfang an sogenannte “männliche” Eigenschaften wie Rationalität, Durchsetzungsvermögen, Führungsqualität, Entschlussfähigkeit, Objektivität zugrundelegte und sogenannte “weibliche” wie Empathie, Geduld, Zuhörenkönnen und Fürsorge, nicht einbezog. Das verstärkte sich immer mehr im Lauf der Jahre durch den wachsenden Stellenwert von Methodik, Statistik, Computereinsatz und Robotik, was als technische Anforderung wiederum männlich konnotiert ist.

Keine Gleichheit in der Medizin

Frauen erbrachten große Anpassungsleistungen in Studium und Weiterbildung, um als “gleich” wahrgenommen zu werden. So gingen die “weiblichen” Vorteile immer mehr verloren. Das System selbst tat ein Übriges, indem neue technische Medizin immer besser und die  “sprechende Medizin” immer schlechter finanziert wurde. Gleichheit gibt es dennoch nicht. Es werden nötige Rollen so gut ausgefüllt wie möglich. Nach Daten des Deutschen Ärztinnenbundes gibt es in der Frauenheilkunde ca 70%, in der Neurochirurgie  dagegen etwa 10% Frauen; Frauen verdienen weniger und erreichen zu einem viel geringeren Teil Führungspositionen. Warum ist das nicht etwas, was nur innerhalb der Ärzteschaft wichtig ist und was man wie viele Diskriminierungen anderer Gruppen betrachten, bedauern, ändern kann? Weil es um etwas viel Wichtigeres geht: um die Patienten. Die nämlich wenden sich zu großen Teilen auch dann, wenn sie gerade diese bitter nötig hätten, von der hochtechnisierten “Schul”- Medizin ab und suchen Hilfe bei alternativen Leistungserbringern einfach deshalb, weil sie jemand brauchen, der Zeit hat, ihnen zuzuhören und wo sie sich daher besser aufgehoben fühlen.

Patienten

Das lateinische Wort bedeutet “Duldende, Leidende”. Diese Menschen leiden genug an ihrem Kranksein; sie sollten somit nicht zusätzlich an der Medizin leiden, vielmehr müsste ihnen diese die besten Möglichkeiten bereitstellen. Nun zeigen aber Untersuchungen, dass es von Ärztinnen behandelten Patient*innen besser geht! Genauer, wenn man Daten von Sterblichkeit, Wiederaufnahme ins Krankenhaus oder postoperativen Komplikationen vergleicht, sieht man kleine, aber statistisch signifikante Differenzen. Interessant ist auch eine Studie aus den USA von 2018, die eine höhere Sterblichkeit von Patientinnen beschreibt, wenn männliche Ärzte behandelten, während bei Behandlung durch Ärztinnen die Sterblichkeit für Männer sowie für Frauen gleich war. Solche Ergebnisse zeigen, wie wichtig neue Forschung in diese Richtung ist und dass es sowohl für die Ausbildung wie auch die Berufsausübung in der Medizin Konsequenzen geben muss.

Die Fakten: Unterschiede bei Geschlechtern

Es gibt eine Reihe bekannter Unterschiede, wobei in vielen Fällen die Ursachen nicht klar sind, also was  “biologisch” begründet ist und was ganz andere Ursachen haben könnte. Männer haben eine geringere Lebenserwartung, weltweit ist bei ihnen die Tuberculose viel häufiger. Bei der akuten Hepatitis C zeigen Frauen in viel höherem Maße spontane Heilungen. Sie produzieren mehr Antikörper auf Grippe – Impfstoffe, jedenfalls bis zur Menopause. Obschon das Verhältnis bei Covid-19 relativ ausgewogen ist (es erkranken leicht mehr Frauen als Männer), versterben in den jüngeren Altersgruppen deutlich mehr Männer an der Erkrankung. Männer sterben auch eher an Krebs, Frauen haben mehr Nebenwirkungen bei den Therapien. Herzinfarkte bei Männern sind häufiger, der Verlauf bei Frauen häufiger tödlich. Symptome können völlig verschieden sein. Das gilt auch für Depressionen: Frauen erkranken “typisch”, bei Männern zeigt sich die Erkrankung oft eher durch Schmerzen, Suchtproblemen, Selbsttötungen (2020 bei Männern etwa drei mal so häufig). Asthma ist bei Frauen häufiger und verläuft schwerer und häufiger tödlich. Medikamente wirken völlig unterschiedlich, was mit dem zum Teil durch Sexualhormone gesteuerten Abbau der Wirkstoffe zusammenhängt. Das führt bei Frauen zu ganz anderen Nebenwirkungen, auch kann die gleiche Dosis für beide Geschlechter schwerwiegende Folgen haben: nicht ausreichend oder zu hoch sein.

Anderes Immunsystem

Dass große Unterschiede bestehen, zeigt sich besonders eindrucksvoll im Immunsystem, bei Infektionskrankheiten; tatsächlich gibt es auch für den bekannten immer wieder karikierten “Männerschnupfen” eine biologische Grundlage! Aber auch bei der Krebsentstehung gibt es Lebenstil – unabhängige Unterschiede zwischen den Geschlechtern. So wurden Faktoren entdeckt, die vielleicht bald zu einer frühen Identifizierung von männlichen Hochrisikogruppen bei Darm- und Pankreaskrebs verhelfen. Das sind nur einige Beispiele. Fest steht aber immer mehr: Wir haben gelernt, dass der durchschnittliche Crashtest  – Dummy von 70 kilo nicht repräsentativ für alle sein kann. Jetzt könnte die Gendermedizin endlich zu mehr Gerechtigkeit in der Medizin führen – nicht nur für Frauen.

Geschlechtsspezifische Forschung?

Dazu brauchen wir nicht nur mehr, sondern andere Forschung. Fakten: die meisten bekannten Medikamente wurden nur an Männern erforscht. Studien finden an männlichen Mäusen statt. In klinischen Studien sind Frauen unterrepräsentiert. Auch die Genomforschung erfolgt in Europa hauptsächlich beim Mann. Welche Schlüsse wird man daraus ziehen und wie und worauf werden diese Anwendung finden? Obschon bekannt ist, dass geschlechtsspezifisch Symptome, Diagnostik, Verlauf ganz unterschiedlich sind,  – z.B. ist die Aktivität des sympathischen Nervensystems einfach verschieden, was beim Herzinfarkt wichtig ist –  ist der Bereich weiterhin bei Frauen untererforscht. Für die häufige Krankheit Diabetes werden männliche Referenzwerte zugrundegelegt. All das hat Konsequenzen, dennoch werden die Geschlechter gleich behandelt, was in unserem Zeitalter, wo wir von personalisierter Medizin sprechen, nur anachronistisch erscheinen kann. “Minderheiten” – Gruppen wie schwangere Frauen in der Psychiatrie sind ebenso völlig unerforscht wie Menschen verschiedener Ethnien, aber auch zu spezifischen Frauenerkrankungen, wie z.B. Endometriose, findet man kaum etwas.

Probleme von Studien

Die Hürden in der Forschung sind bekannt: spätestens seit Contergan gingen Studiendesigner Frauen am liebsten aus dem Weg. Von1977 – 1993 schloss die FDA sie ganz von der Phase I der klinischen Studien aus. Erst seit 2014 kam die Vorschrift des NIH, in Studien die gleiche Anzahl von Männern und Frauen einzubeziehen.

Hoffnung Künstliche Intelligenz ?

KI basiert auf Maschinellem Lernen, Big Data – also dem Management großer Datenmengen – und automatisierten Testmethoden, wobei dann die Auswertung der Daten wiederum automatisiert nach Verknüpfungen und Mustererkennungen sowie Wahrscheinlichkeitsberechnungen stattfindet. Leider ist bis heute der Traum von Objektivität durch KI nicht Wirklichkeit geworden. Man muss vielmehr sagen, dass es noch gar keinen sicheren Ansatz gibt, um Diskriminierung durch KI zu verhindern. Die bisherigen Erfahrungen zeigen zum Beispiel Apps, die Frauen bei Arbeitssuche diskriminieren, rassistische Algorithmen und in der Medizin ein Versagen von Anwendungen bei Menschen mit dunklerer Hautfarbe. Da jetzt schon DiGas zugelassen und von Kassen bezahlt werden, kommen drängende Fragen auf: gibt es überhaupt Daten über Genderaspekte, die dort eingeflossen sind? Und werden diese Aspekte bei den Zulassungen berücksichtigt?

Gerecht? Gleich? Fair?

Die Programmierer sind meistens männlich. Kennen sie diese Problematik, haben sie Zugang zu “weiblicher” Sichtweise? Es gibt das schöne Bild einer Aufnahmeprüfung, bei der sich Elefant, Fisch und Affe bewerben. Damit Gerechtigkeit herrsche, sollen alle die gleiche Aufgabe bewältigen: auf einen gezeigten Baum klettern. Das Bild zeigt besser als jede Abhandlung, dass gleiche Behandlung nicht automatisch fair und gerecht ist. Wenn man dies bis zum Ende durchdenkt und weiß, dass Programmierer letztlich ihre Sichtweise implementieren, versteht man Fragen der “feministischen Medizinerinnen“, ob wir nicht programmierende Frauen brauchen, die eine “feministische KI” bauen, nicht mehr als zugespitzt.

Viele Probleme

Auch ohne einzugehen auf grundlegende Problematiken, auf Theorien, was überhaupt Geschlecht ist, wie es konstruiert wird, was für Konsequenzen das alles für jeden Lebensbereich hat, kann man in der Medizin und besonders im Hinblick auf die Anwendung von KI ein besonderes Problem erkennen: in allen anderen Bereichen versucht man, um gerechter zu sein, eine direkte Referenz auf das Geschlecht ebenso zu vermeiden wie auf andere Kategorien ( z.B. Angabe von Ethnie bei Arbeitsplatz- und Wohnungssuche), aber in der Medizin brauchen wir aus den genannte Gründen unbedingt geschlechtergetrennte Daten.

Fazit:

Aus alledem kann man eigentlich nur den Schluss ziehen:

  • Frauen brauchen eine andere Medizin als Männer
  • Eine Medizin mit Einbeziehung der “weiblichen” Eigenschaften ist gut für alle Patienten
  • Die Medizin muss in allen Anwendungen einschließlich KI für alle fair werden – was nicht “gleich” heisst

Deshalb: ja, wir brauchen nicht nur viel mehr Forschung in der Gendermedizin und in der Praxis eine neue “geschlechtersensible Medizin”, sondern auch die politische Aktivität der feministischen Medizin! Besonders, wenn es um Gesundheit geht, kann nicht die eine Hälfte der Menschheit weiterhin nur “mitgemeint” sein, nachdem inzwischen feststeht, welche negativen Auswirkungen eine nur männliche Medizin hat. Vor allem aber darf diese männliche Medizin nicht mehr auf die Zukunftsanwendungen der Künstlichen Intelligenz übertragen werden.

 

Literaturtipps:

Vera Regitz-Zagrosek, St. Schmid-Altringer: Gendermedizin

Vera Regitz-Zagrosek, St.Schmid-Altringer: Die XX – Medizin

Safiya Umoja Noble: Algorithms of Oppression: How Search Engines Reinforce Racism

Danke für Bild von djedj auf Pixabay

 

 

 

 

Dr. Robot – ersetzt Technik die Ärzte?

Kein Tag, an dem nicht zu lesen ist, dass irgendeine neue Software “besser” war als Fachärzte.  Symptom Checkers und automatisierte Bilderkennungsverfahren können tatsächlich schneller und in Bezug auf statistische Gegebenheiten “besser” als Ärzte aus vielen Mosaiksteinchen ein Bild erstellen. Hilfreich? Auf jeden Fall. Für wen aber: nicht direkt für die Patienten, sondern für die Ärzte,  die dann erst darüber reflektieren und mit den Patienten eine Entscheidung treffen müssen.

…mehr lesen

Roboter in der Pflege?

Science Fiction -Literatur und -Filme  beschäftigen sich schon lange mit Robotern, die Menschen gefährlich werden oder am Ende die Weltherrschaft übernehmen könnten. Viel näher sollte uns die Frage sein, ob wir vermehrt Roboter in der Pflege einsetzen wollen, wie es z. B. in Japan seit Jahrzehnten schon die Regel ist.

Nebenbei gesagt:  Kunstwesen sind nichts Neues. Schon die antike Pandora, die dann alle Leiden in die Welt brachte, war ein solches, und in der Mythologie Kretas gibt es den bronzenen TALOS, einen Roboter, der das Land und die Gesetze beschützte.

…mehr lesen

Grenzgebiete?

Wann sind Sie zum letzten Mal „an Ihre Grenzen gekommen“? Wie ging es Ihnen in diesem Moment? Und was haben Sie da unternommen?

Folgt man dem „Duden“ so sind Grenzen Trennungslinien zwischen vorhandenen Gebieten, aber auch gedachten Bereichen, darüber hinaus „Begrenzung, Abschlusslinie, Schranke“.

Mit den vorhandenen Gebieten sind z. B. Länder gemeint, die durch politische Grenzen getrennt sind, aber auch Landschaften mit natürlicher Trennlinie, wie durch Meer, Gebirgszug oder Strom. Klare Grenzen in jedem Fall. Ein Grenzgebiet wäre dann einfach das unmittelbar an die Grenze anschließende Gebiet.

…mehr lesen