Impuls STANDORT38 21 August 2025 stützend. Sie kann Patient:innen dabei helfen, Krankheiten durch gesunde Verhaltensweisen vorzubeugen oder zu heilen. In der Medizin direkt kann sie beispielsweise helfen, Bildgebung zu analysieren und anhand von Gesichts- oder Spracherkennung Krankheiten zu erkennen. Allerdings haben Menschen Angst vor Künstlicher Intelligenz. Das stimmt. Patient:innen wollen nicht, dass Künstliche Intelligenz den Arzt ersetzt. Aber wir wissen auch, dass sie sich Unterstützung der Ärzte durch Künstliche Intelligenz wünschen. Deswegen müssen wir den Patient:innen ganz genau erklären, was wir vorhaben, wobei wir KI einsetzen und dass sie nicht den Arzt, die Ärztin, ersetzt. Gleichzeitig fehlen immer mehr Ärzt:innen … Aber es gibt Tätigkeiten, die können nur Ärzte und Personal: Gespräche mit Patient:innen führen, individuelle Risiken einordnen, Empathie zeigen, Gefühle übermitteln und aufnehmen – das können nur Menschen. Diese ganzen technischen Vorgänge drumherum – Anmeldung der Patient:innen im Krankenhaus, Aufnehmen der Hausmedikation oder die erste Aufklärung über Therapien – können mit Hilfe von Künstlicher Intelligenz erfolgen. Und die Mitarbeitenden machen das mit? Die müssen wir natürlich abholen, ihnen sagen: Wir wollen euch nicht ersetzen, sondern unterstützen, damit ihr das machen könnt, was ihr am besten könnt – bei den Patient:innen sein. Wir müssen Mitarbeitenden erklären, wie man Künstliche Intelligenz anwendet und wo die Grenzen sind. Denn es ist etwas völlig anderes, Künstliche Intelligenz fürs Online-Banking oder Shopping zu nutzen oder im medizinischen Kontext. Wir wissen auch aus Studien, dass Ärzte eher bereit sind, Künstliche Intelligenz anzuwenden, wenn sie wissen, dass Ärzte bei der Entwicklung mitgearbeitet haben. Sie vertrauen der Technik also eher, wenn sie mit fachlicher Expertise entwickelt wurde? Genau. Das ist eine Voraussetzung für die Anwendung. Auch spannend ist, das wissen wir ebenfalls aus Studien, dass Ärzte eher bereit sind, Künstliche Intelligenz anzuwenden, wenn es um sehr kritische Krankheitsbilder geht. Sie untermauern ihr Fachwissen durch eine breite Datenbasis. Die Künstliche Intelligenz lernt aus hinterlegten Patientendaten und -verläufen und gibt dann eine Prognose. Zum Beispiel vergleicht sie, wenn ein:e Patient:in zu uns kommt, seine Werte und Diagnosen mit denen ähnlicher Fälle und schlägt die Therapien vor, die in der Vergangenheit am besten gewirkt haben. Ist das rechtlich so einfach, die Daten zu nutzen? Der EU AI Act schließt doch Social Scoring aus – und das klingt ähnlich. Social Scoring heißt, dass man Menschen aufgrund irgendwelcher Merkmale irgendwo einordnet. Darum geht es gar nicht. In der Medizin erfolgt eine individuelle Bewertung auf Basis von Millionen von anonymisierten Daten einer Forschungsdatenbank, in die sämtliche Gesundheitsdaten in irgendeiner Form einfließen. Während Social Scoring eine Verwendung von Künstlicher Intelligenz mit nicht akzeptablem Risiko ist – der höchsten Risikoklasse des EU AI Acts, also verboten – , gilt für medizinische Produkte und Anwendungen die Hochrisiko-Kategorie. Es gibt ganz strikte Regularien. Es geht um Transparenz, welche KI angewendet wird, rechtssichere Dokumen- ▶ Im Einzugsgebiet des Klinikums Wolfsburg, hier ist der Eingangsbereich zu sehen, leben rund 180.000 Menschen. ▶ Die drei kommunalen Krankenhäuser in Wolfsburg, Wolfenbüttel und Braunschweig setzen sowohl auf strategischer als auch operativer Ebene auf Zusammenarbeit und Vernetzung. Im Juni 2025 gab es ein Treffen der Oberbürgermeister mit den Ärztlichen Direktoren und Vertretern der Pflegedirektionen.
RkJQdWJsaXNoZXIy MjExNDA4