Kapitel 1. Die schwarze Tasche des Doktors
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In C. M. Kornbluths Kurzgeschichte "Die kleine schwarze Tasche"1 entdeckt Dr. Full, ein erfolgloser Arzt, eine geheimnisvolle Arzttasche aus der Zukunft, die mit fortschrittlichen medizinischen Geräten und Medikamenten gefüllt ist. Diese futuristische Ausrüstung verbessert seine Fähigkeiten als Arzt und ermöglicht es ihm, Patienten mit noch nie dagewesener Effizienz zu diagnostizieren und zu behandeln. Während er den Inhalt der Tasche erforscht, staunt Dr. Full über das Potenzial zukünftiger medizinischer Innovationen und hat das Gefühl, an der Schwelle zu einer Revolution im Gesundheitswesen zu stehen.
Kornbluths Geschichte ist jedoch nicht einfach eine Feier des medizinischen Fortschritts. Im Laufe der Geschichte wird klar, dass eine so mächtige Technologie in den falschen Händen eher zum persönlichen Vorteil als zum Wohl der Allgemeinheit ausgenutzt werden kann. Die Erzählung erinnert uns daran, dass der medizinische Fortschritt der Zukunft zwar magisch anmutet, aber auch eine große ethische Verantwortung mit sich bringt und missbraucht werden kann. Diese fiktive Geschichte regt uns dazu an, sowohl die aufregenden Möglichkeiten als auch die ethischen Herausforderungen zu bedenken, die vor uns liegen, wenn Medizintechnik und KI (LLMs und generative KI) weiter rasant voranschreiten und oft miteinander verbunden sind.
KI und LLM haben das Potenzial, die klinische Versorgung zu verbessern, insbesondere in den Bereichen, die die Entscheidungsprozesse der Ärzte unterstützen, die Interaktion zwischen Patient und Arzt verbessern, administrative Aufgaben rationalisieren, die Patientenaufklärung und -beteiligung verbessern und letztendlich zu besseren Gesundheitsergebnissen führen. Durch die Nutzung der Fähigkeiten von multimodalen LLMs haben Gesundheitseinrichtungen das Potenzial, hochentwickelte virtuelle medizinische Assistenten zu entwickeln, die den Gesundheitszustand von Patienten proaktiv überwachen und bei der Diagnose helfen können, so ein leitender medizinischer Angestellter des NewYork-Presbyterian, einem bekannten Krankenhausnetzwerk in New York.2
Genauso wie die traditionelle schwarze Tasche Ärzte mit wichtigen Werkzeugen für eine qualitativ hochwertige Versorgung ausstattete, ist KI auf dem besten Weg, ein unverzichtbares Hilfsmittel zu werden, mit dem Kliniker ihren Patienten eine individuellere, effizientere und evidenzbasierte Versorgung bieten können. In diesem Kapitel werden die Möglichkeiten für eine bessere Patientenversorgung mithilfe von LLM untersucht - vor allem dort, wo sie die Gesundheitsversorgung verbessern können, wo Kliniker und Patienten am meisten profitieren.
LLMs sind Natural Language Processing (NLP) maschinelle Lernmodelle, die scheinbar menschliche3 und Texte in menschlicher Sprache erzeugen können. LLMs sind eine Art künstliche Intelligenz (KI), die die menschliche Sprache mit bemerkenswerter Kompetenz versteht und verarbeitet. Sie werden als "groß" bezeichnet, weil sie auf riesigen Mengen von Textdaten, oft Milliarden von Wörtern, trainiert werden, wodurch sie die Nuancen der menschlichen Sprache lernen können.
Für Kliniker können LLMs als fortschrittliche Sprachverarbeitungswerkzeuge betrachtet werden, die sie bei einer Vielzahl von Verwaltungsaufgaben mit Gesundheitsdaten (strukturiert wie elektronische Gesundheitsakten [EHRs] oder unstrukturierte Arztnotizen) unterstützen können. So wie Stethoskope und Röntgengeräte die Fähigkeiten eines Arztes bei der Beurteilung des Gesundheitszustands eines Patienten erweitern, können LLMs die Fähigkeit eines Arztes verbessern, große Mengen an Forschungsdaten, E-Mail-Threads mit eingebetteten Videos, Krankenakten, Arztbriefen, Entlassungsberichten und mehr zu analysieren und zu interpretieren.
Generative KI ist eine Untergruppe oder eine Art von KI, so wie LLMs und maschinelles Lernen Arten von KI sind. Generative KI konzentriert sich darauf, neue Inhalte wie Texte, Bilder, Videos oder Audiodateien zu erstellen, oft als Antwort auf die Fragen eines Nutzers. Die erzeugten Inhalte ähneln in Bezug auf Stil und Struktur oft den von Menschen erstellten Inhalten.
Wenn wir in diesem Buch Ausdrücke wie LLMs oder generative KI verwenden, tun wir dies als Sammelbegriffe, die eine breite Palette von KI-Systemen umfassen, auch wenn sie unterschiedliche Eigenschaften haben oder unterschiedliche Algorithmen für maschinelles Lernen verwenden. Zu diesen Sammelbegriffen gehören unter anderem LLMs, kleine Sprachmodelle, multimodale Modelle und generative KI.
Stell dir vor, dass diese Modelle mit vielen unserer schriftlichen Informationen (z. B. Bücher, Artikel und Websites) und mit einer Vielzahl von Themen in der Welt trainiert wurden. Dadurch verstehen sie etwas von den Beziehungen zwischen den Wörtern in Sätzen und Absätzen, von den Bedeutungen, die sich in den Kapiteln ansammeln, von den Gesamtverläufen der Erzählungen und so weiter.
Als OpenAI im Jahr 2022 sein Sprachmodell ChatGPT veröffentlichte, veränderte es die Konversations-KI und befreite NLP, indem es menschlich klingende Konversation und Fragenbeantwortung für die breite Masse mit einer einfachen Webschnittstelle ermöglichte. Dieses LLM erlangte weltweite Popularität, weil es in der Lage ist, menschenähnliche Gespräche zu führen, Fragen zu beantworten, Ghostwriting-Aufsätze zu schreiben und eine Vielzahl von Aufgaben auszuführen. Es weckte das Interesse von CEOs von Technologieunternehmen an den Auswirkungen der Technologie auf das Geschäfts- und Alltagsleben. Aber erinnern wir uns daran, wie wir über die Nutzung von LLMs denken sollten.
Ein Blog von 20234 werden ChatGPT-Experimente diskutiert, die Aufschluss darüber geben, wie wir über LLMS nachdenken und sie nutzen sollten. Wenn wir LLMs als Zusammenfassungswerkzeuge betrachten und ihre Eingabeaufforderungen nicht als Befehle an ein anderes empfindungsfähiges Wesen betrachten, sondern als Anker für diesen Prozess, bei dem die Zusammenfassung auf etwas in der realen Welt abgestimmt ist, können wir diese Werkzeuge effektiv im Gesundheitswesen einsetzen. Etwas Ähnliches haben wir mit den lakonischen Zwängen der Stichwortsuche gemacht: Wir haben gelernt und lernen immer noch, wie wir die Suche in die gewünschte Richtung "lenken" können. Seit dem Aufkommen der Suche vor einigen Jahrzehnten haben wir gelernt, wie wir Fragen in sprachlichen Ankern formulieren können, die die Suche in die gewünschte Richtung lenken. Das Gleiche können wir für LLM-Eingabeaufforderungen tun, indem wir sie als Anker für die Zusammenfassung behandeln, anstatt sie zu spezifizieren, und sie so gut fokussieren. Wenn wir LLM-Eingabeaufforderungen als Anker für die Zusammenfassung behandeln, können wir sie effektiver steuern, indem wir die Zusammenfassungsaufgabe einerseits in die Wissensbasis des Modells und andererseits in den durch die Eingabeaufforderung definierten Aufgabenbereich einbetten.
Wenn wir beginnen, die Funktionsweise von LLMs besser zu verstehen, muss die Übertreibung durch eine realistische Einschätzung der Möglichkeiten, LLMs im Gesundheitswesen aufzubauen und zu nutzen, ausgeglichen werden. LLMs sind statistische, autoregressive Modelle, eine Klasse von maschinellen Lernmodellen, die das nächste Wort aus dem Kontext vorhersagen. Nehmen wir zum Beispiel an, du bist ein Autor, der eine Geschichte schreibt. Du hast einen Schreibassistenten, der dir das nächste passende Wort vorschlägt, basierend auf den Wörtern, die du bereits geschrieben hast. Dieser Assistent hat schon viele Geschichten unterschiedlichster Art gelesen und weiß daher ungefähr, wie Wörter auf andere Wörter folgen, um allgemein sinnvolle Sätze und komplexere Erzählungen zu bilden. Mit dem Geschichtenschreib-Assistenten schreibst du weiter, nimmst die Vorschläge an und deine Geschichte wird von Wort zu Wort, eins nach dem anderen, länger. Bei jedem Schritt folgt das nächste Wort aus den vorher geschriebenen Wörtern. So funktioniert im Grunde ein autoregressives Modell: Es lernt aus den vorhandenen Daten und erzeugt (oder prognostiziert) neue Daten, Schritt für Schritt, basierend auf der vorherigen Datenfolge.
Gemini, ChatGPT, Claude.AI und andere autoregressive LLMs erwecken den Eindruck, als würden sie wie Menschen denken und geben erstaunliche Antworten auf differenzierte oder komplizierte Eingabeaufforderungen. Sie scheinen sich sogar wie Menschen zu verhalten, indem sie scheinbar emotionale Reaktionen und einfühlsames Verständnis zeigen. Diese Illusionen werden durch unsere kognitiven Verzerrungen, d. h. unsere Neigung zur Anthropomorphisierung, glaubhafter gemacht. Im nächsten Kapitel, Kapitel 2, wird die Funktionsweise von LLMs genauer erörtert, wobei auch die Token, Parameter usw. ausführlich beschrieben werden.
Das Potenzial von LLMs und generativer KI
Die bestehenden medizinischen LLMs sind zwar bereits beeindruckend und in mancher Hinsicht nützlich, aber die Entwicklung steckt noch in den Kinderschuhen, und diese Innovationen haben erst einen Bruchteil des Potenzials erreicht, die Art und Weise, wie wir die Gesundheitsversorgung durchführen, zu verändern. Die aktuellen Entwicklungen konzentrieren sich auf die Verringerung des Aufwands für den Arzt und die Dokumentation - aber das ist erst der Anfang der Auswirkungen von LLM auf die Gesundheitsversorgung. Es wurden bereits ganze medizinisch-spezifische Versionen veröffentlicht, die sich aber aus verschiedenen Gründen noch nicht in der klinischen Versorgung durchsetzen konnten.
- Verfügbarkeit und Qualität der Daten
-
LLMs werden auf riesigen Datensätzen trainiert, und ihre Leistung hängt von der Qualität der Daten ab, mit denen sie trainiert werden. In der Medizin sind die Daten oft über mehrere Quellen verteilt, wie z. B. elektronische Patientenakten, medizinische Fachzeitschriften und randomisierte klinische Studien. Außerdem müssen die Daten vollständig, genau und konsistent sein; Daten von geringerer Qualität können die Leistung von LLMs beeinträchtigen.
- Vorurteile und Fairness
-
LLMs lernen aus verzerrten Daten, was bedeutet, dass sie auf Daten trainiert werden, die die Verzerrungen der Welt widerspiegeln. Das kann dazu führen, dass bereits bestehende Vorurteile bei der Versorgung bestimmter Patientengruppen übertragen und verstärkt werden. So kann ein LLM, das auf einem voreingenommenen Datensatz von Krankenakten trainiert wurde (z. B. Datensätze, die eine geringe Anzahl bestimmter Rassen oder ethnischer Gruppen enthalten), auch voreingenommene Empfehlungen aussprechen. Bei der Diskussion über Verzerrungen geht es darum, dass das System wie vorgesehen funktioniert. Die Abschwächung von Verzerrungen ist oft entscheidend für die Funktionalität des Systems und seine erfolgreiche Nutzung.
- Interpretierbarkeit und Erklärbarkeit
-
Das Erreichen von Interpretierbarkeit oder Erklärbarkeit ist eine der größten Herausforderungen in der KI-Entwicklung. LLMs werden aufgrund ihres komplexen Innenlebens oft als "Black Boxes" betrachtet, deren Funktionsweise so undurchsichtig ist, dass ihre Gesamtfunktionalität und ihre Ergebnisse schwer zu verstehen oder vorherzusagen sind. Der Mangel an Interpretierbarkeit und Erklärbarkeit ist in der Medizin problematisch. Wenn wir nicht verstehen können, wie LLMs zu bestimmten Empfehlungen oder Diagnosen kommen, wird es große Vorbehalte gegen ihre Einführung im Gesundheitswesen geben.
- Regulatorische Landschaft
-
Eine der größten Herausforderungen bei der Entwicklung von KI in der Medizin ist die Regulierungslücke. Es gibt derzeit keine klaren Richtlinien, die definieren, was die Entwicklung und der Einsatz von KI im Gesundheitswesen bedeutet. Diese Ungewissheit dämpft den Enthusiasmus für den Einsatz von KI in medizinisch komplexen und hochsensiblen Bereichen, da es kaum Präzedenzfälle gibt, an denen sich Gesundheitsorganisationen orientieren können, wie sie unter diesen Bedingungen vorgehen sollten.
- Ethische Landschaft
-
Zu den allgemeinen Bedenken gegen den Einsatz von LLMs in der Medizin gehören das Potenzial für Missbrauch, die Aushöhlung der Patientenautonomie und die Verletzung der Privatsphäre der Patienten. Bevor LLMs im Gesundheitswesen eingesetzt werden können, müssen ethische Bedenken berücksichtigt werden.
LLMs modellieren explizit die Beziehungen zwischen Wörtern und Bedeutung über einen langen Textabschnitt hinweg, was zu einem flüssigeren Textverständnis und zur Generierung von Inhalten führt. Außerdem unterscheiden sie sich von primitiveren Sprachmodellen, die aufgrund ihres Datenumfangs und der Parametrisierung der Modelle nur Wörter zu einem Textmuster verketten können. In Kapitel 2 wird die Funktionsweise von LLMs detailliert beschrieben und es werden Parameter, Token und mehr erklärt.
Bestehende medizinische und andere LLMs sind in vielerlei Hinsicht bereits ziemlich beeindruckend. Wir stehen noch ganz am Anfang der Entwicklung dieser Algorithmen und Modelle, aber das Potenzial für eine Veränderung der Gesundheitsversorgung ist enorm. Dennoch liegt der Schwerpunkt derzeit vor allem auf der Verringerung des Verwaltungs- und Dokumentationsaufwands für Kliniker/innen, und das ist erst der Anfang der möglichen Veränderungen. Die jetzige Generation der LLMs könnte sich bald ziemlich primitiv vorkommen. In den nächsten Jahren wird es viele weitere beeindruckende und transformative Anwendungen geben, wenn LLMs und andere Arten von KI wachsen und sich verbessern.
Es gibt mehrere LLMs und andere KI-Plattformen, die speziell für Anwendungen in der Medizin und im Gesundheitswesen entwickelt wurden. Einige davon sind Forschungsprototypen, andere sind ausgereifter und werden in der Praxis eingesetzt. Hier sind ein paar prominente Beispiele.
- PubMedBERT
-
Dieses LLM5 und das zugehörige Modell wurden zuvor mit biomedizinischen Texten trainiert, und die Forscher geben an, dass es alle bisherigen Sprachmodelle übertrifft. Es wurde entwickelt, um im biomedizinischen Bereich zu glänzen. Es wurde mit einer großen Anzahl von biomedizinischen Forschungsarbeiten aus der PubMed6 Datenbank trainiert. Es verwendet BERT, ein von Google entwickeltes NLP-Modell. Es soll Computern helfen, menschliche Sprache besser zu verstehen und zu interpretieren, indem es den Kontext und die Beziehungen zwischen den Wörtern berücksichtigt. BERT kann die Bedeutung eines Wortes anhand der Wörter verstehen, die in einem Satz oder Absatz vor und nach dem Wort stehen. BERT hat den Bereich NLP revolutioniert und wird in verschiedenen Anwendungen eingesetzt, z. B. in Suchmaschinen, Chatbots und Tools zur Stimmungsanalyse. Seine Fähigkeit, menschliche Sprache zu verstehen und zu interpretieren, hat erhebliche Auswirkungen auf die Verbesserung der Interaktion zwischen Mensch und Computer und ermöglicht eine genauere und effizientere Verarbeitung großer Mengen von Textdaten.
- BioBERT
-
Dies ist ein spezialisiertes Sprachmodell, das für biomedizinische Texte angepasst wurde. Es baut auf dem ursprünglichen BERT-Modell auf,7 das auf einem allgemeinen Textkorpus trainiert wurde. BioBERT wurde zusätzlich auf biomedizinische Literatur trainiert, um seine Fähigkeit zu verbessern, medizinische und wissenschaftliche Sprache zu verstehen und zu verarbeiten. Es wurde mit sehr umfangreichen Korpora aus dem biomedizinischen Bereich trainiert - insbesondere mit einer Kombination aus PubMed-Abstracts und PubMed Central (PMC) Volltextartikeln der US National Library of Medicine.
- SciBERT
-
Das vom Allen Institute for AI,, entwickelte BERT-Modell8 wurde auf einem großen Korpus wissenschaftlicher Texte aus verschiedenen Bereichen trainiert, darunter biomedizinische und computerwissenschaftliche Literatur, und wurde für Aufgaben wie die Abstraktion wissenschaftlicher Dokumente eingesetzt.
- KlinikBERT
-
ClinicalBERT wurde entwickelt, um die domänenspezifische Sprache klinischer Texte und ihre besondere Struktur zu erlernen, wie zum Beispiel menschlich klingende Umschreibungen.9 ist ein domänenspezifisches LLM, das auf klinischen Notizen aus der MIMIC-III-Datenbank basiert,10 und trainiert Aufgaben wie die Erkennung benannter Entitäten, die Extraktion von Beziehungen und die Sentimentanalyse.
- Med-PaLM von Google
-
Googles Pathways Language Model (PaLM) wurde mit medizinischem Wissen verfeinert, um Med-PaLM zu erstellen,11 das bei verschiedenen medizinischen Benchmarks gut abgeschnitten hat, z. B. bei der Beantwortung von Fragen zu medizinischen Untersuchungen und bei der Bereitstellung klinischer Entscheidungshilfen. Google kündigte auch Med-PaLM2,12 das bei der Beantwortung von Fragen vom Typ USMLE (U.S. Medical Licensing Examination) das Niveau eines menschlichen Experten erreichte.
Ganz gleich, ob die bereits erwähnten bereichsspezifischen Beispiele von LLMs verwendet werden oder ob mehrere Kernmodelle wie GPT-4 (OpenAI), die Claude-3-Familie (Anthropic), Gemini (Google) oder LLaMA 2 (Meta) mit den unternehmenseigenen Daten gekoppelt werden, LLMs werden die Gesundheitsbranche zum Besseren verändern. Diese KI-Modelle erleichtern das Navigieren, Finden und Verstehen von Inhalten auf der Website eines Krankenversicherers oder Kostenträgers. Die Modelle beschleunigen die medizinische Forschung, indem sie große Datensätze aus elektronischen Patientenakten, klinischen Studien und wissenschaftlicher Literatur analysieren. Jüngste Fortschritte der LLMs ermöglichen es einem Arzt oder Forscher, eine kurze oder längere E-Mail oder eine Reihe von E-Mails von einem LLM lesen zu lassen, von denen viele Video- oder Audioclips und Zusammenfassungen für den Kliniker enthalten können.
Darüber hinaus nehmen LLMs verschiedene Herausforderungen im Gesundheitswesen in Angriff, wie z. B. das Entschlüsseln und Bereinigen medizinischer Aufzeichnungen. Sie überbrücken auch Kommunikationslücken zwischen Patient und Arzt durch konversationelle KI, sorgen für ein gründliches Verständnis der Patientengeschichte vor der Behandlung und analysieren Gesundheitsdaten aus verschiedenen Quellen, um einen besseren Einblick in die Patienten zu erhalten. Mit der weiteren Entwicklung und Integration von LLM in das Gesundheitssystem wird erwartet, dass sie die Zukunft der Patientenversorgung, der Forschung und der Kommunikation maßgeblich beeinflussen werden.
Sie haben noch viel zu tun, um das Fachwissen der erfahrensten Mediziner/innen dauerhaft zu übertreffen. Dennoch gibt es ein enormes Potenzial für die Integration von LLMs als drittes Element in der Arzt-Patienten-Beziehung. LLM könnten bei der Diagnose, der Dokumentation und der Patientenkommunikation hilfreich sein.
Alle klinischen und administrativen Gesundheitsprozesse, bei denen Menschen mit den Daten aus der medizinischen Kodierung, der Patientenaufklärung, der Diagnose, der Patientenaufnahme, der Behandlungsplanung, der Medikamentenverwaltung usw. arbeiten müssen, sind neu zu erfinden.
LLM und generative KI-Anwendungen oder -Apps sind dank der ausgereiften Plattform, der kontinuierlichen Verbesserung der Modelle und der zunehmenden Verfügbarkeit von kostenlosen und quelloffenen Modellen auf dem Vormarsch. Dies gibt Entwicklern, Start-ups und Unternehmen die Werkzeuge an die Hand, die sie brauchen, um innovative Anwendungen zu entwickeln. So wie mobile Geräte neue Arten von Anwendungen mit neuen Fähigkeiten wie Sensoren, Kameras und Konnektivität für unterwegs hervorgebracht haben, sind LLMs bereit, eine neue Welle von generativen KI-Anwendungen und -Geräten für das Gesundheitswesen einzuleiten.
Perplexity AI zum Beispiel zeigt, wie LLMs genutzt werden können, um leistungsstarke, benutzerfreundliche Schnittstellen für die Informationsbeschaffung und -analyse zu schaffen. Perplexity ist eine beliebte KI-gestützte Such- und Chat-Plattform, die bestehende LLMs (wie GPT-3.5 und GPT-4) nutzt, anstatt selbst ein eigenes LLM zu sein. Als KI-Anwendung oder -Schnittstelle, die auf diesen Modellen aufbaut, zeigt Perplexity, wie Entwickler innovative Tools entwickeln können, indem sie sich die Fähigkeiten fortschrittlicher LLMs zunutze machen. Auch wenn solche Anwendungen nicht speziell auf das Gesundheitswesen ausgerichtet sind, zeigen sie doch das Potenzial von LLM-gestützten Tools, den Informationszugang und die Entscheidungsfindung in verschiedenen Bereichen, einschließlich der Medizin, zu revolutionieren.
Heutzutage gibt es keinen Mangel an Gesundheitsgeräten, die uns helfen, unser Leben zu optimieren. Eine Suche im Internet zeigt eine riesige Auswahl an tragbaren medizinischen Geräten, die im Gesundheitswesen eingesetzt werden13Dazu gehören Blutdruckmessgeräte, Blutzuckermessgeräte, EKG-Monitore, Fitness-Tracker und vieles mehr. Wir bringen diese Geräte gerne an uns selbst an, um unser Leben gesünder und unsere Arbeitsbedingungen einfacher zu machen. Diese Geräte werden mit dem Fortschritt der LLMs im Gesundheitsbereich noch nützlicher werden. LLMs könnten zum Beispiel Daten aus verschiedenen Quellen - wie Fitbit, Diät-Apps, Sport-Apps, Fasten-Apps und Schlaftracker - integrieren, um einen ganzheitlichen Überblick über deine Gesundheit zu erhalten. Sie könnten dann diese kombinierten Daten analysieren, um Muster und Trends zu erkennen, die bei einer isolierten Betrachtung der einzelnen Datenquellen nicht ersichtlich wären.
Internetrecherchen sind nach wie vor eine gängige Recherchemethode zur Selbstdiagnose. Die Suche nach den eigenen Symptomen wird umgangssprachlich oft als "Konsultation von Dr. Google" bezeichnet. Es gibt jedoch eindeutige Beweise dafür, dass Internetrecherchen die Diagnosegenauigkeit nur geringfügig und die Triagegenauigkeit fast gar nicht erhöhen.14 LLMs werden diese Gleichung ändern, da Internetsuche und LLMs in den nächsten Jahren zusammenwachsen werden. Das Frage-und-Antwort-Interaktionsmodell führender LLMs führt dich zu einem konversationsähnlichen Austausch mit dem Internet, der kontextabhängig und generativ ist .
Untersuchen wir die aktuellen Unterschiede zwischen z.B. einer Google-Suche und einer führenden Eingabeaufforderung für LLMs.
- Interaktionsstil
-
Eine Google-Suche ist ein Initiativ-Antwort-Stil, während führende LLMs einen Frage-und-Antwort-Stil verwenden, bei dem du Fragen in natürlicher Sprache stellst und das Programm mit einer bestimmten Antwort antwortet. Eine Google-Suche liefert in der Regel viele Antworten auf deine Suchbegriffe und Phrasen. Es ist ein relativ flexibles System, weil es alle übereinstimmenden Ergebnisse zurückgibt und sie in eine Rangfolge bringt. Bei einer Google-Suche werden auch Quellen angegeben.
- Informationsquellen
-
Wenn du eine Suche bei Google durchführst, zapft das System den riesigen Index des Internets mit Webseiten und anderen Inhalten an, um herauszufinden, was zu deiner Suchanfrage passen könnte, und lädt es. Im Gegensatz dazu zapfen führende LLMs Informationsquellen an, auf denen sie trainiert wurden, d.h. einen Korpus von Textdaten, der bis zu einem bestimmten Datum zurückreicht, das oft eine zeitliche Verzögerung zwischen diesem Datum und dem aktuellen Datum der Eingabeaufforderung des Nutzers aufweist.
- Spezifität der Antworten
-
Wenn du bei Google suchst, wirst du wahrscheinlich eine Reihe von Webseiten, Artikeln und anderen Ressourcen sehen, die du durchstöbern und durchblättern musst, um die gesuchten Informationen zu finden. Führende LLMs versuchen, dir spezifische Antworten zu geben, die direkt auf das zutreffen, wonach du suchst, ohne dass du die ganze Sucharbeit leisten musst. Das kann natürlich auch zu Halluzinationen führen, was eine andere Art ist, zu sagen, dass die KI unsinnige Ergebnisse erzeugt oder einfach sachlich falsche Informationen liefert. Wir sollten den Leser daran erinnern, dass wir die KI vermenschlichen, wenn wir sagen, dass die KI oder führende LLMs halluzinieren. Als nicht-menschliches Objekt, dem viele menschliche Eigenschaften fehlen, ist eine KI nicht in der Lage, buchstäbliche Halluzinationen zu erleben.
- Neue Dinge machen
-
Eine Google-Suche ist eine Methode, um Informationen im Internet zu finden, die bereits erstellt wurden. Ein LLM kann diese Informationen nicht nur finden, sondern auch analysieren, neue Texte verfassen und eine Schlussfolgerung erklären oder argumentieren.
LLM-gesteuerte Chatbots werden unsere Fragen zu unserer Gesundheit beantworten, und LLM-gesteuerte Diagnosetools werden Ärzten helfen, Krankheiten genauer zu diagnostizieren. Kliniker werden medizinische LLMs einsetzen, um personalisierte Behandlungspläne zu entwickeln und den Fortschritt der Patienten zu überwachen.
LLMs werden die Art und Weise revolutionieren, wie Verbraucher und Patienten sich in ihrem Gesundheits- und Pflegesystem zurechtfinden. Durch personalisierte Einblicke, Empfehlungen und Unterstützung können LLMs Patienten und Verbraucher in die Lage versetzen, mehr Verantwortung für ihr Wohlergehen zu übernehmen und gut informierte Entscheidungen in Bezug auf ihre Gesundheitsversorgung zu treffen.
LLMs könnten das Gesundheitswesen in mehrfacher Hinsicht revolutionieren:
- Personalisierte Gesundheitserziehung
-
LLMs bieten Verbrauchern und Patienten maßgeschneiderte Informationen über ihre Gesundheitszustände, Behandlungsmöglichkeiten und Präventionsstrategien. Mithilfe generativer KI können personalisierte Aufklärungsvideos erstellt werden, die es den Ärzten ermöglichen, die Aufklärung auf die spezifischen Bedürfnisse, die Sprache und die Vorlieben des Einzelnen zuzuschneiden.
- Medizinische Entscheidungshilfe
-
Verbraucher und Patienten können mit eine LLM-Chatbot-App nutzen, die ihnen hilft, fundierte Entscheidungen über ihre Gesundheitsversorgung zu treffen. Der Chatbot kann Produkt- oder Planvergleiche verschiedener Behandlungsalternativen durchführen und die Vor- und Nachteile jeder Option mithilfe verschiedener Modalitäten wie Videos erklären. Der Chatbot organisiert und fasst lediglich Daten und Inhalte zusammen, die dem Patienten bereits zur Verfügung stehen. Der Chatbot dient als Hilfsmittel, um die Inhalte zu verstehen.
- Navigationshilfe
-
LLMs helfen Verbrauchern und Patienten sich im komplexen Gesundheitssystem zurechtzufinden, qualifizierte Anbieter zu finden, Termine zu vereinbaren und den Versicherungsschutz zu verstehen. Der Einsatz eines Chatbots, der das Internet durchforstet (z. B. ratemds.com, vitals.com, healthgrades.com oder Yelp), um Patientenbewertungen über einen Anbieter oder einen bestimmten Arzt zu finden und zusammenzufassen, kann für die eigene Gesundheit entscheidend sein. Diese Bewertungen sind zwar subjektiv, aber ein Tool wie ein Chatbot, das solche Daten zusammenfasst, ermöglicht es dem Verbraucher, eine fundierte Entscheidung zu treffen.
- Emotionale Unterstützung
-
LLMs unterstützen die emotionale Gesundheit von Verbrauchern und Patienten. LLMs haben ein offenes Ohr für ihre Sorgen, machen ihnen Mut und bringen sie mit anderen zusammen, die vor ähnlichen Herausforderungen stehen. Die von LLMs geförderte Gesprächigkeit bietet die Möglichkeit eines Dialogs, der Verbraucher und Patienten unterstützt und stärkt.
LLMs werden die derzeitige Personalisierungslandschaft, mit der Patienten und Verbraucher konfrontiert sind, verändern und zu einer stärkeren Personalisierung der Gesundheitsversorgung führen. Dazu gehört auch ein Coaching, das individuellere Informationen und Empfehlungen liefert. LLMs könnten Patienten und Verbraucher dazu befähigen, mehr Verantwortung für ihre eigene Gesundheit und ihr Wohlbefinden zu übernehmen, indem sie gut informierte Entscheidungen über ihre Gesundheit treffen.
Die Wahl eines LLM-gesteuerten Chatbots liegt in der Leistungsfähigkeit der Konversations-KI, die durch LLMs ermöglicht wird.15 Ein paar Beispiele für LLM-gestützte Chatbots in der Praxis sind die folgenden:
-
Eine Person mit chronischen Krankheiten könnte einen Chatbot mit LLM-Fähigkeit nutzen, um Symptome zu verfolgen und zu dokumentieren, bei der Verwaltung von Rezepten zu helfen und maßgeschneiderte Informationen für ein gesundes Leben bereitzustellen.
-
Eine unheilbar kranke Patientin, die vor der Entscheidung steht, sich operieren zu lassen oder nicht, könnte einen LLM-Chatbot nutzen, um die Risiken und Vorteile jeder Option zu quantifizieren und Ratschläge zu erhalten, die auf ihre eigene Risikoaversion zugeschnitten sind und in ein Gespräch mit ihrem Arzt einfließen.
-
Eine Pflegeperson für einen Patienten mit einer chronischen Krankheit könnte zum Beispiel einen LLM-gestützten Chatbot nutzen, um Termine und Pflege bei verschiedenen Anbietern zu koordinieren, Erklärungen und Kontext für die Aussagen der Anbieter zu liefern und bei der Entscheidungsfindung zu helfen.
In jedem dieser Beispiele bietet ein LLM-gestützter Chatbot bestimmte Vorteile gegenüber einem allgemeinen maschinellen Lernansatz.
- Natürliches Sprachverständnis
-
Wir haben bereits erwähnt, wie gut LLMs natürliche Sprache verstehen, was wiederum die Eingabe von menschlich klingender natürlicher Sprache ermöglicht (z. B. Fragen zu Symptomen in unseren eigenen Worten stellen), die im Vergleich zum Ausfüllen eines strukturierten Formulars oder einer stichwortbasierten Suche intuitiver und zugänglicher ist.
- Kontextuelles Bewusstsein
-
LLMs können im Laufe eines Gesprächs den Kontext festhalten und verstehen, wie Informationen miteinander zusammenhängen. Dadurch kann der Chatbot informativere und weniger repetitive oder mäandernde Antworten auf die Fragen des Patienten geben. Der Bot kann dann verfolgen, wie sich seine Antworten im Laufe der Interaktion mit dem Patienten verändert haben, basierend auf dem Kontext der anfänglichen Aussagen des Patienten, in denen er seine Symptome, die verschriebenen Medikamente und Lebensstilfaktoren beschreibt.
- Personalisierte Unterstützung
-
Indem er mit einen Dialog mit dem Nutzer führt und seine spezifischen Situationen und Probleme kennenlernt, könnte ein LLM-gesteuerter Chatbot hilfreiche Ratschläge und Vorschläge anbieten, die auf den Gesundheitszustand, den Behandlungsplan und den Lebensstil des Einzelnen zugeschnitten sind.
- Prognostische Unterstützung
-
LLMs können aus dem Informationsfluss, den ein Nutzer im Laufe der Zeit liefert, Signale ableiten und diese Erkenntnisse zu Trends in der Patientenakte zusammenfassen. Mit all diesen Daten kann der Chatbot den Nutzer z. B. auf ein Problem hinweisen oder ihn automatisch an hilfreiche Ressourcen oder Präventivmaßnahmen verweisen, von denen er nach Meinung des Algorithmus profitieren könnte, mit dem Ziel, die Gesundheitsergebnisse zu verbessern.
- Emotional intelligente Unterstützung
-
LLMs können geschult werden, um mit einer verständnisvollen, unterstützenden Stimme zu kommunizieren. Menschen, die mit den täglichen Herausforderungen einer chronischen Krankheit zu kämpfen haben, können davon profitieren, einen unterstützenden Gesprächspartner zu haben, der sie motiviert und ihre psychische Gesundheit erhält.
- Skalierbarkeit
-
Die meisten ML-Modelle müssen explizit in den Feinheiten jeder neuen Aufgabe oder Fähigkeit geschult werden, die sie ausführen sollen. Da LLMs jedoch ihr bereits vorhandenes allgemeines Sprachwissen effektiv anpassen können, um auch ganz unterschiedliche Aufgaben in ganz unterschiedlichen Themenbereichen zu unterstützen, ist es einfacher, den Chatbot zu skalieren und anzupassen, um vielfältigere Nutzerbedürfnisse zu erfüllen und die Breite und Tiefe seiner Wissensbasis mit der Zeit zu erweitern.
Alternativ könnte ein maßgeschneidertes ML-Modell auf weniger strukturierte Dateneingaben und eine einfachere Logik zurückgreifen und nicht viel Unterstützung oder einen breiteren Kontext bieten. Das wiederum könnte weniger Anpassungsmöglichkeiten für den Nutzer bedeuten, einen geringeren und engeren Umfang an Unterstützung und einen höheren Aufwand bei der Erstellung und Pflege.
Ein LLM-gesteuerter Bot benötigt zum Beispiel keine Definition von psychischen Schmerzen oder eine funktionale Klassifizierung. Das deutet darauf hin, dass LLMs ohne starre, vordefinierte Kategorien oder Definitionen auskommen und flexiblere und nuanciertere Interaktionen ermöglichen. Dennoch würde er seine eigenen Fähigkeiten - einschließlich einiger Vorteile der natürlichsprachlichen Interaktion, des kontextuellen Verständnisses und der "tiefen" Wissensintegration - einsetzen, um eine umfassende, maßgeschneiderte Unterstützung zu bieten, die für Menschen mit chronischen Erkrankungen vielversprechend erscheint.
LLMs werden dazu beitragen, den Zugang zur Gesundheitsversorgung zu verbessern. Patienten und Verbraucher werden in der Lage sein, qualitativ hochwertigere Gesundheitsinformationen und -beratung zu suchen und zu erhalten. Das Gesundheitspersonal und das gesamte Gesundheitssystem werden besser in der Lage sein, das Potenzial der Patienten für ihr Wohlbefinden zu nutzen.
Es geht nicht nur darum, dass LLMs Dinge für uns tun können. Wir können LLMs und generative KI nutzen, um gesünder und glücklicher zu werden. Im nächsten Abschnitt werden wir einige dieser zukünftigen Anwendungen skizzieren.
Versprechen und Möglichkeiten von LLMs im Gesundheitswesen
Jedes Jahr sterben weltweit acht Millionen Menschen, die leben würden, wenn sie einen besseren Zugang zur Gesundheitsversorgung hätten.16 Die Medizin und das Gesundheitswesen stehen an der Schwelle zu einem Tsunami des Wandels, da LLMs und generative KI die Medizin grundlegend verändern. LLMs, die auf großen Gesundheitsdaten und medizinischen Daten trainiert sind, werden in Verbindung mit bahnbrechenden Durchbrüchen in der künstlichen Intelligenz eine personalisierte Form der Gesundheitsversorgung ermöglichen.
Die Verknüpfung des in ihrem Trainingskorpus erfassten Wissens mit Daten aus der Patientenkartei hat das Potenzial, klinische Entscheidungshilfesysteme erheblich zu verbessern und letztlich die Versorgung und die Ergebnisse für die Patienten zu verbessern. LLMs können Ärzten helfen, präzisere Diagnosen zu stellen, die beste Behandlung zu finden und sogar die Prognose für den Patienten vorherzusagen.
In einer Zukunft, in der LLMs in klinische Entscheidungsunterstützungssysteme eingebettet sind, könnten Ärzte und Ärztinnen Zugang zu einem fast unerschöpflichen Vorrat an medizinischem Wissen am Ort der Behandlung haben. Mit solchen Instrumenten könnten Ärzte und Ärztinnen medizinische Fehler reduzieren. LLMs helfen Ärzten, die selbst am Rande eines Fehlers stehen, von der Gefahr wegzulenken.
LLMs könnten Ärzten ein bisher nicht dagewesenes Maß an Echtzeitversorgung bieten, indem sie medizinische Aufzeichnungen in der elektronischen Patientenakte, Daten von Heimgeräten und von Patienten eingegebene Informationen auf digitalen Plattformen verfolgen. Mit diesem Ansatz könnte ein Frühwarnsystem für Symptome, Anzeichen und Labortestergebnisse geschaffen werden, die auf eine Verschlechterung des Gesundheitszustands hindeuten. Durch die frühzeitige Erkennung von Gesundheitsproblemen bieten LLM eine große Chance, den Ausbruch chronischer Krankheiten zu verhindern, die sich negativ auf die gesundheitsbezogene Lebensqualität der Patienten auswirken und oft zu einer hohen finanziellen Belastung für das Gesundheitssystem führen können.
Darüber hinaus können die von der LLM gewonnenen Erkenntnisse in Ansätze der Präzisionsmedizin einfließen, die darauf abzielen, die Primär-, Sekundär- und Tertiärprävention sowie die Behandlungsmaßnahmen entsprechend den genetischen, umweltbedingten und lebensstilbedingten Merkmalen jedes einzelnen Patienten zu optimieren. Auf diese Weise könnte die Präzisionsmedizin dazu beitragen, das Ansprechen auf Behandlungen zu optimieren, das Engagement und die Therapietreue der Patienten zu erhöhen und die Gesundheitsergebnisse zu verbessern, und zwar sowohl für Einzelpersonen als auch für ganze Bevölkerungsgruppen.
Angesichts der rasanten Fortschritte der LLM und ihrer unausweichlichen Integration in andere disruptive Technologien in der Zukunft wird das Potenzial der KI zur Entwicklung eines wirklich prädiktiven, präventiven und individualisierten Gesundheitssystems vervielfacht. Big Data für das Gesundheitswesen und KI/LLM versprechen, die präventive und präventive Medizin zur neuen Normalität zu machen.
In dem Maße, wie neue KI-Funktionen wie agentenbasiertes Denken, abruferweiterte Generierung und größere Eingabeaufforderungen in LLMs eingeführt werden, steigt der Wert von LLMs. Sie können gezieltere und differenziertere Anfragen auf der Grundlage von mehr medizinischen und anderen domänenspezifischen "Daten" bearbeiten, hypothetische Szenarien durchdenken und auf Fragen mit kontextbezogenen und personalisierten Antworten antworten. Heutzutage können Ärzte und Ärztinnen eine von mehreren Apps für medizinische Fragen nutzen, wie z.B. die UpToDate App.17 Der Einsatz von LLMs kann die Funktionalität solcher Apps in den Bereichen Suche, Zusammenfassung, Benutzeroberfläche und mehr verbessern.
Stell dir zwei Szenarien aus dem Gesundheitswesen vor, die beide die Leistung von Apps nutzen, die von LLMs und generativer KI gesteuert werden. Diese hochmodernen KI-Apps integrieren nahtlos konversationelle KI, erweiterte Suchfunktionen und intelligente Zusammenfassungen und revolutionieren so die Art und Weise, wie Patienten und Verbraucher mit Technologie interagieren und auf Informationen zugreifen. Lassen Sie uns in diese hypothetischen Szenarien eintauchen und die potenziellen Auswirkungen dieser KI-gestützten Apps im Gesundheitswesen untersuchen.
Im ersten Szenario ist ein medizinisches Schweizer Taschenmesser der Name einer Verbraucher-App, die Patienten und Verbrauchern helfen soll, sich im Gesundheitssystem zurechtzufinden. Im zweiten Szenario ist Medical Sherpa der Name einer App für Kliniker, die als Begleiter oder virtueller Assistent des Arztes fungiert. In beiden Szenarien werden die LLMs geschult oder mit vertrauenswürdigen Wissensquellen, klinischen Daten, Apothekendaten, EHR-Daten und mehr ergänzt.
Medizinisches Schweizer Taschenmesser App für VerbraucherInnen
Ein KI-Startup-Unternehmen stellt einen neuartigen Chatbot vor, der mit einer medizinisch-spezifischen LLM entwickelt wurde. Bei dem Chatbot handelt es sich um eine Gesundheits-App mit dem Namen Medical Swiss Army Knife, die multifunktionale Funktionen für Verbraucher oder Patienten im Gesundheitswesen bietet, wie z. B. die Planung von Arztterminen, die Zusammenfassung der Krankengeschichte eines Patienten und das Anhören von Arzt- und Patientendialogen, um eine klare und verständliche Zusammenfassung der ärztlichen Anweisungen zu liefern. Medical Swiss Army Knife bietet auch eine Anbieterlenkung, die den Nutzern hilft, den wahrscheinlich besten Anbieter für ihre Krankheit zu finden.
David, ein 75-jähriger Mann, ist verliebt in sein Fitbit-Wearable. Über mehrere Wochen hinweg empfängt er wiederholt ein Signal, das Vorhofflimmern anzeigt, und kontaktiert seinen Arzt, der ihn an einen Kardiologen überweist. David nimmt Medikamente gegen hohen Blutdruck und Statine zur Kontrolle seines Cholesterinspiegels ein. Vor kurzem wurde bei David ein Kalzium-Scoring-Test durchgeführt, der ihn in eine Hochrisikokategorie einordnet. Sein Kardiologe empfiehlt eine Vorhofflimmerablation und führt sie auch durch, aber das Problem wird dadurch nicht behoben. David wird erneut ins Krankenhaus eingeliefert, um seinem Herzen einen kontrollierten Elektroschock und eine Kardioversion zu verabreichen, um einen normalen Rhythmus wiederherzustellen, aber ohne Erfolg.
David fragt sich, ob es eine Alternative zur Vorhofflimmerablation gibt, die er in Betracht ziehen sollte. Er spricht mit seinem Arzt, der ihm rät, dass die Vorhofflimmerablation gute Ergebnisse erzielt hat und sie es noch einmal versuchen sollten, da dieses Krankenhaus auf dieses Verfahren zur Behandlung von Vorhofflimmern spezialisiert ist. David hat die App Medical Swiss Army Knife auf seinem iPhone, die ihm seine Frau Ann empfohlen hat, und beschließt, sie zu benutzen, um seine Frage nach Alternativen zur Vorhofflimmerablation zu beantworten. Die Medical Swiss Army Knife App verwendet eine medizinisch-spezifische LLM, eine grundlegende LLM wie Google Gemini, kombiniert mit Daten aus Davids Krankenakten, seiner medizinischen Vorgeschichte und Gesundheitsinformationen. Die App informiert David über einen weiteren Eingriff, eine Katheterablation. Sie zeigt David verifizierte Videos eines führenden Forschungskrankenhauses und eines Arztes, der sich auf dieses Verfahren spezialisiert hat. David ist fasziniert und berät sich mit seinem Arzt, der ihm mitteilt, dass es sich um eine alternative Behandlung handelt, die er nicht anbieten kann und dass David sich an das Forschungskrankenhaus wenden soll, um mehr zu erfahren.
Die App beginnt ein Gespräch mit David über seinen Kalzium-Scoring-Test, der ein hohes Risiko für ihn anzeigt. Sie informiert David darüber, dass im Forschungszentrum vor der Katheterablation höchstwahrscheinlich eine Computertomografie (CT) des Herzens durchgeführt wird, damit sein behandelnder Arzt mögliche Schwierigkeiten während des Eingriffs besser einschätzen kann.
David nutzt die Medical Swiss Army Knife App, um das Krankenhaus zu kontaktieren und einen ersten Telefontermin zu vereinbaren, um mehr zu erfahren. David genießt das Gespräch und entscheidet sich für eine Behandlung in diesem Forschungskrankenhaus. Die App bucht den Termin, den Flug und das Hotel. David unterhält sich mit der Medical Swiss Army Knife App, um besser zu verstehen, welche Fragen er stellen sollte. Die App schlägt vor, dass David folgende Fragen stellt:
-
Was ist der beste Behandlungsplan für mich in meiner Situation?
-
Welche verschiedenen Behandlungsmöglichkeiten gibt es und was sind die Risiken und Vorteile jeder einzelnen?
-
Wie wirkt sich mein Vorhofflimmern auf mein Herz aus?
-
Wie hoch ist mein Schlaganfallrisiko?
-
Was sollte ich tun, wenn ich einen Vorhofflimmern-Anfall habe?
-
Was sind die langfristigen Folgen eines Lebens mit Vorhofflimmern?
Die App-Entwicklung, durch ein renommiertes Unternehmen, verwendet modernste Sicherheitsmaßnahmen, um die Privatsphäre der Patienten zu schützen. Das Design der App versucht, Fehlinterpretationen des Gesprächs oder ungenaue Informationen zu vermeiden, indem:
- Verwendung eines großen und vielfältigen Datensatzes zum Trainieren des LLM
-
Dieser Datensatz enthält medizinische Gespräche. Das hilft dem LLM, die Feinheiten der medizinischen Sprache zu lernen und Fehler zu vermeiden.
- Einsatz modernster NLP-Techniken
-
Diese NLP-Methoden werden eingesetzt, um das Gespräch effektiv zu verstehen. Das wiederum hilft dem LLM dabei, die wesentlichen Aspekte des Gesprächs zu erkennen und keine ungestützten Schlüsse zu ziehen.
- Feedback von Ärzten und Patienten einbeziehen
-
Diese App verbessert die Genauigkeit des LLMs. Die kontinuierliche Feedbackschleife der App hilft dabei, Bereiche zu identifizieren, in denen das LLM Schwierigkeiten hat, und die notwendigen Anpassungen vorzunehmen .
- Transparenz für die Nutzer schaffen
-
Die App ermöglicht es den Nutzern, sich über ihre Funktionsweise zu informieren, und sie nutzt ihre Daten, um den Nutzern zu helfen, die Grenzen der App zu verstehen und sie verantwortungsvoll zu nutzen.
Die LLM Medical Swiss Army Knife App erinnert David daran, dass sie kein Arzt ist und keine klinischen Ratschläge oder Diagnosen stellen kann. Sie weist David darauf hin, dass er den Rat seines Arztes für Vorhofflimmern einholen sollte, bevor er Entscheidungen über seine Behandlung trifft. David und seine Frau fliegen 2.000 Meilen und checken in dem empfohlenen Hotel neben dem Krankenhaus ein. Beide sind sofort beeindruckt, als der Kardiologe anruft und fragt, ob er vorbeikommen kann, um Hallo zu sagen. Dieser persönliche Service übertrifft ihre Erwartungen. Vor dem Treffen mit dem Arzt öffnet David die Medical Swiss Army Knife App, um die Fragen zu überprüfen, die er stellen möchte. Die App fragt David, ob er möchte, dass die App bei dem Gespräch mithört. David teilt dem Arzt mit, dass er eine App benutzt, die ihr Gespräch mithört und David hinterher hilft, das Gespräch besser zu verstehen. Der Arzt lächelt und sagt: "Natürlich". Er erinnert David daran, dass er ihm vor und nach der Operation gerne alle Fragen beantworten wird.
Es ist jetzt Montag und Zeit für eine CT-Untersuchung zur Vorbereitung auf die Isolator Synergy Ablationsklemme zur Behandlung von Davids Vorhofflimmern. Die CT-Untersuchung zeigt eine schwere Verstopfung in seinen Hauptarterien und der Kardiologe warnt David, dass er ein hohes Risiko für einen Herzinfarkt hat, so sehr, dass er wegen der Verstopfung sofort am offenen Herzen operiert werden muss.
David beginnt mit seiner Medical Swiss Army Knife App zu sprechen und fragt, ob seine Ärzte vor Ort diese Verstopfung hätten entdecken sollen. Die App teilt David mit, dass weitere Tests möglicherweise nicht nötig gewesen wären, da er keine Symptome hatte. Sie rät ihm außerdem, seinen behandelnden Kardiologen und den Arzt vor Ort zu fragen, wenn es die Zeit erlaubt.
Ohne die App "Medical Swiss Army Knife" wäre David nur bei seinem Kardiologen vor Ort geblieben und hätte nicht gewusst, dass er ein hohes Risiko für einen Herzinfarkt hat. Auch wenn es vielleicht nur ein Zufall war, hätte sich David nie der CT-Untersuchung unterzogen, die eine schwere Verstopfung zeigte, wenn er sich nicht für eine Katheterablation entschieden hätte.
Davids Operation sollte drei bis vier Stunden dauern, stattdessen dauerte sie sechs Stunden. Der Arzt schließt die Operation ab und erzählt Davids Frau Ann, was passiert ist. Er sagt, dass Davids Operation deshalb länger dauerte, weil er eine körperliche Anomalie hatte, die dazu führte, dass das Blut auf eine Art und Weise von der Lunge zum Herzen floss, die der Arzt noch nie gesehen hatte und die auch niemand, den er kennt, je erlebt hatte.
Der Arzt betont, dass er sich schon seit Jahrzehnten damit beschäftigt und sogar mit Babys mit angeborenen Herzfehlern und Geburtsanomalien gearbeitet hat und so etwas noch nie gesehen hat. Es hat einige Zeit gedauert, bis sie der Sache auf den Grund gegangen sind, und statt einer Pumpe, die das Blut wieder aufbereitet, haben sie drei davon eingesetzt, was nicht ausreichte.
Wir wären nachlässig, nicht zu erwähnen, warum Ann so viel Vertrauen in das medizinische Schweizer Taschenmesser LLM medical app hatte. Vier Jahre zuvor wurde bei ihr CLL-Leukämie diagnostiziert. Sie hatte an einem Montag einen Termin bei einem Onkologen und erhielt am Donnerstag davor einen Anruf von ihrer Tochter. Ihre Tochter war eine aktive Nutzerin der Medical Swiss Army Knife App. Die App schlug vor, dass ihre Mutter in einem Krebsforschungskrankenhaus die besten Ergebnisse erzielen würde, im Gegensatz zu dem örtlichen Krankenhaus, das sie für die Behandlung vorgesehen hatte. Ihre Mutter war nicht begeistert, ihren Termin zu verschieben, da sie ihren Onkologen mochte und das örtliche Krankenhaus im Vergleich zum Forschungskrankenhaus eine kurze Autofahrt entfernt war. Aber sie lenkte ein, sagte ihren Termin ab und machte einen Termin bei einem Onkologen im Forschungskrankenhaus.
Das Forschungskrankenhaus hatte einen etwas anderen Behandlungsplan, der ein seit kurzem erhältliches FDA-Medikament, IMBRUVICA®, beinhaltete. Ann war mit den Ergebnissen sehr zufrieden und ihr Krebs ist derzeit in Remission. Sie dankt ihrer Tochter und der App, die sie an eine Einrichtung verwiesen hat, die bessere Ergebnisse bei der CLL-Leukämie erzielt hat. Ann wusste, dass die klinischen Ergebnisse je nach Anbieter sehr unterschiedlich ausfallen können, und sie war froh, dass sie ihren Mann David an einen Experten für die Behandlung von Vorhofflimmern vermitteln konnte. Sie ist fest davon überzeugt, dass dies das Leben ihres Mannes gerettet hat. Es ist kein Geheimnis, dass medizinische Einrichtungen, die Forschungsergebnisse veröffentlicht haben, eine höhere Patientenzufriedenheit und eine geringere Sterblichkeitsrate bei einer Vielzahl von Krankheiten und Verfahren aufweisen.18
Durch die Nutzung umfangreicher Daten über die klinischen Ergebnisse von Anbietern kann die Medical Swiss Army Knife App, die von einem LLM betrieben wird, einzelne Patienten mit den Ärzten zusammenbringen, die statistisch gesehen die effektivste Behandlung für das jeweilige Krankheitsprofil und die Risikofaktoren des Patienten bieten.
Medical Sherpa App für Kliniker
Dr. Davis war seit über 20 Jahren Hausarzt und hatte schon alles gesehen. Aber als sein Patient John zu einer Routineuntersuchung kam, bemerkte Dr. Davis etwas, das ihn innehalten ließ. John hatte einen kleinen Klumpen an der Seite seines Halses. "John", sagte Dr. Davis. "Ich möchte mir den Kloß in deinem Hals genauer ansehen." John nickte, woraufhin Dr. Davis den Knoten mit seinen entspannten Fingern abtastete und seine Stirn runzelte. Der Knoten war fest und unbeweglich und bewegte sich nicht, wenn er mit den Fingern leicht gedrückt wurde. "Ich mache mir Sorgen", sagte Dr. Davis, "dass dieser Knoten Krebs sein könnte." Er fuhr fort: "Ich würde empfehlen, sofort einen Spezialisten aufzusuchen, um auf Nummer sicher zu gehen." John sah beunruhigt aus. "Aber ich fühle mich nicht krank", sagte er. "Ich habe keine Symptome."
"Krebs kann im Frühstadium oft asymptomatisch sein", fügte Dr. Davis hinzu. Widerstrebend willigte John ein, einen Spezialisten aufzusuchen. Dr. Davis konsultierte seinen Medical Sherpa, eine LLM-Diagnose-App, die Berge von Faktenwissen durchforsten kann.
Dr. Davis beschrieb die Geschwulst seinem Medical Sherpa. Die App machte mehrere Vorschläge, darunter die Bitte um eine Feinnadel-Aspirationsbiopsie (FNA) - eine minimalinvasive Methode zur Entnahme einer Zellprobe aus dem Knoten - und die Überweisung an einen HNO-Arzt, den richtigen Spezialisten für die Diagnose und Behandlung von Erkrankungen im Hals-, Nasen- und Ohrenbereich.
Auf Anraten des Medical Sherpa ordnete Dr. Davis eine FNA-Biopsie für John an. Außerdem überwies er John an einen HNO-Arzt. Einige Tage später kam das Ergebnis der FNA-Biopsie mit dem Befund Krebs zurück. Dr. Davis rief John an und überbrachte ihm einen asymmetrischen Informationsschock: "Es tut mir leid, Ihnen sagen zu müssen, dass Sie Krebs haben, aber wir haben ihn früh erkannt, und Sie können immer noch behandelt werden. Wäre es in Ordnung", fragte Dr. Davis John, "wenn mein Medical Sherpa dir hilft, einen Termin mit dem HNO-Arzt zu vereinbaren, um deine Behandlungsmöglichkeiten zu besprechen?"
Medical Sherpa ist eine App für Kliniker, die typischerweise von Ärzten genutzt wird, die eine Beratung wünschen. In der Medizin sind Konsultationen auf dem Flur, im Aufzug oder an der Bordsteinkante eine gängige Praxis. Eine Medical Sherpa App ist im Grunde genommen eine, wenn auch kurze und informelle, Konsultation zwischen einem Arzt und einem LLM. Der Name "Sherpa" ist treffend, denn ähnlich wie die Bergführer, die Bergsteigern beim Aufstieg auf den Mount Everest helfen, unterstützt der Medical Sherpa Kliniker bei der Navigation durch komplexes medizinisches Terrain. LLMs sind als virtuelle Assistenten an der Seite von Ärzten vorgesehen, die ihnen Einblicke geben und Aufgaben erledigen. Ein wesentlicher Bestandteil des Menschen in der Medizin ist jedoch die führende Hand des klinischen Urteils.
Es gibt sowohl allgemeine Gründe dafür, dass medizinische Sherpas eine bessere und sicherere Versorgung ermöglichen, als auch spezielle Vorteile für Ärzte und Ärztinnen. Wenn Ärzte zum Beispiel mit ihren Sherpas zusammenarbeiten, erhalten sie Wissen aus der Nähe, das sie nicht haben, wenn sie sich auf Daten und Analysen aus der Ferne verlassen. Ebenso ist der Sherpa der Krankenschwestern und -pfleger am Krankenbett besser in der Lage, über die allgegenwärtige Kommunikation Unterstützung und Ratschläge in Echtzeit zu geben, sodass die Krankenschwestern und -pfleger fundiertere Entscheidungen treffen können.
Außerdem können medizinische Sherpas den Leistungserbringern helfen, ihre Produktivität zu steigern, indem sie ihnen Zeit sparen. Durch den schnellen und einfachen Zugang zu Beratung und Unterstützung können Ärzte und Krankenschwestern die eingesparte Zeit nutzen, um sich auf andere wichtige Aspekte ihrer Arbeit zu konzentrieren, was zu einer besseren Gesundheitsversorgung beitragen kann.
Durch die Verringerung des Burnouts ( ), das als ernsthaftes Problem im Gesundheitswesen erkannt wurde, können Ärzte und Ärztinnen mehr Zeit für die Pflege der Patienten aufwenden und müssen weniger Zeit für die Einarbeitung neuer Mitarbeiter/innen aufwenden. Jemanden zu haben, der bereits Erfahrung mit dieser Form der Pflege hat, kann einen großen Unterschied in der Erfahrung und dem Selbstvertrauen der Ärzte und Ärztinnen hier zu Hause machen. Zusammengenommen können diese Vorteile zu einer besseren Qualität der Pflege für die Patienten und einem nachhaltigeren System für die Zukunft führen.
Aufstrebende Merkmale der LLMs
LLM-gestützte Anwendungen befinden sich in einem interessanten Bereich zwischen einer verlockenden Zukunftsvision und einer Reihe von Hindernissen, die es zu überwinden gilt. Wir sind einer Zukunft sehr nahe, in der LLM-basierte Systeme immer komplexere Aufgaben bewältigen, die kreativen Impulse der Menschheit in neue Richtungen lenken und die Art und Weise, wie wir mit der Welt um uns herum interagieren, grundlegend verändern können. Aber zuerst müssen wir die technischen Grenzen in Bezug auf Daten, Leistung, Stabilität und Sicherheit überwinden.
Neben der technologischen Infrastruktur gibt es auch eine menschliche Seite der Sache. Es gibt Bedenken hinsichtlich des Datenschutzes bei datenhungrigen LLMs. Voreingenommenheit, die in die Trainingsdaten einfließt, erfordert eine kontinuierliche Überwachung und proaktive Strategien, um die Reproduktion von Voreingenommenheit und Schaden im Gesundheitswesen zu verhindern.
Das bedeutet, dass wir zwar noch nicht am Ziel sind und dass die Technologie allein uns nicht dorthin bringen wird, aber wir kommen langsam voran. Soziales, ethisches und konzeptionelles Denken wird entscheidend sein, um verantwortungsvolle Designansätze zu verbreiten und LLMs zu Werkzeugen zu machen, die die Effizienz und Effektivität von Ärzten und die Interaktion zwischen Patienten und Ärzten verbessern und gleichzeitig verhindern, dass sie zu Werkzeugen der Ausgrenzung und des Schadens werden.
Die aktuellen Formfaktoren von LLM-basierten Apps bieten einen breiten Nutzen für das Gesundheitswesen und haben das Potenzial, den Lebensstil der Verbraucher und die Abläufe im Gesundheitswesen zu unterstützen. Vom Symptom-Checker auf dem Smartphone bis hin zur klinischen Entscheidungshilfe im Backoffice - LLM-Anwendungsfälle erweitern das Potenzial für eine bessere Gesundheitsversorgung an zahlreichen Punkten im Spektrum der Interaktion zwischen Patient und Arzt.
Auch wenn echte bahnbrechende Innovationen noch in weiter Ferne liegen, können wir heute schon sehen, dass KI die klinischen Bereiche und die Gesundheitstechnologie für Verbraucher umgestaltet, um die Effizienz der Arbeitsabläufe und die Patientenversorgung zu verbessern. Das Buch AI-First Healthcare19 dokumentiert zahlreiche Beispiele dafür, wie KI das Gesundheitswesen verbessert. LLMs bringen KI einen weiteren Schritt voran, und automatisierte Notizen, Chatbots und Zusammenfassungen sind erst der Anfang.
Mehr als jede andere aufkommende Technologie versprechen LLMs eine kontinuierliche Steigerung des sozialen Nutzens - sie machen bestehende Systeme auf Lücken in der Pflege aufmerksam, lenken Entscheidungsbäume um und maximieren die Ergebnisse für jeden Patienten durch die Befähigung von Anbietern und Käufern. Das Hier und Jetzt dieser optimistischen Betrachtung unserer gemeinsamen Zukunft wird durch den Einzug der LLMs für Verbraucher und Unternehmen in unser Leben geprägt.
In naher Zukunft stehen den LLMs aufregende Veränderungen bevor. Dazu gehört die Erweiterung der Eingabeaufforderungen oder der sogenannten Kontextfenster. Die Fenstergröße wird immer größer, und die Forscher arbeiten an einer Eingabeaufforderung, die funktional unendlich groß ist.
Unendliche Eingabeaufforderungen im Kontext
LLMs mit umfangreichen oder unbegrenzten Kontextfenstern können jetzt Text-, Audio- und Videodaten gleichzeitig verarbeiten. Dieser Fortschritt eröffnet neue und erweiterte Möglichkeiten für Gesundheitsdienstleister, Krankenkassen und Kostenträger. Für Ärzte und Ärztinnen ist das interessant, weil es die Patientenberatung durch die Analyse verschiedener Datenarten in Echtzeit verbessern könnte. Hier sind einige der Möglichkeiten, wie diese KI-Verbesserung das Gesundheitswesen verändern könnte:
-
LLMs, die Zugang zu medizinischer Literatur, klinischen Notizen und Leitlinien haben, können Ärzten in Echtzeit evidenzbasierte Empfehlungen für Diagnose, Behandlung und Pflegeplanung geben. Wie bei Menschen kann es jedoch je nach Komplexität der Eingabeaufforderung eine Pause (d.h. Latenz) bei der Antwort geben. Indem sie Patientendaten zusammen mit der medizinischen Fachliteratur und bewährten Methoden auswerten, können LLMs Kliniker/innen dabei unterstützen, medizinische Fehler zu reduzieren und die Entscheidungsfindung zu verbessern, um die Ergebnisse für die Patient/innen zu verbessern.
-
Modelle, die natürlich klingende Text-, Audio- und Videodateien verstehen und generieren können, können sinnvolle Interaktionen zwischen Patienten und Ärzten über Sprachbarrieren hinweg ermöglichen. LLMs könnten dabei helfen, komplexe medizinische Informationen in vielseitige, natürlich klingende Texte umzuwandeln, die von einer größeren Anzahl von Patienten verstanden werden, häufige Fragen zu beantworten, differenzierte Patientenaufklärung anzubieten, die auf die individuellen Bedürfnisse zugeschnitten werden kann, und frühzeitiges Eingreifen zu fördern. Diese Interaktionen könnten dann das Engagement, die Therapietreue und die Zufriedenheit der Patienten mit der Behandlung verbessern.
-
Verschiedene LLMs könnten dabei helfen, den Papierkram und die klinische Dokumentation zu automatisieren, einschließlich der Kodierung und Abrechnung, die Prozesse im Gesundheitswesen zu rationalisieren und die Anbieter von der Last der Verwaltung zu befreien, damit sie mehr Zeit mit den Patienten verbringen können. Heute bieten Unternehmen wie Google Technologien an, mit denen man LLMs nutzen kann, um eine E-Mail mit eingebettetem Video zusammenzufassen. Stell dir vor, wie das wäre, wenn der Eingabestrom nicht durch eine feste Größe begrenzt ist.
-
Modelle, die Audio- und Videodaten in Echtzeit auswerten können, würden die Effizienz und Effektivität von telemedizinischen und Fernüberwachungsdiensten verbessern und bei Fernkonsultationen helfen.
-
Mit der Fähigkeit, riesige Mengen an biomedizinischer Literatur und Daten, einschließlich wissenschaftlicher Veröffentlichungen, klinischer Studiendaten und Patientenakten, zu analysieren und zusammenzufassen, können LLMs die medizinische Forschung und Medikamentenentwicklung beschleunigen. Kliniker/innen könnten mit dem LLM Zeit sparen, indem sie klinische Studiendaten oder jahrelange Patientennotizen zusammenfassen.
-
LLMs könnten eine personalisierte Medizin und Präzisionsmedizin ermöglichen, indem sie eine maßgeschneiderte Versorgung für einzelne Patienten auf der Grundlage ihrer einzigartigen Merkmale (z. B. auf der Grundlage von Genomprofilen, Lebensstil- und Anamnesedaten) bereitstellen, um personalisierte Risikofaktoren, Krankheitsverläufe und therapeutische Interventionen und Behandlungen zu identifizieren. Ein personalisierterer Pflegeansatz, der durch LLMs ermöglicht wird, könnte die Effektivität und Effizienz der Gesundheitsversorgung erhöhen, indem er die Ergebnisse für die Patienten optimiert.
Das Versprechen einer personalisierten Gesundheitsversorgung wäre ein großer Schritt nach vorn. LLMs mit unendlichen Kontextfenstern oder Eingabeaufforderungen könnten große Mengen an medizinischer Literatur, Daten aus klinischen Studien, die Krankengeschichte des Patienten und klinische Daten verarbeiten und speichern und so eine umfassende und aktualisierbare medizinische Wissensbasis für einen Patienten oder Verbraucher schaffen. Chatbots, die von solchen LLMs angetrieben werden, könnten zu komplexeren Multiturn-Gesprächen erweitert werden und so intuitive und ansprechende Verbrauchererfahrungen schaffen. Der ehemalige Google-CEO Eric Schmidt geht davon aus, dass die unendlichen Eingabeaufforderungen in den nächsten fünf Jahren kommen werden.20
Agentisches Reasoning
Agentisches Denken ist eine weitere Entwicklung der KI, bei der Systeme autonom handeln können. Andrew Ng, ein Informatiker und KI-Forscher, bietet interessante Perspektiven auf das Wesen des agentenbasierten Denkens und beschreibt vier Schlüsselmerkmale oder Muster des agentenbasierten Denkens, die wir in diesem Kapitel untersuchen werden: die Muster der Reflexion, der Nutzung von Werkzeugen, der Planung und der Multi-Agenten-Interaktion.
"Agentisches Denken ist das Herzstück der Entwicklung von Agenten, die Handlungen ausführen können, um Ziele zu erreichen", sagt Andrew Ng,21 Andrew Ng, außerordentlicher Professor für Computerwissenschaften an der Stanford University und Mitbegründer von Coursera, einem Unternehmen, das Massive Open Online Courses anbietet. Ng erklärt, dass ein KI-System in der Lage ist, zu fühlen, zu wollen, zu glauben und zu handeln, also Ziele zu setzen und zu ändern, Entscheidungen unter Unsicherheit zu treffen, aus seinen Erfahrungen zu lernen und mit Menschen und anderen KI-Agenten auf natürliche und effektive Weise zu interagieren und zu argumentieren. Die Herausforderung, agentenbasiertes Denken zwischen KI-Agenten zu erreichen, erfordert erhebliche Fortschritte in verschiedenen Bereichen wie maschinelles Lernen, NLP, Wissensrepräsentation und Argumentation unter Unsicherheit.
Die vier Muster des agenturischen Denkens
Das Reflexionsmuster im agentenbasierten Denken hilft der KI, ihre Leistung auf der Grundlage ihres bisherigen Handelns zu verbessern. Das Reflexionsmuster ermöglicht es einem KI-System im Gesundheitswesen, über seine Entscheidungen nachzudenken, Wege zur Verbesserung der Ergebnisse zu finden und seinen Ansatz für die Patientenversorgung kontinuierlich weiterzuentwickeln. Ein KI-Agent, der Ärzten Diagnose- und Behandlungsempfehlungen für eine komplexe Krankheit geben soll, könnte zum Beispiel das Reflexionsmuster anwenden. Der Agent würde zunächst anhand eines großen, vielfältigen Datensatzes aus Patientenakten, Literatur und klinischen Leitlinien trainiert und würde dann unter Berücksichtigung der vorhandenen Daten Empfehlungen für den Kliniker aussprechen.
- Erstdiagnose und Behandlungsplan
-
Wenn ein neuer Patientenfall eingereicht wird, analysiert der Agent die Symptome, den medizinischen Hintergrund und die Testergebnisse des Patienten und stellt dann eine erste Diagnose und einen Behandlungsplan auf. Der Agent nutzt seine Trainingsdaten und wendet sein agenturisches Denken auf die Situation an, sowie die modellierten Daten über die Module, aus denen sie besteht, um zu bestimmen, was wahrscheinlich die wahre Ursache für den Zustand des Patienten ist und wie der beste Behandlungsplan aussehen wird.
- Reflexion der Ergebnisse
-
Sobald ein Patient auf einen Behandlungsplan gesetzt wurde, überwacht der KI-Agent den Verlauf und die Ergebnisse des Patienten im weiteren Verlauf. Was der Patient erreicht, wird mit dem verglichen, was der Agent aufgrund seiner ursprünglichen Empfehlungen für denselben Patienten vorhersagen würde. Wenn sich der Patient so verbessert, wie es der Agent erwartet hat, wird er sich selbst bestärken und in ähnlichen Fällen in Zukunft noch zuversichtlicher werden.
-
Wenn sich der Zustand des Patienten jedoch nicht verbessert oder das Ergebnis nach einer bestimmten Zeit suboptimal ist, würde der KI-Agent untersuchen, warum er die Entscheidung getroffen hat - indem er seine Algorithmen, die verwendeten Daten und die Annahmen, die er getroffen hat, überprüft.
- Anpassung und Lernen
-
Auf der Grundlage dieser reflektierenden Analyse lässt die AGI den Fall des Patienten als Grundlage für die notwendige Anpassung ihres Entscheidungsmodus dienen. So kann die AGI z. B. ihr Hintergrundwissen um eine Aufzeichnung der klinischen Befunde erweitern, einen Algorithmus verfeinern, um eine empirisch bekannte patientenspezifische Nuance zu berücksichtigen, oder eine Liste von Behandlungsempfehlungen überarbeiten, um die Wahrscheinlichkeit einer bekannten Komplikation zu verringern.
-
Entscheidend ist, dass dieser adaptive Trainingsprozess bedeutet, dass der Agent kontinuierlich lernt, mehr Maßnahmen zu ergreifen, die sein Verhalten langfristig verbessern und so letztendlich bessere Empfehlungen aussprechen - was die Fehlerwahrscheinlichkeit verringert und zu angemesseneren Eingabeaufforderungen führt. Wenn er mehr Patienten erlebt und sich auf diesen Prozess der Nachbearbeitung eingelassen hat, kann er kompliziertere medizinische Probleme diagnostizieren und behandeln.
- Austausch von Erkenntnissen und gemeinsames Lernen
-
Dieses Wissen kann zwischen KI-Agenten und menschlichen Experten ausgetauscht werden, indem sie ihre Erkenntnisse reflektieren und so Co-Learning und Co-Wissen zwischen Menschen und KI-Agenten fördern. So können zum Beispiel mehrere KI-Agenten zusammenarbeiten, um Muster zu erkennen, neue Behandlungsstrategien zu entwickeln und die Patientenversorgung in großem Maßstab zu verbessern.
-
Der KI-Agent kann den menschlichen Ärzten Feedback geben und sie darauf hinweisen, wo sie ihre klinische Praxis aktualisieren oder zusätzliche Forschungsanstrengungen unternehmen müssen. Durch diese Art des Dialogs zwischen Mensch und Maschine können wir letztlich die hybride Arbeit zwischen Menschen und Maschinen verbessern.
-
Die reflexive Struktur des agentenbasierten Denkens ermöglicht es KI-Agenten im Gesundheitswesen, aus ihren Erfahrungen zu lernen, ihre Strategien anzupassen und ihre Fähigkeiten zur Diagnose und Behandlung von Patienten kontinuierlich zu verbessern. Durch einen kontinuierlichen Prozess der Reflexion und des kollaborativen Lernens mit menschlichen Experten können KI-Agenten die menschliche Pflege ergänzen und die Qualität, Effizienz und Effektivität der Gesundheitsversorgung verbessern. Es ist wichtig, dass der Reflexionsprozess von soliden ethischen Grundsätzen geleitet wird und dass die menschliche Aufsicht stets präsent ist, um unvorhergesehene Nachlässigkeiten zu verhindern und die höchsten Pflegestandards zu wahren.
Das Muster für die Nutzung von Werkzeugen in einem agentenbasierten Denkmodell ermöglicht es KI-Agenten, Werkzeuge und externe Ressourcen auf breiter Basis zu nutzen und über maschinelles Lernen, Computer Vision oder NLP hinauszugehen, um ihren Problemlösungsbereich und ihren Entscheidungsfindungsprozess zu erweitern, indem sie sich externe Ressourcen und Wissenskapazitäten zunutze machen. In der Medizin können KI-Systeme durch die Nutzung von Werkzeugen medizinische Ressourcen "ausleihen", indem sie bestehende medizinische Werkzeuge, Datenbanken, Dienste und alle anderen externen Inputs, wie z. B. medizinische Fachkräfte wie Krankenschwestern, Ärzte, Pfleger und andere, einbeziehen. Diese Inputs können eine prinzipiengeleitete und menschenzentrierte Patientenversorgung ermöglichen, die auf aktuellem klinischen Wissen und professionellen Entscheidungen basiert, anstatt KI-Systeme auf eine "Black Box" der Entscheidungsfindung zu beschränken, die sich ausschließlich auf maschinelle Lernbeispiele stützt. Schauen wir uns die Präzisionsmedizin an und veranschaulichen wir, wie das Muster der Werkzeugnutzung angewendet werden kann.
Ein KI-Agent im Gesundheitswesen unterstützt Ärzte bei der Entwicklung individueller Behandlungspläne für ihre Krebspatienten. Zu diesem Zweck analysiert der Agent die Patientendaten und findet optimale Behandlungsoptionen, die der Patient befolgen kann, und überwacht den Behandlungsfortschritt. Um seine Behandlungsempfehlungen weiter zu verbessern, nutzt der Agent das Tool Use Pattern, um auf externe Ressourcen und Dienste zuzugreifen und diese zu kombinieren.
- Genomische Analyse-Tools
-
Ein KI-Agent nutzt den Werkzeugkasten der Genomanalyse, um die genetischen Informationen des Patienten zu sammeln und auszuwerten. Anhand von Datenbanken mit genomischen Varianten und ihren bekannten klinischen Auswirkungen kann er potenzielle genetische Risikofaktoren identifizieren, wahrscheinliche Reaktionen auf Medikamente vorschlagen und eine gezielte Therapie auf der Grundlage des individuellen Molekularprofils des Patienten verschreiben.
- Medizinische Bildgebungsdienste
-
Die medizinischen Bildgebungsdienste (z. B. Computer Vision APIs), auf die sich der KI-Agent stützt, analysieren die Aufnahmen der Patienten (MRT-, CT- oder PET-Scans), um das Vorhandensein und die Form von Tumoren sowie die Auswirkungen der Behandlung und den Krankheitsverlauf zu erkennen und zu beschreiben. Diese Informationen fließen zusammen mit Erkenntnissen aus anderen Patientendaten in die Gesamtbewertung des Zustands des Patienten durch den KI-Agenten ein.
- Elektronische Gesundheitsdaten (EHR)
-
Die Nutzung von EHR-Systemen für den Zugriff auf frühere Diagnosen, Behandlungen und Ergebnisse von Patienten hilft dem KI-Agenten, einen genaueren Ansatz für die eigentliche Behandlung zu entwickeln. So kann er z. B. nicht nur die EPA eines bestimmten Patienten, sondern auch die EPA anderer Patienten konsultieren, um sich einen umfassenderen Überblick über den Gesundheitszustand des Patienten zu verschaffen und möglicherweise Risikofaktoren oder Komorbiditäten zu erkennen, die sich auf die Wahl des Behandlungsplans auswirken können. Mit dem Zugriff auf Daten aus einem integrierten System von elektronischen Patientenakten und anderen Krankenhäusern kann der KI-Agent einen individuelleren Pflegeplan und entsprechende Entscheidungen erstellen.
- Datenbanken für klinische Studien
-
Der KI-Agent sucht in den Datenbanken für klinische Studien nach Studien, die für die Erkrankung des Patienten relevant sind, und prüft dann die Zulassungskriterien für die Studien, die Daten zur Behandlung der Teilnehmer und die Daten zu den Behandlungsergebnissen. Auf diese Weise kann der KI-Agent eine Empfehlung aussprechen, an welchen Studien ein Patient teilnehmen könnte, oder Studiendaten für seine Behandlungsempfehlungen nutzen.
- Medikamenten-Interaktions-Checker
-
Der KI-Agent nutzt Medikamenten-Interaktions-Checker, um vorgeschlagene Krebsbehandlungen auf mögliche Wechselwirkungen mit den aktuellen Medikamenten des Patienten zu prüfen. Basierend auf den Ergebnissen empfiehlt er dann alternative Medikamente oder Dosierungsänderungen, um unerwünschte Arzneimittelwirkungen oder Kontraindikationen zu minimieren und gleichzeitig die Wirksamkeit zu maximieren.
Mithilfe dieser Tools und Dienste kann der KI-Agent Ärzten einen integrierten Ansatz für Präzisionsmedizin bieten, indem er relevante Daten aus verschiedenen Quellen zusammenstellt und personalisierte Behandlungsempfehlungen anbietet, die anhand von Wissensgraphen und probabilistischen Auswertungen überprüft werden. Dieser Ansatz ist machbar, weil der Agent in der Lage ist, Zeitschriften zu durchsuchen, medizinische Texte zu finden, Bilder herunterzuladen und unterschiedliche Daten auf probabilistische Weise zu integrieren. Er kann die Krankengeschichte des Patienten, genetische Daten und Daten aus der Bildgebung nutzen, um geeignete Therapien vorzuschlagen, einschließlich potenzieller Verschreibungen, die auf weniger bekannten Arzneimittelwechselwirkungen basieren.
Da der KI-Agent einen Teil der Entscheidungen über neue Forschungsdaten, klinische Richtlinien und neue oder unerprobte Behandlungsmethoden trifft, aktualisiert sich das Nutzungsprofil des Agenten weitgehend selbst und passt sich den sich entwickelnden Entdeckungsmustern bei menschlichen Krebserkrankungen an. Der Agent nutzt also das beste und aktuellste verfügbare Wissen.
In dem Maße, in dem sich der Bereich des agentenbasierten Denkens im Gesundheitswesen weiterentwickelt, wird dieses Anwendungsmuster eine wichtige Rolle bei der Entwicklung von KI-Systemen spielen, die große Mengen unterschiedlicher medizinischer Daten erfassen, kombinieren und verarbeiten können, die in der Präzisionsmedizin benötigt werden, um eine bessere Patientenversorgung zu gewährleisten - vorausgesetzt, die extern genutzten Dienste zur Erzielung dieser Ergebnisse respektieren robuste Datenschutz-, Sicherheits- und ethische Regeln, um die Privatsphäre der Patienten und die Integrität des Gesundheitssystems zu wahren.
Das Planungsmuster im agentenbasierten Denken ist entscheidend dafür, dass KI-Agenten in der Lage sind, übergeordnete Pläne zu erstellen, um ihre Ziele zu erreichen und Prozesse zu optimieren. Im Gesundheitswesen könnte ein planungsfähiges KI-System einen detaillierten Patientenfall durchgehen, mögliche Ergebnisse vorhersehen und den besten Behandlungsplan festlegen, bevor es ihn erstellt - unter Berücksichtigung einer Vielzahl von Faktoren und Parametern. Nehmen wir zum Beispiel das Szenario eines KI-Agenten, der Ärzten bei der Behandlung von Patienten mit chronischen Krankheiten wie Diabetes, Bluthochdruck oder Herz-Kreislauf-Erkrankungen helfen soll. In diesem Fall nutzt der Agent das agenturgestützte Denken, um die Ergebnisse einer körperlichen Untersuchung zu analysieren, die auftretenden Symptome zu ordnen, Faktoren zu identifizieren, die den Patienten einem Risiko für schlechtere Gesundheitsergebnisse aussetzen, und dann strategische und adaptive Empfehlungen für langfristige Gesundheitsergebnisse zu erstellen.
- Zielsetzung und Problemzerlegung
-
Der KI-Agent beginnt mit dem abstrakten Ziel, die Gesundheitsergebnisse und die Lebensqualität des Patienten zu optimieren, und zerlegt es in kleinere, spezifischere Teilziele: den Blutzuckerspiegel des Patienten in einem optimalen Bereich halten, den Blutdruck auf ein sicheres Niveau senken, das Risiko einer Amputation oder von Nierenkomplikationen minimieren und so weiter. Indem er das Gesamtproblem in verschiedene Teilprobleme zerlegt, kann der Agent Maßnahmen formulieren und verfolgen, die auf jeden einzelnen Aspekt des Zustands des Patienten abgestimmt sind.
- Datenanalyse und Lagebeurteilung
-
Dann versucht der KI-Agent, die gesamte medizinische Situation des Patienten entsprechend seinem Kontext zu spiegeln. Er berücksichtigt die Krankengeschichte, den aktuellen Gesundheitszustand und die Umgebung des Patienten sowie seinen Lebensstil und alle erkennbaren Eigenheiten. Dazu gehört auch die Möglichkeit, Daten aus der elektronischen Patientenakte, von Wearables und von Patienten gemeldeten Ergebnissen zu integrieren.
- Planerstellung und -bewertung
-
Auf der Grundlage dieser Situationseinschätzung erstellt der KI-Agent verschiedene mögliche Behandlungspläne, die die definierten Teilziele berücksichtigen. Dazu könnte zum Beispiel eine Kombination aus Medikamentenanpassungen, Änderungen des Lebensstils und Überweisungen an Spezialisten gehören. Der Agent bewertet jeden Plan, indem er die prognostizierte Wirksamkeit und die Nebenwirkungen, die Präferenzen und die Akzeptanz des Patienten, die verfügbaren Ressourcen usw. berücksichtigt und dabei bekannte Daten und wahrscheinlichkeitstheoretische Vorhersagen verwendet, bevor er entscheidet, welche Vorgehensweise er empfiehlt.
- Planauswahl und Anpassung
-
Der KI-Agent würde den Behandlungsplan mit dem seiner Meinung nach besten Nutzen auswählen und dabei die Vorteile gegen die Risiken der Behandlung abwägen. Dann würde er den ausgewählten Plan mit einer Begründung an den Arzt und den Patienten weitergeben, vielleicht auch mit Anweisungen oder Unterstützung bei der Umsetzung der Empfehlungen.
-
Während der Arzt den Behandlungsplan entwirft, überwacht die KI, wie sich der Plan entfaltet und prüft die Ergebnisse. Wenn sich der Zustand des Patienten nicht wie vorhergesagt entwickelt, passt der Agent den Plan an. Die Behandlung reagiert auf neue Informationen, wie z. B. die Änderung der Medikamentendosierung oder die Einführung anderer Maßnahmen oder Lebensstilempfehlungen.
- Kontinuierliche Überwachung und Verfeinerung
-
Der KI-Agent meldet sich später wieder bei der Patientin, um zu sehen, wie es ihr ergangen ist und ob der Behandlungsplan hilfreich ist oder angepasst werden muss. Er hält auch nach Risiken und unerwünschten Nebenwirkungen Ausschau. Wenn er Muster in den Daten der Patientin erkennt und sie mit dem Verlauf ähnlicher Fälle vergleicht, kann der Agent seine Planungsstrategien ändern, um sich besser vor aufkommenden Gesundheitsproblemen zu schützen.
-
Diese Planungsstruktur des agentenbasierten Denkens kann KI-Agenten im Gesundheitswesen dabei helfen, dynamische Strategien für das Pflegemanagement bei chronischen Erkrankungen zu entwickeln. Der KI-Agent zerlegt die komplexen Gesundheitsprobleme in sinnvolle Teilziele, führt Mustervervollständigungsverfahren unter Verwendung verfügbarer Patientendaten durch, entwirft Fütterungs- und Eliminierungsoptionen, erstellt eine Analyse der zu erwartenden Konsequenzen und überwacht und passt seine Strategie selbst an. Auf diese Weise kann der KI-Agent den Arzt bei der Bereitstellung einer personalisierten, evidenzbasierten Versorgung unterstützen, indem er kurzfristige Kosten gegen langfristige gesundheitliche Vorteile abwägt.
-
Es ist unwahrscheinlich, dass das Planungsmuster das einzige Muster sein wird, das wir brauchen, wenn wir auf dem spannenden Gebiet des agentenbasierten Denkens im Gesundheitswesen vorankommen. Aber es wird bei der Entwicklung von KI-Systemen zur Unterstützung von Ärzten bei der Behandlung chronischer Krankheiten, die einen großen Teil der Patientenpopulation ausmachen, unerlässlich sein und sie auf dem Weg zu einer gerechten Gesundheitsversorgung unterstützen. Wir müssen den Planungsprozess mit ethischen Grundsätzen, bewährten Methoden und patientenzentrierten Werten steuern, um den Einzelnen vor unsicheren, unwirksamen und inakzeptablen Behandlungsplänen zu schützen, die entstehen können, wenn die Zahl der Fälle im Gesundheitswesen immer weiter ansteigt und die Ärzte immer mehr alltägliche Aufgaben übernehmen müssen.
Das Multiagentenkollaborationsmuster ist das Mittel, mit dem die Agentenarchitektur die kollaborative Arbeit verschiedener Agenten, unabhängig davon, ob ihnen Handlungsfähigkeit zugestanden wird oder nicht, über verschiedene Ebenen der agenturischen Ontologie realisiert. Die kollektive Ereigniserkennung erfordert, dass zwei oder mehr Agenten ein Ereignis wahrnehmen und bewerten. Im Gesundheitswesen kommt das Muster der Multiagenten-Kollaboration zum Tragen, wenn zwei oder mehr intelligente Agenten - die man sich als KI-Systeme und unabhängige Fachkräfte des Gesundheitswesens vorstellen kann - ihre Arbeit koordinieren, Wissen über ihren Zustand oder ihre Wahrnehmung austauschen und Entscheidungen und Handlungen auf der Grundlage gemeinsamer Ziele oder Teilziele treffen.
Stell dir einen Patienten vor, der an allen möglichen Langzeitkrankheiten leidet - Diabetes, Bluthochdruck, Herz-Kreislauf-Erkrankungen usw. - und von einer Vielzahl von Gesundheitsexperten beraten, überwacht und behandelt werden muss (z. B. von einem multidisziplinären Team aus Ärzten, Krankenschwestern, Ernährungsberatern, Sozialarbeitern und Psychologen). In einer solchen Situation können verschiedene KI-Agenten eingesetzt werden, um die Mitglieder des Gesundheitsteams zu unterstützen, z. B. bei der Optimierung der Medikamentenwahl, der Lebensstilberatung, der Koordination der Pflege usw. Diese KI-Agenten nutzen agentenbasiertes Denken und das Muster der Multi-Agenten-Kollaboration, um ihre Fähigkeiten und ihr Arbeitsgedächtnis zu bündeln und so eine zielgerichtete, gut informierte und koordinierte Versorgung zu gewährleisten.
- Gemeinsame Ziele und Problemverständnis
-
Der KI-Agent und der menschliche Experte definieren gemeinsam den Gesundheitszustand des Patienten, seine Behandlungsziele und mögliche Hindernisse. Schließlich erstellen sie gemeinsam einen personalisierten Pflegeplan, bei dem die jeweiligen Stärken des Menschen und des Algorithmus dazu beitragen, die bestmögliche Behandlung für die medizinischen, psychologischen und sozialen Bedürfnisse des Patienten zu finden.
- Aufgabenverteilung und Koordination
-
Die KI-Agenten teilen sich einen Teil der Arbeit auf die ihnen zugewiesenen Aufgaben auf. Der Agent für die Medikamentenoptimierung kann die Rezepte des Patienten auf Wechselwirkungen mit anderen Medikamenten überprüfen und Vorschläge zur Optimierung der Wirksamkeit und Sicherheit machen. Der Agent für die Lebensstilberatung kann Empfehlungen zu Ernährung, Bewegung und Stressbewältigung aussprechen, um die Selbstfürsorge des Patienten zu ergänzen.
-
Der Pflegekoordinator steht im Zentrum, sammelt Informationen von den unzähligen Pflegeagenten und verbindet jeden von ihnen mit den spezifischen Informationen, die sie benötigen. Der Pflegekoordinator sorgt auch dafür, dass die anderen Agenten und menschlichen Experten über den aktuellen Status des Patienten, Statusänderungen und Änderungen des Pflegeplans informiert sind.
- Weitergabe von Informationen und Wissensaustausch
-
Die KI-Agenten und menschlichen Experten tauschen ständig Informationen und Erkenntnisse aus, die die gemeinsame Entscheidungsfindung und Problemlösung unterstützen. Sie übermitteln Patientendaten, Behandlungsempfehlungen und klinische Erkenntnisse über verschlüsselte Kanäle und standardisierte Datenformate, sodass jeder Agent und Experte auf das kollektive Wissen der gesamten Gruppe zurückgreifen und seine Strategien entsprechend aktualisieren kann. Wenn der Agent für die Medikamentenoptimierung beispielsweise ein potenzielles unerwünschtes Arzneimittelereignis feststellt, informiert er den Agenten für die Pflegekoordination, der wiederum menschliche Experten, aber auch andere KI-Agenten benachrichtigt. Das Team bewertet, was passiert ist, und erstellt einen Bericht über das Ereignis. Sie überlegen, ob sie ein unerwünschtes Medikament entfernen und durch eine andere Option ersetzen sollen. Wenn ja, aktualisieren sie den Pflegeplan.
- Konfliktlösung und Konsensbildung
-
Wenn es zwischen den KI-Agenten oder den Menschen widersprüchliche Empfehlungen oder Meinungen gibt, ermöglicht das Multiagenten-Kollaborationsmuster ihnen, Argumente und Dialoge zu führen, über Kompromisse zu verhandeln und mit Hilfe von Argumentations-, Abstimmungs- oder multikriteriellen Entscheidungsanalysemethoden einen Konsens zu erzielen. Dieses Kooperationsmuster stellt sicher, dass die vereinbarte Entscheidung "im besten Interesse des Patienten" ist.
- Kontinuierliches Lernen und Anpassung
-
Wenn sich der Zustand des Patienten ändert und neue Daten zur Verfügung stehen, lernen die KI-Agenten und die menschlichen Experten neue Strategien für den Pflegekoordinationsprozess und tauschen sozusagen Tipps aus, um ihre Strategien effektiver und effizienter zu machen. Die verschiedenen Agenten interagieren, um aus den Erfolgen und Misserfolgen der anderen zu lernen und angesichts neuer Herausforderungen im Laufe der Zeit neue Ansätze zu entwickeln.
Dieses Multiagenten-Kollaborationsmuster aus dem agentenbasierten Denken ermöglicht es KI-Agenten und menschlichen Experten im Gesundheitswesen, koordiniert zusammenzuarbeiten, um Patienten mit komplexen Gesundheitsbedürfnissen ganzheitlich und individuell zu versorgen. Die Festlegung eines gemeinsamen Ziels, die Verteilung von Aufgaben, der Austausch von Wissen, die Lösung von Konflikten sowie das Lernen und Anpassen gehören zu den Komponenten, die dem Team helfen können, die kollektive Intelligenz zu nutzen, um einen größeren Einfluss auf die Optimierung von Patientenergebnissen und die Verbesserung der Qualität und Effizienz der Pflege zu haben.
Da die Entwicklung des agentenbasierten Denkens im Gesundheitswesen erst am Anfang steht, wird das Muster der Multiagenten-Kollaboration bei der Entwicklung von KI-Systemen, die mit ihren menschlichen Kollegen zusammenarbeiten und sogar von ihnen "lernen" können, noch wichtiger werden, um die immer vielfältigeren und vernetzten Gesundheitslandschaften zu verkomplizieren. Außerdem werden ethische, berufsständische und behördliche Kontrollen notwendig sein, um die Sicherheit, die Privatsphäre und das Vertrauen von Patienten und Ärzten zu wahren.
Herausforderungen und zukünftige Richtungen
Diese vier verschiedenen Muster des agentenbasierten Denkens bieten die Möglichkeit, KI in vielen Bereichen auf das Niveau menschlicher Intelligenz zu bringen. Natürlich stehen wir vor großen Herausforderungen, wenn es darum geht, sicherzustellen, dass agenturische KI-Agenten auf eine sichere, ethisch vertretbare und abgestimmte Weise mit Menschen interagieren. Dazu gehört zum Beispiel die Entwicklung von robusten Rahmenwerken für den Werteabgleich sowie von Mechanismen, um solche Agenten zur Rechenschaft zu ziehen und Fairness in ihrem Handeln zu gewährleisten.
Eine zweite Herausforderung besteht darin, die vier agentenorientierten Denkmuster in einheitliche, flexible und skalierbare KI-Architekturen einzubetten. Dies könnte Fortschritte beim Transferlernen, beim Multitasking und beim offenen Lernen erfordern, damit KI-Agenten das Wissen aus einer Aufgabe oder Situation lernen können, um eine andere zu lösen.
Agentische Reasoning-Technologien werden auf lange Sicht wahrscheinlich erhebliche Fortschritte machen. Das Interessante an diesem Forschungsbereich ist, dass es noch nicht so viele Arbeiten gibt, die von Forschern verfolgt werden können. Aber es ist durchaus vorstellbar, dass wir im Laufe der Zeit KI-Systeme sehen werden, die mit immer komplexeren Formen des Denkens und der Zusammenarbeit reflektieren und vielleicht auch planen und lernen können. Solche Fortschritte könnten viele Bereiche verändern, vom Gesundheits- und Bildungswesen über das Transportwesen bis hin zur Produktion und darüber hinaus.
Nutzungskontext bei der Verwendung von LLMs
Vorhersehbare Anwendungsfälle verstehen von LLM-Apps erkennt die zentrale Bedeutung des "Nutzungskontexts" an.22 ein von Margaret Mitchell geprägter Begriff, bei der Entwicklung von LLM-Apps für das Gesundheitswesen. Vielleicht liegt Mitchells Denkweise in der langjährigen Praxis der Softwareentwicklung begründet, die den Menschen in den Mittelpunkt stellt. Da die Eingabeaufforderungen für LLM-Apps im Gesundheitswesen so offen sind, bieten sie interessante Anwendungsfälle für die Verbesserung der Gesundheitssysteme weltweit, stellen aber auch eine Herausforderung dar, wenn es darum geht, die Interaktionen der Nutzer vorherzusagen.
Im Gegensatz zu physischen Objekten, für die es nur eine begrenzte Anzahl von Verwendungszwecken gibt, sind die meisten Software-Apps in ihren Interaktionen so offen, dass wir nicht vollständig vorhersagen können, wie die Endnutzer sie letztendlich verwenden werden. Ein Stuhl kann für eine begrenzte Anzahl von Anwendungen genutzt werden (z. B. zum Sitzen), aber eine App ist unbegrenzt einsetzbar. Ein maschinelles Lernmodell kann entwickelt werden, um chronische Krankheiten vorherzusagen. Ein Krankheitsmodell kann entwickelt werden, um eine bestimmte Krankheit vorherzusagen, z. B. Herzkrankheiten oder Fettleibigkeit. Ein anderer Nutzer oder eine andere Organisation kann ein bestimmtes maschinelles Lernmodell verwenden, um die Kosten für die Gewährung von Krankenversicherungsschutz zu ermitteln, während ein anderer Nutzer dasselbe maschinelle Lernmodell verwenden kann, um den Krankenversicherungsschutz zu verweigern.
Die Flexibilität von Software bedeutet, dass die Nutzer/innen sie an ihre Aufgaben anpassen können, indem sie eine Anwendung so nutzen, dass sie am besten zu ihren jeweiligen Bedürfnissen, Arbeitsabläufen und Nutzer/innen passt. Diese Produktivitäts-App könnte für die Aufgabenverwaltung entwickelt worden sein, sie könnte aber auch als Tool für die Zusammenarbeit in Projekten genutzt werden. Die Offenheit von Software - die durch die ihr innewohnende Flexibilität ermöglicht wird - bedeutet, dass die Organisationen oder Unternehmen, die diese Software herstellen, auch für die ultimative Herausforderung der menschlichen Ausbeutung bereit sein müssen. In Bezug auf den LLM-Chatbot bedeutet die Flexibilität der natürlichsprachlichen Interaktion, dass die Eingabeaufforderung in Bezug auf den Kontext und die möglichen Ergebnisse nur schwer vorherzusehen oder einzuschränken ist. Die Nutzer/innen könnten Fragen stellen (oder Bitten äußern), die nicht im Rahmen des Chatbots vorgesehen sind. Es ist möglich, dass Nutzer/innen versuchen, die Antworten des Chatbots so zu manipulieren, dass sie zu schädlichen oder unangemessenen Ergebnissen führen.
Zum Beispiel könnte jemand, der nach einer Diagnose sucht, einen Wellness-Chatbot fragen, der für allgemeine gesundheitsbezogene Diskussionen entwickelt wurde, was zu falschen oder unsicheren Annahmen führen könnte. Selbst der unbeschwerteste Chatbot läuft Gefahr, mit einer feindseligen oder beleidigenden Interaktion eines Kundendienst-Bots zusammenzustoßen, der zu Unrecht für seine Fehler kritisiert wird.
Um diese Risiken zu minimieren, müssen die Entwickler von LLM-Chatbots Sicherheitsschichten, Ethikkodizes und Tools zur Inhaltsmoderation einbauen. Ein Beispiel dafür ist der Einsatz von kontradiktorischen Tests, bei denen ein System absichtlich den unterschiedlichsten Eingaben von Nutzern ausgesetzt wird, um Lücken im Training und in der Spezifikation der Repräsentativität zu erkennen. So kann sichergestellt werden, dass beispielsweise die Aufforderung an den Bot, nicht unhöflich zu sein, nicht dazu führt, dass er rassistische Kommentare abgibt. Unabhängig von der gewählten Strategie müssen die Entwickler sicherstellen, dass die Grenzen und Erwartungen an die Unmöglichkeiten klar festgelegt und den Nutzern mitgeteilt werden, um das Risiko zu verringern, dass ein Nutzer versucht, den Bot zu zwingen, das Unmögliche zu tun.
Zweitens: Wie bereits erwähnt, sollten Chatbots, die von LLMs angetrieben werden, ständig überwacht und verbessert werden, um sicherzustellen, dass sie weiterhin wie gewünscht funktionieren. Die Entwickler sollten diesen Prozess unterstützen, indem sie aktiv das Feedback der Nutzer/innen zu ihren täglichen Erfahrungen mit ihren Chatbots einholen. Die Entwickler sollten auch Muster in den Interaktionen untersuchen. Sie sollten die Eingaben und Rückmeldungen einer weiteren Analyse unterziehen und die Wissensdatenbanken und Antwortsysteme entsprechend aktualisieren, um die Leistung der Chatbots unter den neuen, von den Nutzern geschaffenen Bedingungen zu optimieren.
Zusammenfassend lässt sich sagen, dass der offene Charakter von Softwareanwendungen, einschließlich LLM-gesteuerter Chatbots, Möglichkeiten und Schutzmechanismen für die Antizipation, Planung und Bewältigung von Nutzerinteraktionen bieten kann. Die Offenheit eines LLM-gesteuerten Chatbots ermöglicht es den Entwicklern, neue Nutzungsmöglichkeiten vorzusehen, die für die Nutzer von Vorteil sind. Die Offenheit eines LLM-gesteuerten Chatbots kann aber auch zu unvorhergesehenen und schädlichen Nutzungen führen. Durch die Einführung von Sicherheitsvorkehrungen, moralischen Leitfäden und kontinuierlicher Überwachung und Verbesserung können die Entwickler/innen die Erfahrungen der Nutzer/innen bei der Nutzung von LLM-gesteuerten Chatbots verbessern.
Ob es darum geht, politisch voreingenommene Suchergebnisse zu überprüfen oder sprachliche Anzeichen von Demenz zu erkennen, der Wert der Anwendung von Kontext in LLM-Apps liegt auf der Hand. Wenn wir bei der Entwicklung von LLM-Apps den Kontext berücksichtigen, können wir Gesundheitstools entwickeln, die robuster und ethisch vertretbar sind und den Patienten nützen. LLM-Apps sollten Folgendes leisten:
-
Fördern Sie den verantwortungsvollen Umgang mit der KI, indem Sie klare Schnittstellen, Aufklärungsmaterial für Kliniker und Transparenz über die Grenzen der KI bereitstellen.
-
Schutzmaßnahmen gegen identifizierte Missbrauchsszenarien durchsetzen (z. B. Sicherheitskontrollen für Daten, Präventivmaßnahmen, um das Stapeln gegen verzerrte Ausgaben zu verhindern).
-
Die KI kann sich selbst verbessern, wenn sie in neuen Kontexten eingesetzt wird. Anpassungen können durch die Überwachung der KI in der Welt (soweit möglich) und die Anpassung des Modells an auftretende Probleme erfolgen.
Verbraucher und Wirtschaft LLMs
Heute gibt es Apps und Anwendungen grundsätzlich in zwei Gruppen unterteilt: Verbraucher und Unternehmen. Sie dienen unterschiedlichen Zwecken und richten sich an unterschiedliche Nutzer. Business-Apps oder -Anwendungen sind in der Regel für die Mitarbeiter eines Unternehmens gedacht. Es gibt aber auch Unternehmen, die Apps für ihre Kunden entwickeln, damit diese Zugang zu Gesundheitsplänen haben, sich über Leistungen informieren, Termine vereinbaren und vieles mehr. Die wohl bekanntesten Beispiele für Verbraucher-Apps stammen aus den Bereichen soziale Medien, Unterhaltung, Produktivität, Spiele und Handel, um nur einige zu nennen.
Im Gesundheitswesen gibt es medizinische Apps, die die persönliche Gesundheit erleichtern sollen. Apps zur Planung von Hausbesuchen beim Arzt (z. B. ZocDoc), Therapie-Apps (z. B. Talkspace), Telemedizin-Apps (z. B. Doctor on Demand), Gesundheits-Apps für Frauen wie Maven und mehr. Wir gehen davon aus, dass im Laufe der Zeit weitere LLM-basierte Gesundheits-Apps entstehen werden, die viele der in den Kapiteln 3, 4 und 5 beschriebenen Anwendungsfälle abdecken.
Verbraucher-LLMs und generative KI
In diesem Buch wird eine Schlüsselhypothese untersucht: der Aufstieg verbraucherorientierter Anwendungen, die von LLMs betrieben werden, wird das Gesundheitswesen erheblich verändern. Diese Anwendungen, die die Fähigkeiten von LLMs nutzen, um Informationen zusammenzufassen und Inhalte zu generieren, werden voraussichtlich
-
Verbessere die Beziehung zwischen Arzt und Patient
-
den Menschen helfen, ihre chronischen Krankheiten und ihre allgemeine Gesundheit besser zu bewältigen
-
Am wichtigsten ist es, den Ausbruch chronischer Krankheiten zu verzögern oder zu verhindern.
Indem sie die Fähigkeiten der LLMs nutzen, haben diese Verbraucheranwendungen das Potenzial, das persönliche Gesundheitsmanagement und die Gesundheitsvorsorge zu revolutionieren.
Verbraucher-LLMs sind für einzelne Nutzer/innen konzipiert und bieten verschiedene Anwendungen und Funktionen, die auf persönliche Bedürfnisse und Interessen zugeschnitten sind. Zu diesen LLMs gehören Modelle wie Chatbots, virtuelle Assistenten und Inhaltsgeneratoren. Hier sind einige wichtige Merkmale von LLMs für Verbraucher:
- Konversationsassistenten
-
Verbraucher-LLMs wie virtuelle Assistenten (z. B. Siri, Google Assistant) werden entwickelt, um Nutzer/innen beim Einstellen von Erinnerungen, Beantworten von Fragen zum Allgemeinwissen, Versenden von Nachrichten und Abspielen von Musik zu unterstützen. Sie sind für den täglichen Gebrauch gedacht.
- Engagement und Unterhaltung
-
LLMs für Verbraucher sind oft so konzipiert, dass sie interaktive Erlebnisse bieten - wie z.B. KI-Assistenten, Chatbots oder Werkzeuge zum kreativen Schreiben - die darauf abzielen, die Nutzer zu engagieren und zu unterhalten.
- Generierung von Inhalten
-
Einige Verbraucher-LLMs können Texte generieren, was bei Aufgaben wie dem Verfassen von E-Mails, dem Schreiben kreativer Inhalte oder sogar bei der Programmierung hilfreich sein kann. Diese Modelle konzentrieren sich darauf, die persönliche Produktivität und Kreativität zu steigern.
- Personalisierung
-
LLMs für Verbraucher legen oft den Schwerpunkt auf Personalisierung, indem sie aus den Interaktionen der Nutzer lernen, um maßgeschneiderte Empfehlungen, Inhalte und Antworten zu liefern.
- Persönlicher Assistent
-
Sie können bei der Beantwortung von Fragen zum Gesundheitswesen helfen, Empfehlungen aussprechen, E-Mails oder Dokumente verfassen, Termine mit Ärzten vereinbaren und bei verschiedenen individuellen Produktivitätsaufgaben helfen.
- Zugänglichkeit
-
Diese Modelle werden oft mit benutzerfreundlichen Schnittstellen eingesetzt, die für eine breite Palette von Nutzern zugänglich sind, und sind oft auf mobilen Geräten und PCs verfügbar.
Business LLMs und generative KI
Unternehmen und Organisationen entwerfen ihre Business-LLMs und generative KI, sowohl für Mitarbeiter als auch für Kunden, um Aufgaben zu automatisieren, Daten zu interpretieren und Dinge wie Texte, Bilder und Videos zu generieren. Business-LLMs sind für den Einsatz in Organisationen und Unternehmen konzipiert und weisen folgende Merkmale auf:
- Datenintegration
-
Business LLMs sind so konzipiert, dass sie sich direkt in die Datenquellen deiner Organisation integrieren lassen (z. B. elektronische Patientenakten oder andere Datenbanken für Kliniken, Ansprüche, Apotheken oder Anspruchsberechtigungen). Unter Verwendung all dieser Daten aus dem Gesundheitssektor können sie dir Einblicke und Berichte liefern. LLMs ermöglichen die Analyse großer Mengen von Geschäftsdaten. Ein LLM kann zum Beispiel schnell die komplexen und sich ständig ändernden Kriterien für die Vorabgenehmigung auswerten, die von Kostenträgern und Versicherungsgesellschaften verwendet werden.
- Business LLMs speziell für bestimmte Branchen
-
Die branchenspezifischen LLMs wurden für eine bestimmte Branche entwickelt, z.B. für das Gesundheitswesen, und können bei Aufgaben helfen, die von der Diagnose einer Krankheit bis zur Bearbeitung von Ansprüchen oder klinischen Entscheidungen reichen.
- Kollaboration
-
Diese LLMs verfügen oft über Funktionen für gemeinsame Teamarbeitsbereiche, die gemeinsame Nutzung von Dokumenten und die Automatisierung von Arbeitsabläufen, um die Produktivität des Unternehmens zu steigern .
- Wissensmanagement
-
Business LLMs können Unternehmen dabei helfen, Wissen zu sammeln und zu teilen, indem sie Wissensdatenbanken aufbauen, Daten zusammenfassen und kontextbezogene Vorschläge machen.
- Kundendienst und Unterstützung
-
Vom Rohstoffhandel bis zum Kauf von Konzertkarten können LLMs KI-Assistenten und Chatbots antreiben, um Kunden zu unterstützen und Fragen zu beantworten.
- Service-Garantien
-
LLMs auf Unternehmensebene beinhalten Service-Level-Vereinbarungen und einen engagierten Kundendienst, was sie für den Geschäftsbetrieb zuverlässig macht.
Zusammenfassend lässt sich sagen, dass der Hauptunterschied zwischen LLM-Tools für Privatpersonen und für Unternehmen folgender ist: LLMs für Privatpersonen sind hauptsächlich auf persönlichen Komfort und persönliche Produktivität ausgerichtet, während LLMs für Unternehmen für branchenspezifische Anwendungsfälle entwickelt werden - mit benutzerdefinierter Datenintegration und unternehmensgerechter Unterstützung für den Betrieb.
Überwindung der Kluft
Diese Unterscheidung zwischen Verbraucher- und Unternehmens-LLMs/generativer KI ist tatsächlich wichtig, weil sie die Nutzung und das Publikum beeinflusst. Es ist aus mehreren Gründen wichtig, zwischen LLMs für Unternehmen und für Verbraucher zu unterscheiden:
-
Zweck und Ziele
-
Datenschulung
-
Regulatorische Landschaft
-
Ethik und Voreingenommenheit
Absichten und Ziele
Business LLMs sind darauf ausgerichtet, ein bestimmtes Geschäftsproblem zu lösen oder Geschäftsprozesse zu verbessern. Sie reichen von der Automatisierung der Interaktion zwischen einem Mitglied einer Krankenkasse und einem Kundendienstmitarbeiter bis hin zur Gewinnung von Erkenntnissen aus Daten, die den Unternehmen bereits vorliegen.
Verbraucher-LLMs sind für den individuellen Gebrauch und für Bildungszwecke gedacht. Sie bieten Dienste wie Sprachübersetzung und die Beantwortung von Konversationsfragen. Wichtig ist, dass sie auf individuelle Vorlieben und Bedürfnisse zugeschnitten werden können, indem sie personalisierte Antworten auf der Grundlage früherer Interaktionen, erklärter Interessen oder spezifischer Anforderungen des Nutzers geben.
Datenschulung
LLMs für Unternehmen werden auf mit bereichsspezifischen Datensätzen trainiert. Auf diese Weise können wir das LLM auf unseren Geschäftsbereich abstimmen, so dass es nicht nur den Inhalt direkt anspricht, sondern auch den Geschäftskontext und den Fachjargon kennt.
Verbraucher-LLMs werden auf großen, allgemeinen Korpora (Text- und Codesammlungen) trainiert, die von verschiedenen öffentlichen Websites stammen. Diese bieten einen allgemeinen Einblick, bergen aber die Gefahr der Verzerrung und des Mangels an Spezialwissen und/oder Fachkenntnissen. Mithilfe des KI-Frameworks RAG werden die Daten auf externe Datenquellen erweitert, genau wie bei einem LLM für Unternehmen.
Regulatorische Landschaft
LLMs für Unternehmen werden durch branchenspezifische Vorschriften (z.B. im Finanzsektor) oder durch Vorschriften zum Schutz von Daten (z.B. im medizinischen Bereich) geregelt.
LLMs für Verbraucher sind an Verbraucherschutzgesetze und -vorschriften zum Datenschutz und zu ethischen AI-Praktiken gebunden. Der HIPAA legt zum Beispiel Beschränkungen für die Nutzung von Gesundheitsdaten durch eine Person oder einen Bevollmächtigten fest, die mit dem Recht der Person auf Zugang zu diesen Daten vereinbar sind.
Ethik und Voreingenommenheit
Business LLMs: Sorgfältige Steuerung und Abschwächung von Voreingenommenheit ist notwendig, um eine diskriminierende oder anderweitig unfaire Behandlung von potenziellen Kunden, Beschäftigten usw. zu vermeiden.
LLMs für Verbraucher: Voreingenommenheit in Verbraucher-LLMs kann zu schädlichen Fehlinformationen, beleidigenden Inhalten oder der Aufrechterhaltung sozialer Ungleichheiten führen. Es ist wichtig, dass die Entwicklung dieser Technologien verantwortungsbewusst erfolgt und dass unbeabsichtigte Verzerrungen kontinuierlich angegangen werden.
Zusammenfassend lässt sich sagen, dass Big Language-Modelle zwar sowohl von Unternehmen als auch von Verbrauchern genutzt werden, ihre unterschiedlichen, wenn auch potenziell miteinander verbundenen Zwecke und die damit verbundenen Anforderungen an Input, Kontrolle (einschließlich Sicherheit) und ethische Überlegungen uns jedoch dazu zwingen sollten, ihre Entwicklung und Nutzung entsprechend dieser unterschiedlichen Zwecke und Hintergründe anders zu betrachten.
Zusammenfassung
LLMs können eine Welt voller Möglichkeiten eröffnen, die früher nur in der Science-Fiction zu finden war. In diesem Kapitel wurde das Potenzial dieser fortschrittlichen Sprachmodelle erforscht und eine Reihe von futuristischen Versprechen und Anwendungen vorgestellt (von denen zwei - das medizinische Schweizer Taschenmesser für Verbraucher und der medizinische Sherpa für Kliniker - auf einem LLM basieren). Sprachmodelle (LLMs) - Maschinen, die die menschliche Sprache mit bemerkenswerter Gewandtheit und Flexibilität lesen, schreiben und bearbeiten können - läuteten diese neue Ära ein. LLMs entwickeln sich rasant weiter, und ihre Fähigkeiten werden immer besser. LLMs versprechen, die Patientenversorgung, die Forschung und das medizinische Wissen in einer Vielzahl von Gesundheitsbereichen zu verändern.
Der größte Unterschied dürfte jedoch sein, welche Art von Nutzern und Anwendungsfällen für eine LLM-gestützte App erwartet werden. LLM-Apps für Verbraucher (wie das Medical Swiss Army Knife) konzentrieren sich auf die Bequemlichkeit der Endnutzer beim Treffen fundierter medizinischer Entscheidungen - von der Verwaltung kleinerer Ereignisse und der Selbstdiagnose bis hin zu breit angelegten Gesundheitsförderungs-, Selbstpflege- und Familienpflege-Apps. LLM-Apps für Unternehmen (wie Medical Sherpa) richten sich an Fachkräfte und Organisationen im Gesundheitswesen, die die ständig wachsende medizinische Literatur durchsuchen, an Kliniker, die Diagnosen stellen, und an Pharmaforscher, die Medikamente entwickeln. Für LLM-Apps für Verbraucher sind Bequemlichkeit und Benutzerfreundlichkeit der Schlüssel zur Attraktivität. Bei LLM-Apps für Unternehmen stehen Fragen wie Datenschutz, Einhaltung von HIPAA und anderen Vorschriften sowie branchenspezifische Funktionen im Vordergrund.
Aber je mehr die Gesellschaft in die LLMs einsteigt, desto mehr werden ihre Lösungen und Versprechungen eine Welt formen, die mit neuen Werkzeugen für Gesundheitskonsumenten und medizinisches Fachpersonal gleichermaßen gefüllt sein wird, und eine nahe Zukunft schaffen, die durch einen besseren Zugang zu Gesundheitsversorgung und medizinischem Wissen geprägt ist.
1 C. M. Kornbluth, "The Little Black Bag", in The Best of C. M. Kornbluth, ed. Frederik Pohl (Garden City, NY: Nelson Doubleday, 1976), 42-69.
2 Matt Marshall, "NY Hospital Execute: Multimodal LLM Assistants Will Create a 'Paradigm Shift' in Patient Care," VentureBeat, March 6, 2024, https://venturebeat.com/ai/ny-hospital-exec-multimodal-llm-assistants-will-create-a-paradigm-shift-in-patient-care.
3 LLMs scheinen die menschliche Sprache zu verstehen, aber sie sind hochentwickelte statistische Modelle. Diese Modelle erkennen Muster, übersetzen zwischen Sprachen, sagen wahrscheinliche Wörter voraus und erzeugen kohärente Texte. Allerdings verstehen sie die Bedeutung nicht so, wie es Menschen tun. Siehe "Risks of Large Language Models (LLM)", IBM Technology, 14. April 2023, YouTube-Video, 8:25, https://www.youtube.com/watch?v=r4kButlDLUc&t=278s.
4 "ChatGPT Experimente: Autoregressive Large Language Models (AR-LLMs) and the Limits of Reasoning as Structured Summarization," The GDELT Project, February 14, 2023, https://blog.gdeltproject.org/chatgpt-experiments-autoregressive-large-language-models-ar-llms-and-the-limits-of-reasoning-as-structured-summarization.
5 Hoifung Poon und Jianfeng Gao, "Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing," Microsoft Research Blog, August 31, 2020, https://www.microsoft.com/en-us/research/blog/domain-specific-language-model-pretraining-for-biomedical-natural-language-processing.
6 PubMed, Zugriff am 20. Juni 2024, https://pubmed.ncbi.nlm.nih.gov.
7 Jinhyuk Lee, et al., "BioBERT: A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining", Bioinformatics 36, no. 4 (Februar 2020): 1234-1240, https://academic.oup.com/bioinformatics/article/36/4/1234/5566506.
8 Iz Beltagy, Kyle Lo, and Arman Cohan, "SciBERT: A Pretrained Language Model for Scientific Text," arXiv, 10. September 2019, https://arxiv.org/abs/1903.10676.
9 Kexin Huang, Jaan Altosaar, und Rajesh Ranganath, "ClinicalBERT: Modeling Clinical Notes and Predicting Hospital Readmission," CHIL '20 Workshop, April 2-4, 2020, Toronto, ON, https://arxiv.org/pdf/1904.05342#:~:text=ClinicalBERT%20is%20an%20application%20of,task%20of%20hospital%20readmission%20prediction.
10 Alistair E. W. Johnson, et al., "MIMIC-III, a Freely Accessible Critical Care Database," Scientific Data 3, no. 160035 (2016), https://www.nature.com/articles/sdata201635.
11 "Med-PaLM", Google Research, Zugriff am 20. Juni 2024, https://sites.research.google/med-palm.
12 Karan Singhal, et al., "Towards Expert-Level Medical Question Answering with Large Language Models," arXiv, May 16, 2023, https://arxiv.org/pdf/2305.09617.
13 Amanda Jane Modaragamage, "Top Wearable Medical Devices Used in Healthcare", Healthnews, January 16, 2024, https://healthnews.com/family-health/healthy-living/wearable-medical-devices-used-in-healthcare.
14 David M. Levine und Ateev Mehrotra, "Assessment of Diagnosis and Triage in Validated Case Vignettes Among Nonphysicians Before and After Internet Search", JAMA Network Open 4, no. 3 (2021): e213287, https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2777835.
15 "What's Next in Store for Conversational AI in Enterprise Apps?" Koru, 11. Juni 2024, https://www.koruux.com/blog/conversational-ai-in-enterprise-apps.
16 Margaret E, Kruk, et al., "Mortality Due to Low-Quality Health Systems in the Universal Health Coverage Era: A Systematic Analysis of Amenable Deaths in 137 Countries," Lancet 392, no. 10160 (November 17, 2018): 2203-2212, https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6238021.
17 "UpToDate: Trusted, Evidence-Based Solutions for Modern Healthcare", Wolters Kluwer, Zugriff am 20. Juni 2024, https://www.wolterskluwer.com/en/solutions/uptodate.
18 Michael Morrison, "Bieten Krankenhäuser, die Forschung betreiben, eine bessere Versorgung für Patienten?" Massachusetts General Hospital, Pressemitteilung, 28. Februar 2022, https://www.massgeneral.org/news/press-release/do-research-hospitals-provide-better-care-for-patients.
19 Kerrie Holley und Siupo Becker, AI-First Healthcare: AI Applications in the Business and Clinical Management of Health (O'Reilly Media, 2021), https://learning.oreilly.com/library/view/ai-first-healthcare/9781492063148.
20 "The Future of AI, According to Former Google CEO Eric Schmidt", Noema Magazine, 21. Mai 2024, YouTube Video, 20:06, https://www.youtube.com/watch?v=DgpYiysQjeI.
21 "What's Next for AI Agentic Workflows ft. Andrew Ng of AI Fund", Sequoia Capital, 26. März 2024, YouTube-Video, 13:39, https://www.youtube.com/watch?v=sal78ACtGTc&t=524s.
22 Margaret Mitchell, "Ethical AI Isn't to Blame for Google's Gemini Debacle", Time, 29. Februar 2024, https://time.com/6836153/ethical-ai-google-gemini-debacle.
Get LLMs und generative KI für das Gesundheitswesen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.