Whitepaper – Optimierung von MedTech-Prozessen mit Generativer KI für Sicherheitsfragebögen
Über das Projekt
theBlue.ai und apoQlar haben sich zusammengeschlossen, um den komplexen und zeitaufwendigen Prozess zur Beantwortung von Sicherheitsfragebögen zu vereinfachen. Diese Fragebögen sind notwendig für Krankenhäuser, die Interesse an den fortschrittlichen medizinischen Lösungen von apoQlar haben, die auf Augmented Reality (AR) und Künstlicher Intelligenz (KI) basieren. Durch den Einsatz von Generativer KI in Kombination mit Retrieval-Augmented Generation (RAG) konnte die Bearbeitungszeit dieser Fragebögen erheblich reduziert werden. Gleichzeitig wurde die Genauigkeit erhöht und die Effizienz gesteigert. Dieses Whitepaper beschreibt die Herausforderungen, die entwickelten Lösungen und die konkreten Vorteile der Zusammenarbeit.
Medizintechnikunternehmen sind verpflichtet, Sicherheitsfragebögen auszufüllen, um zu bestätigen, dass ihre Produkte den hohen Anforderungen an Sicherheit und Compliance entsprechen, die Krankenhäuser fordern. Diese Fragebögen dienen folgenden Zwecken:
- Schutz sensibler Patientendaten vor Datenlecks oder unberechtigtem Zugriff
- Sicherstellung der Einhaltung regulatorischer Anforderungen wie HIPAA, DSGVO oder ISO/IEC 27001
- Identifikation von Risiken bei der Integration neuer Technologien oder Dienstleistungen
- Nachweis ausreichender Sicherheitsvorkehrungen zur Vertrauensbildung bei potenziellen Kunden
Die Bearbeitung dieser Fragebögen ist aufgrund ihres Umfangs und der nötigen Beteiligung verschiedener Abteilungen – unter anderem IT, Recht und Compliance – äußerst ressourcenintensiv. Dies führte bei apoQlar regelmäßig zu Verzögerungen und einer hohen Belastung der Mitarbeitenden.
Herausforderung
Die Sicherheitsfragebögen stellten apoQlar vor folgende zentrale Herausforderungen:
- Länge und Detailtiefe: Die Fragebögen bestanden aus Dutzenden bis Hunderten von Fragen und verlangten präzise Antworten zu technischen Maßnahmen und internen Richtlinien.
- Abteilungsübergreifende Zusammenarbeit: Die Beantwortung erforderte Informationen von verschiedenen Abteilungen mit unterschiedlichen Zeitplänen und Prioritäten.
- Hoher Zeitaufwand: Die Konsultation umfangreicher Dokumentationen und die Koordination zahlreicher Beteiligter machten den Prozess langwierig und ineffizient.
Lösung
apoQlar arbeitete mit theBlue.ai zusammen, um diese Herausforderungen mit Hilfe einer auf Generativer KI und Retrieval-Augmented Generation basierenden Lösung zu bewältigen. Die entwickelte Lösung integrierte alle Unternehmensrichtlinien (im PDF-Format) und technische Dokumentationen aus Confluence in einen virtuellen Assistenten mit dem Namen Zippy.
Zippy konnte präzise Fragen beantworten, indem er sich auf exakte Quellen bezog und dabei Dokumentennamen und Seitenzahlen nannte. Die Lösung wurde auf Microsoft Azure implementiert, um eine sichere Datenverarbeitung zu gewährleisten. Azure OpenAI Services wurden zur Erstellung von Dokumenten-Embeddings auf Basis neuester GPT-Modelle eingesetzt. ChromaDB diente als Vektordatenbank zur schnellen und effizienten Informationssuche.
Ergebnisse
Die neue Lösung führte zu einer signifikanten Steigerung der Effizienz und Genauigkeit bei der Bearbeitung von Sicherheitsfragebögen. Früher dauerte der gesamte Prozess etwa einen Monat und erforderte die Mitarbeit von acht bis zehn Personen. Mit Zippy kann derselbe Vorgang nun in weniger als einer Woche abgeschlossen werden, wobei nur noch wenige Personen für die Überprüfung der Antworten benötigt werden.
Dadurch können sich die Mitarbeitenden wieder verstärkt auf ihre eigentlichen Aufgaben konzentrieren, was die Produktivität insgesamt steigert. Gleichzeitig wurde die Genauigkeit der Antworten erhöht, da diese auf aktuellen und verlässlichen Quellen basieren. Der integrierte Feedbackmechanismus trug zudem zur kontinuierlichen Aktualisierung der Dokumentation bei und erhöhte dadurch die Zuverlässigkeit des virtuellen Assistenten.
“Die Ineffizienz bei der Bearbeitung dieser Fragebögen war nicht nur ein Produktivitätsproblem, sondern beeinträchtigte auch unsere Fähigkeit, neue Kunden schnell aufzunehmen. Wir brauchten eine intelligentere und schnellere Lösung für diesen Prozess.” – Sirko Pelzl, CEO von apoQlar
Die Rolle und Bedeutung von Sicherheitsfragebögen
Sicherheitsfragebögen werden branchenübergreifend eingesetzt – unter anderem im Gesundheitswesen, im Finanzwesen und im Technologiesektor –, um die Sicherheits- und Compliance-Vorgaben potenzieller Anbieter und Partner zu bewerten. Sie erfüllen mehrere wesentliche Funktionen:
- Datenschutz: Sie stellen sicher, dass sensible Informationen – beispielsweise Patientendaten im Gesundheitswesen oder Finanzdaten im Bankwesen – geschützt sind und nicht durch Sicherheitsverletzungen oder unbefugte Zugriffe gefährdet werden.
- Regulatorische Compliance: Sie überprüfen die Einhaltung branchenspezifischer Vorschriften wie HIPAA und DSGVO im Gesundheitswesen, PCI DSS im Finanzwesen sowie diverser Cybersicherheitsstandards wie ISO/IEC 27001.
- Risikomanagement: Sie identifizieren mögliche Schwachstellen und Risiken, die mit der Integration neuer Technologien oder Dienstleistungen in bestehende Systeme verbunden sind.
- Lieferantensicherheit: Sie schaffen Vertrauen zwischen Organisationen, indem sie aufzeigen, dass Anbieter angemessene Sicherheitsmaßnahmen implementiert haben und sich dem Schutz sensibler Daten verpflichtet fühlen.
Im Gesundheitswesen helfen Sicherheitsfragebögen Krankenhäusern sicherzustellen, dass Medizintechniklösungen den strengen regulatorischen Vorgaben und Normen entsprechen, die den Schutz von Patientendaten und die Integrität medizinischer Geräte gewährleisten. Typischerweise umfassen diese Fragebögen detaillierte Inhalte zu Themen wie Datenverschlüsselung, Zugriffskontrollen, Notfallreaktionen und Schwachstellenmanagement.
Die Ausarbeitung solcher Fragebögen erfordert häufig Beiträge aus verschiedenen Fachabteilungen innerhalb einer Organisation, darunter IT, Rechtsabteilung und Compliance. Diese abteilungsübergreifende Beteiligung kann zu erheblichen Koordinationsaufwänden und Verzögerungen führen, was den Prozess sowohl zeitintensiv als auch ressourcenaufwendig macht.
Implementierungsdetails
Architekturübersicht
Um firmeneigene Daten effektiv mit großen Sprachmodellen (Large Language Models, LLMs) zu kombinieren, setzte theBlue.ai auf eine Architektur auf Basis von Retrieval-Augmented Generation (RAG). Diese Architektur ermöglicht es, Unternehmensdaten effizient zu nutzen, um präzise Antworten auf Benutzeranfragen zu generieren.
Die Lösung besteht aus einer intuitiven Webanwendung, die mit Streamlit entwickelt wurde und ein Python-Backend nutzt. Für die Sprachverarbeitung wurden Azure OpenAI Services eingesetzt. ChromaDB fungierte als Vektorspeicher für die effektive Datenabfrage. Darüber hinaus kamen Preprocessing-Skripte zum Einsatz sowie LangFuse zur Überwachung und Analyse der Lösung. Die gesamte Anwendung wurde auf Microsoft Azure bereitgestellt, was eine sichere und regelkonforme Verarbeitung der Daten gewährleistet.

Die Entwicklung eines leistungsfähigen RAG-basierten Systems erfordert die Optimierung mehrerer Schritte, insbesondere im Bereich der Datenverarbeitung und der Systemarchitektur. In unserem Projekt wurden sowohl Daten aus Confluence als auch verschiedene statische Dateien verarbeitet.
Mithilfe von Langchain-Plugins integrierten wir die Daten aus Confluence nahtlos, einschließlich zusätzlicher Metadaten. PDF-Dateien stellten eine besondere Herausforderung dar, da sie unterschiedliche Formatierungen und Strukturen aufwiesen. Um Skalierbarkeit sicherzustellen, entwickelten wir eigene Skripte zur Datenextraktion. Der Fokus lag dabei auf der Erstellung kohärenter Textsegmente, gleichzeitig wurden zusätzliche Metadaten wie Dokumentenseiten extrahiert.
Diese Metadaten ermöglichen es den Nutzerinnen und Nutzern, die exakten Quellen der generierten Antworten zu verifizieren und gezielte Rückfragen zu stellen. Nach umfangreicher Testphase setzten wir unterschiedliche Segmentierungsstrategien ein, die jeweils auf die jeweilige Datenquelle abgestimmt waren, um den strukturellen Kontext der Informationen zu erhalten.
Jedes Textsegment behielt seine Metadaten, wodurch die Suchfähigkeit des Systems deutlich verbessert wurde. Für die Optimierung der Suchergebnisse innerhalb unserer RAG-Architektur nutzten wir Ada-Embeddings aus den Azure OpenAI Services.
Prompt Engineering
Das sogenannte Prompt Engineering war entscheidend für die Leistungsfähigkeit der Lösung. Dabei ging es unter anderem darum, System-Prompts so zu gestalten, dass sie dem virtuellen Assistenten einen klaren Aufgabenrahmen vorgaben und die Einbindung der abgerufenen Textsegmente auf sinnvolle Weise ermöglichten. Gleichzeitig wurde sichergestellt, dass die generierten Antworten ausschließlich auf dem relevanten Kontext basierten, um sogenannte „Halluzinationen“ des Modells zu vermeiden.
Zur weiteren Qualitätssicherung wurden sogenannte Guardrails eingeführt. Diese begrenzen den thematischen Fokus des Modells und verhindern, dass es sich in irrelevante Themenbereiche verirrt. Darüber hinaus kamen Mechanismen zum Einsatz, die es ermöglichten, durch „Function Calling“ gezielt bestimmte Datenquellen oder Funktionen im System aufzurufen. Dadurch wurde sowohl die thematische Relevanz als auch die Genauigkeit der Antworten weiter verbessert.
Zusätzlich wurden ergänzende Techniken wie die sogenannte HyDE-Methode untersucht. Diese erzeugt künstliche (hypothetische) Antworten, um die Qualität der Informationssuche bei besonders komplexen Fragen zu verbessern. Die Funktion ist als optionaler Parameter verfügbar und bietet eine flexible Erweiterung bei der Bearbeitung schwieriger Anfragen.
LLM Monitoring – Überwachung der Sprachmodelle
Zur kontinuierlichen Überwachung der Systemleistung wurde LangFuse implementiert. Dieses Tool wird für die Versionierung von Prompts und zur lückenlosen Nachverfolgung aller Modellaktivitäten genutzt, insbesondere zu Debugging-Zwecken.
LangFuse erfasst sämtliche relevanten Prozessschritte, darunter:
- Chatverläufe,
- die abgerufenen Textsegmente,
- vom Modell erzeugte Antworten,
- Funktionsaufrufe,
- Fehlermeldungen,
- anfallende Nutzungskosten sowie
- die Latenzzeiten der API-Aufrufe.
So wird eine umfassende Überwachung und detaillierte Analyse der Systemleistung ermöglicht.
Anwendung und kontinuierliche Weiterentwicklung
Die Anwendung wurde mit Streamlit und einem Python-Backend entwickelt und bietet eine Chat-Oberfläche für die direkte Interaktion mit dem virtuellen Assistenten. Über ein erweitertes Optionsmenü können die Nutzerinnen und Nutzer zusätzliche Prompt-Techniken wie HyDE aktivieren, das eingesetzte Sprachmodell wechseln (standardmäßig kommt GPT-4o über Azure OpenAI Services zum Einsatz) oder die Anzahl der Textsegmente einstellen, die bei einer Abfrage berücksichtigt werden sollen.
Ein zentraler Bestandteil der kontinuierlichen Verbesserung war das gezielte Sammeln von Nutzerfeedback zu einzelnen Dialogelementen. Dieses Feedback wurde in LangFuse integriert, wodurch sich die Anwendung nahtlos an neue Anforderungen und Rückmeldungen anpassen ließ.
Basierend auf diesem Feedback wurde auch eine zusätzliche Funktion in die Anwendung integriert. Diese ermöglicht es den Nutzerinnen und Nutzern, vertiefende Antworten zu bestimmten Themen anzufordern. Dafür werden benachbarte Textsegmente herangezogen, die auf den Metadaten der ursprünglich abgerufenen Informationen basieren. Auf diese Weise lassen sich komplexe Themen umfassender und strukturierter erkunden.
Vorteile und Return on Investment (ROI)
Die Einführung der KI-basierten Lösung durch theBlue.ai und apoQlar hat dem Unternehmen sowohl messbare als auch nicht direkt quantifizierbare Vorteile gebracht. Die positiven Effekte lassen sich in mehreren Bereichen klar nachweisen:
Zeitersparnis:: Der Zeitaufwand für die Bearbeitung von Sicherheitsfragebögen wurde drastisch reduziert. Früher nahm dieser Prozess etwa einen Monat in Anspruch und erforderte die Mitarbeit von acht bis zehn Personen. Mit dem virtuellen Assistenten Zippy lässt sich derselbe Prozess nun in nur einer Woche abschließen – mit deutlich weniger personellem Aufwand.
Kosteneinsparungen Durch die signifikante Zeitersparnis beim Ausfüllen der Fragebögen konnten erhebliche Personalkosten eingespart werden. Geht man von einem durchschnittlichen Stundenlohn von 50 US-Dollar für die beteiligten Mitarbeitenden aus, ergeben sich deutliche Einsparungen. Pro Fragebogen werden rund 120 Arbeitsstunden eingespart – das entspricht 6.000 US-Dollar pro Dokument. Bei durchschnittlich 15 Fragebögen pro Jahr ergibt sich daraus ein Einsparpotenzial von etwa 90.000 US-Dollar jährlich.
Höhere Genauigkeit: Der KI-gestützte Assistent Zippy sorgt für präzise und konsistente Antworten. Dies reduziert das Risiko von Fehlern, die zu Problemen mit der Einhaltung gesetzlicher Vorschriften oder zu Reputationsschäden führen könnten.
Gesteigerte Produktivität Da die Mitarbeitenden nun weniger Zeit mit Dokumentation und Abstimmungen verbringen, können sie sich verstärkt auf ihre eigentlichen Aufgaben konzentrieren. Dies hat in mehreren Abteilungen zu spürbaren Produktivitätssteigerungen geführt.
Schnelleres Kunden-Onboarding: Die Möglichkeit, Sicherheitsfragebögen schneller und mit höherer Qualität zu bearbeiten, hat den Onboarding-Prozess für neue Kunden beschleunigt. Dies erhöht die Kundenzufriedenheit und kann sich positiv auf den Umsatz auswirken. Die durchschnittliche Onboarding-Zeit wurde von sechs Wochen auf zwei Wochen verkürzt, was eine schnellere Implementierung der apoQlar-Lösungen in Krankenhäusern ermöglicht.
„Die Bearbeitung von Sicherheitsfragebögen ist kein logistischer Albtraum mehr. Das neue System ist einfach zu handhaben und stellt sicher, dass unsere Antworten vollständig und korrekt sind.” – Maciej Antoszczuk, Technischer Produktverantwortlicher
Fazit
Die Zusammenarbeit zwischen theBlue.ai und apoQlar hat die Bearbeitung von Sicherheitsfragebögen im Gesundheitswesen grundlegend verändert. Durch den Einsatz fortschrittlicher KI-Technologien konnte ein zuvor langwieriger und aufwändiger Prozess deutlich vereinfacht und beschleunigt werden, ohne dabei Abstriche bei der Qualität zu machen. Die Lösung setzt einen neuen Standard im Umgang mit komplexen Dokumentationsanforderungen in der MedTech-Branche und zeigt gleichzeitig das Potenzial von Generativer KI in praxisrelevanten Anwendungen auf.
Über theBlue.ai
theBlue.ai ist ein führendes Unternehmen mit Sitz in Hamburg, das sich auf die Entwicklung maßgeschneiderter und skalierbarer KI-Lösungen spezialisiert hat. Mit umfassender Expertise im Bereich der Generativen Künstlichen Intelligenz bietet theBlue.ai individuell angepasste Lösungen, die Unternehmen dabei unterstützen, ihre digitale Transformation zu beschleunigen und innovative Projekte effizient umzusetzen.
Von der Konzeptionsphase bis zur vollständigen Implementierung begleitet theBlue.ai seine Kundinnen und Kunden bei der bestmöglichen Nutzung von KI-Potenzialen. Das Unternehmen verfügt über weitreichende Erfahrung und arbeitet eng mit renommierten Partnern und Auftraggebern aus unterschiedlichen Branchen zusammen – unter anderem aus dem Gesundheitswesen, der Pharmaindustrie und weiteren regulierten Bereichen –, um nachhaltige und wirkungsvolle KI-Projekte zu realisieren.
Über apoQlar
Die apoQlar GmbH ist ein Anbieter medizinischer Technologien mit Spezialisierung auf Mixed und Augmented Reality. Die firmeneigene Softwareplattform VSI HoloMedicine® nutzt die Microsoft HoloLens, um medizinische Bilder, klinische Arbeitsabläufe und medizinische Schulungen in interaktive 3D-Umgebungen zu übertragen. Diese Technologie ermöglicht es Chirurginnen und Chirurgen, anatomische Strukturen bereits in der präoperativen Planung räumlich zu visualisieren. Dadurch können Eingriffe präziser vorbereitet, die Operationsdauer verkürzt und postoperative Maßnahmen reduziert werden. Die Arbeit von apoQlar treibt die Weiterentwicklung medizinischer Praxis, Ausbildung und fachübergreifender Zusammenarbeit aktiv voran.
Kontaktieren Sie uns
Wie können wir Ihnen weiterhelfen? Die nachfolgenden, als erforderlich gekennzeichneten Felder helfen uns dabei, Ihre Anfrage zu bearbeiten und an die zuständige Stelle weiterzuleiten. Sie können mit einer Rückmeldung innerhalb von ein bis zwei Werktagen rechnen.


