
Als Large Language Modelle (LLMs) wie GPT-3 erstmals auf den Markt kamen, erzielten sie einen enormen Einfluss. Sie konnten Texte generieren, Fragen beantworten und verschiedene Aufgaben mit beeindruckender Genauigkeit ausführen. Doch mit der zunehmenden Komplexität der Aufgaben, die wir in der KI bewältigen müssen, zeigt sich, dass die Abhängigkeit von einem einzelnen Modell für alles ihre Grenzen hat.
Stellen Sie sich vor, Sie müssten ein Problem lösen, das Fachwissen aus verschiedenen Bereichen oder aufeinanderfolgende Schritte erfordert. Ein einzelnes LLM könnte einen Teil davon übernehmen, aber es ist nicht darauf ausgelegt, eine komplexe Aufgabe in handhabbare Teile zu zerlegen. Was passiert, wenn eine Aufgabe mehrere unterschiedliche Fähigkeiten benötigt, um sie abzuschließen?
Hier kommen Multi-Agenten-Systeme ins Spiel. Anstatt dass ein Modell versucht, alles zu erledigen, nutzen diese Systeme mehrere Agenten, die jeweils für einen bestimmten Teil der Aufgabe konzipiert sind. Die Agenten können zusammenarbeiten und sich auf ihre Stärken konzentrieren, um das Problem effektiver anzugehen.
Warum ist das wichtig?
Mit zunehmender Komplexität der Aufgaben ermöglicht das Aufteilen und die Zuweisung spezieller Agenten für jeden Teil eine größere Flexibilität. Dies erlaubt es, Probleme zu lösen, die ein einzelnes LLM alleine nicht bewältigen könnte.
In diesem Artikel erfahren Sie, wie Multi-Agenten-Systeme funktionieren, wie Agenten zusammenarbeiten und warum dieser Ansatz in der KI immer beliebter wird. Wir werfen außerdem einen Blick auf reale Anwendungen und die zugrunde liegenden Frameworks dieser Systeme.
Verständnis von Multi-Agenten-Systemen
Da sich KI weiterentwickelt, erfordert die Lösung zunehmend komplexer werdender Probleme mehr als nur leistungsstarke Modelle; es erfordert Systeme, die Aufgaben effizient aufteilen und bewältigen können. Multi-Agent-Systeme bieten eine Lösung, indem sie die Arbeitslast auf mehrere spezialisierte Agenten verteilen, die jeweils für einen bestimmten Aspekt des Problems zuständig sind. Diese Systeme ermöglichen eine bessere Skalierbarkeit und Flexibilität, sodass Probleme effektiver gelöst werden können, wenn ein einzelnes Modell den gesamten Prozess nicht verwalten kann. Durch die Koordination der Bemühungen mehrerer Agenten können diese Architekturen Herausforderungen meistern, die über die Kapazitäten eines einzelnen LLM hinausgehen und bieten eine robustere Lösung für komplexe KI-Aufgaben.
Ein Agent eines Large Language Models (LLM) ist ein Framework, das den Ablauf der Anwendungssteuerung verwaltet. Mit der Weiterentwicklung dieser Systeme können sie zunehmend komplexer werden, was zu Herausforderungen im Management und in der Skalierbarkeit führen kann. Mögliche Probleme umfassen:
- Werkzeugüberlastung – wenn Agenten zu viele Werkzeuge zur Verfügung haben, was zu suboptimalen Werkzeugauswahlentscheidungen führt
- Kontextüberdehnung – wenn der Umfang zu groß wird, um von einem einzelnen Agenten gehandhabt zu werden
- Komplexität der Rollen – wenn das System verschiedene spezialisierte Funktionen erfordert
Eine Lösung für diese Probleme besteht darin, die Anwendung in mehrere kleinere, autonome Agenten zu zerlegen, die in einem Multi-Agenten-System zusammenarbeiten. Diese einzelnen Agenten können so einfach wie ein einfacher Prompt mit einer LLM-Antwort oder so ausgeklügelt wie ReAct-Agenten sein. Die Hauptvorteile eines Multi-Agenten-Architektursystems umfassen:
- Modulares Design: Trennbare Agenten ermöglichen eine einfachere Entwicklung, Tests und Wartung des Systems.
- Expertenspezialisierung: Sie können spezialisierte Agenten für bestimmte Domänen erstellen, was die Systemeffizienz verbessert.
- Verbesserte Überwachung: Die explizite Verwaltung der Interaktionen von Agenten wird möglich und geht über einfache Werkzeugaufrufe hinaus.
Praktischer Nutzen von LLM-Agenten
Betrachten wir eine einfache Anfrage:
„Wie hoch ist der durchschnittliche PM2.5-Wert in Warschau für 2024?“
Diese Frage könnte von einem LLM mit integriertem Wissen oder durch ein einfaches RAG-System (Retrieval Augmented Generation) beantwortet werden, bei dem das LLM auf Umweltdaten und Luftqualitätsberichte zugreifen kann.
Nun geben wir dem System eine komplexere Frage wie die folgende:
„Wie hat sich der Trend der Luftqualität (insbesondere PM2.5- und PM10-Werte) im letzten Jahrzehnt in großen polnischen Städten verändert, und welche Auswirkungen könnte dies auf Atemwegserkrankungen haben? Können Sie außerdem eine grafische Darstellung der Korrelation zwischen Smogwerten und Atemwegsaufenthalten in Krankenhäusern während der Wintermonate liefern?“
Eine solch komplexe Anfrage übersteigt die Fähigkeiten sowohl eines eigenständigen LLM als auch eines einfachen RAG-Systems. Dieses Szenario erfordert, dass ein LLM die Aufgabe in handhabbare Komponenten zerlegt, verschiedene Werkzeuge nutzt und eine Reihe von Operationen ausführt, um eine umfassende Antwort zu generieren. Ein praktikabler Ansatz wäre, einen LLM-Agenten zu entwickeln, der Zugang zu folgenden Ressourcen hat:
- APIs für die polnische Luftqualitätsüberwachung
- Öffentliche Gesundheitsstatistiken
- Wetterdatenarchive
- Umweltforschungsberichte zur Luftqualität in Mitteleuropa
Zusätzlich müsste der LLM auf ein „Code-Interpreter“-Werkzeug zugreifen, um die gesammelten Daten zu verarbeiten und Visualisierungen zu erstellen, die die Beziehungen zwischen Verschmutzungswerten und Gesundheitsauswirkungen in polnischen Regionen zeigen.
Notiz: Diese Sektion basiert auf LLM Agents | Prompt Engineering Guide (paraphrased)
Wie funktionieren KI-Agenten?
KI-Agenten arbeiten, indem sie einem strukturierten Prozess folgen, der als Steuerfluss bezeichnet wird. Der Steuerfluss beschreibt die Reihenfolge der Schritte, die ein Agent unternimmt, um eine Aufgabe abzuschließen. Dadurch wird sichergestellt, dass die richtigen Aktionen in der richtigen Reihenfolge ausgeführt werden und bei Bedarf eine Koordination mit anderen Agenten stattfindet. Der Steuerfluss hilft, den Entscheidungsprozess, die Werkzeugnutzung und die Zusammenarbeit zwischen mehreren Agenten zu verwalten. So funktioniert es:
- Reflexion: Das LLM analysiert seine Ausgabe und Leistung, um Verbesserungsmöglichkeiten zu erkennen. Diese Selbstbewertung hilft dabei, die Herangehensweise des Agenten und seine Ergebnisse im Laufe der Zeit zu verfeinern.
- Werkzeugnutzung: Das LLM hat Zugriff auf verschiedene externe Dienste wie Internetsuche, Codeausführungsumgebungen und andere Tools. Diese Werkzeuge ermöglichen es dem Agenten, Informationen zu sammeln, Aktionen auszuführen und Daten zu analysieren, um fundiertere Entscheidungen zu treffen.
- Planung: Das LLM erstellt Schritt-für-Schritt-Strategien, um seine Ziele zu erreichen. Zum Beispiel könnte es zuerst seine Gedanken ordnen, dann relevante Daten online sammeln und schließlich ein Dokument oder einen Bericht basierend auf den gesammelten Erkenntnissen erstellen.
- Multi-Agenten-Kollaboration: Wenn mehrere AI-Agenten zusammenarbeiten, teilen sie Aufgaben und Erkenntnisse miteinander. Diese Teamarbeit sorgt für eine umfassendere Lösung, da die Agenten sich auf spezifische Bereiche konzentrieren können, während sie zusammenarbeiten, um ein besseres Ergebnis zu erzielen, als es ein einzelner Agent allein könnte.
Möchten Sie mehr über LLM-Agenten erfahren? In unserem vorherigen Artikel haben wir über “Anwendungen von LLM-Agenten in verschiedenen Branchen” gesprochen. Wenn Sie tiefer in die realen Anwendungsfälle von LLM-Agenten eintauchen möchten, klicken Sie hier: Link.
Multi-Agenten-Systeme Designmuster
Ein Multi-Agenten-Framework besteht aus mehreren miteinander verbundenen Agenten, die zusammenarbeiten, um Herausforderungen zu bewältigen, die normalerweise einen einzelnen Agenten überfordern würden. Diese Systeme nutzen die Stärken der einzelnen Agenten durch Zusammenarbeit, Koordination, Aufgabenübergabe und manchmal auch durch Wettbewerb.
Es gibt mehrere Möglichkeiten, Agenten in einem Multi-Agenten-System zu verbinden:
- Netzwerkarchitektur: Jeder Agent kann jeden anderen Agenten aufrufen. Alle Agenten können direkt miteinander kommunizieren, was eine flexible Entscheidungsfindung und Koordination ermöglicht.
- Supervisor-Architektur: Jeder Agent kommuniziert mit einem einzigen Supervisor-Agenten, der Entscheidungen darüber trifft, welcher Agent als nächstes eine Aufgabe ausführt.
- Hierarchische Architektur: Dies ist eine Verallgemeinerung der Supervisor-Architektur. In diesem Modell gibt es eine baumartige Struktur, in der Agenten in verschachtelte Ebenen organisiert sind. Ein Supervisor-Agent überwacht andere Agenten, die ihrerseits untergeordnete Agenten überwachen können. Diese Architektur ermöglicht komplexe Steuerflüsse und ist vorteilhaft für große Systeme.
- Benutzerdefinierte Architektur: Jeder Agent interagiert nur mit einer bestimmten Untergruppe von Agenten. Bestimmte Aspekte des Flusses sind deterministisch, und nur ausgewählte Agenten haben die Autorität, zu bestimmen, an welche anderen Agenten der Fluss weitergegeben wird.
- Human-in-the-loop-Architektur: KI-Agenten können mit anderen Systemen durch Werkzeugaufrufe interagieren. Einige Interaktionen könnten gefährlich sein, wenn der Agent einen Fehler macht. Die Human-in-the-loop-Architektur stellt sicher, dass für diese sensiblen Aktionen (z. B. Schreiben in eine Datenbank, Löschen von Datensätzen, Buchung von Flügen oder Hotels, Zahlungen usw.) der Fluss zur Überprüfung und Genehmigung oder Ablehnung an den Menschen übergeben wird. Dies kann entweder direkt durch den Benutzer oder durch einen Mitarbeiter / Experten eines Unternehmens erfolgen.

Quelle: Multi-agent Systems / Quelle: Build a Customer Support Bot
Kundenservice als Anwendungsfall für Multi-Agenten-Systeme
Ein sehr beliebter Anwendungsfall für Multi-Agenten-Systeme ist der Kundenservice. Im Gegensatz zu herkömmlichen Chatbots, die an vorgegebene Skripte und Prozesse gebunden sind, besitzen LLM-gesteuerte KI-Agenten die Fähigkeit, subtile Variationen in Kundenanfragen zu verstehen und flexibel mit natürlicher Intelligenz zu kommunizieren. Diese Agenten können die zugrunde liegende Bedeutung unabhängig von der Formulierung der Fragen erkennen und kontextbezogene Antworten generieren, die eine individuellere und flüssigere Interaktion ermöglichen.
Warum KI-Agenten für den Kundenservice?
- Verfügbarkeit: KI-Agenten sind rund um die Uhr verfügbar und bereit, den Kunden zu unterstützen, ohne Pausen oder menschliches Eingreifen (außer im Rahmen des Human-in-the-loop-Workflows).
- Mehrsprachigkeit: KI-Agenten können mit Kunden in der Sprache ihrer Wahl kommunizieren, was sie perfekt für globale Unternehmen macht.
- Skalierbarkeit: KI-Agenten können mehr Anfragen bearbeiten, sodass Unternehmen auch in Spitzenzeiten einen erweiterten Support anbieten können.
- Kontextbewusstsein: Zusätzlich können KI-Agenten externe Daten verwenden, um ihre Antworten in Fakten zu untermauern.
- Personalisierung: KI-Agenten können spezifische Kundendaten wie Kaufhistorie, Vorlieben und Verhalten nutzen, um personalisierte Antworten und Empfehlungen zu liefern.
- Fachkenntnisse: Die Bearbeitung von Anfragen aus verschiedenen Bereichen durch die Weiterleitung an spezialisierte KI-Agenten.
- Integration mit externen Diensten: KI-Agenten können über API-Aufrufe mit externen Diensten wie Websuchmaschinen, Kalendern, E-Mails oder Datenbanken kommunizieren, was dem System die Fähigkeit verleiht, autonom Daten zu schreiben oder zu lesen.
Effizientes Aufgabenmanagement in Multi-Agenten-Systemen durch Supervisor-Agenten-Architekturen

Ein häufiges Muster in Multi-Agenten-Systemen (MAS) für den Kundenservice ist die Supervisor- oder hierarchische Architektur. Unternehmen agieren häufig in verschiedenen Bereichen wie Finanzen, IT und Einzelhandel, die jeweils eine spezialisierte Bearbeitung von Kundenanfragen und Problemen erfordern.
In einer Supervisor-Architektur gibt es in der Regel einen übergeordneten Supervisor-Agenten, der die Interaktionen zwischen mehreren untergeordneten spezialisierten Agenten überwacht und plant. Diese Struktur ermöglicht eine effiziente Aufgabenverwaltung, indem der Supervisor-Agent einfachere Anfragen bearbeitet und komplexere Probleme an spezialisierte Agenten weiterleitet. Zum Beispiel:
Supervisor-Agent:
- Bearbeitet einfache Kundenanfragen
- Leitet Anfragen an spezialisierte Agenten weiter, wenn nötig
- Stellt Follow-up-Fragen, um das Problem des Benutzers besser zu verstehen, bevor eine Maßnahme ergriffen wird
- Kann auf Hilfswerkzeuge zugreifen, wie z. B. eine Kalenderintegration zur effizienten Bearbeitung von Datumsoperationen, Websuche zur Suche nach weiteren Informationen oder RAG-als-Werkzeug für zusätzliche Daten wie z. B. FAQ.
Spezialisierte Agenten:
- Bearbeiten spezifische Domänen oder komplexe Probleme, wie z. B. die Überprüfung von Salden in der Finanzbranche oder technischen Support in der IT.
- Jeder spezialisierte Agent hat sein eigenes Set an Werkzeugen. Dies kann z. B. RAG-als-Werkzeug (Retrieval Augmented Generation), Datenbankabfragen, Hotelreservierungen, Flugbuchungen, beliebige API-Aufrufe usw. umfassen.
Zusätzlich kann der Human-in-the-loop-Workflow verwendet werden, um das Risiko zu minimieren, dass Agenten versehentlich sensible Aktionen ausführen (Zahlungen, Flug- oder Hotelbuchungen). Aktionen, die Daten aus verschiedenen Quellen abrufen, erfordern keine Benutzerzustimmung.
Dieser gestufte Ansatz stellt sicher, dass Kunden rechtzeitig Antworten erhalten, während spezialisierte Agenten sich auf komplexe Probleme konzentrieren können, die tiefere Fachkenntnisse erfordern.
Populäre Frameworks für den Aufbau von Multi-Agente-Systemen
Es wurden verschiedene Frameworks entwickelt, um den Aufbau dieser Systeme zu unterstützen, die jeweils unterschiedliche Funktionen bieten, die auf unterschiedliche Bedürfnisse abgestimmt sind. Hier ist eine Übersicht über einige der beliebtesten Frameworks für den Aufbau von Multi-Agenten-Systemen:
1. LangGraph
LangGraph ist ein spezialisiertes Framework für die Erstellung zustandsbehafteter Multi-Agenten-Anwendungen, die große Sprachmodelle (LLMs) nutzen. Es bietet detaillierte Steuerung über Arbeitsabläufe und Agentenzustände und erleichtert die Entwicklung komplexer KI-Systeme, die Funktionen wie Zyklen, Persistenz und Human-in-the-loop-Interaktionen integrieren.
2. Microsoft AutoGen
Microsoft AutoGen ist ein Open-Source-Framework für Multi-Agenten-Konversationen, das die Erstellung von LLM-Anwendungen der nächsten Generation optimiert. Es bietet eine High-Level-Abstraktion zur Entwicklung von Arbeitsabläufen, in denen mehrere Agenten zusammenarbeiten, lernen und sich im Laufe der Zeit anpassen können.
3. Semantic Kernel
Semantic Kernel ist ein leichtgewichtiges, Open-Source-Toolkit, mit dem Entwickler KI-Modelle in ihre bestehenden Anwendungen integrieren können, die mit C#, Python oder Java entwickelt wurden. Als Middleware automatisiert Semantic Kernel Geschäftsprozesse und ermöglicht es Entwicklern, KI-Agenten zu erstellen, die effektiv mit ihrer Codebasis interagieren.
4. CrewAI
CrewAI ist eine Multi-Agenten-Plattform, die Arbeitsabläufe in verschiedenen Branchen durch den Einsatz von KI-Agenten zur Automatisierung verbessert. Sie ermöglicht es Benutzern, automatisierte Arbeitsabläufe zu entwerfen und umzusetzen, die jedes große Sprachmodell (LLM) und Cloud-Dienste nutzen.
Quelle: KI-Agenten-Frameworks-Komponenten & Top 5 Open Source-Lösungen
Wie gehen Sie mit komplexen Problemen in Multi-Agenten-Systemen um?
Da Aufgaben immer komplexer werden, kann die Abhängigkeit von einem einzelnen Agenten einschränkend wirken. Multi-Agenten-Systeme zerlegen diese Aufgaben und verwenden mehrere Agenten, die sich auf verschiedene Bereiche spezialisiert haben. Dieser Ansatz ermöglicht es den Agenten, zusammenzuarbeiten und Probleme effektiver zu lösen.
Unser Team kann Ihnen helfen, Multi-Agenten-Systeme für die Verwaltung und Koordination mehrerer KI-Modelle zu entwickeln und umzusetzen, die Aufgabenverteilung zu optimieren und eine nahtlose Zusammenarbeit zwischen verschiedenen Modellen in komplexen Anwendungen zu ermöglichen.
Lassen Sie uns darüber sprechen, wie Multi-Agenten-Systeme Ihnen helfen können, Ihre größten Herausforderungen zu meistern. Wir sind bereit, mit Ihnen zusammenzuarbeiten und die Lösung zu schaffen, die am besten für Sie funktioniert. Kontaktieren Sie uns, um ein Gespräch zu vereinbaren.
Sie haben mehr Fragen?
Wenn Sie weitere Fragen haben oder bereit sind, herauszufinden, wie Multi-Agenten-Systeme Ihr Projekt revolutionieren können, stehen wir Ihnen gerne zur Verfügung. Unser Team hilft Ihnen mit den nötigen Erkenntnissen und Lösungen, um das Potenzial vernetzter Agenten für mehr Effizienz, bessere Zusammenarbeit und fundierte Entscheidungen voll auszuschöpfen.