Retrieval-Augmented Generation (RAG) kann für einfache Abfragen nützlich sein. Was aber, wenn Abfragen komplex sind und mehrstufige Schlussfolgerungen und Entscheidungen erfordern? In solchen Fällen wäre beispielsweise ein Support-Chatbot sinnvoller, der Probleme beheben kann und nicht nur FAQs abruft.
In dieser Lösung richten wir eine Multiagent-RAG-Pipeline ein und stellen sie auf Oracle Cloud Infrastructure (OCI) mit Oracle Database 23ai bereit, um intelligent auf eine Abfrage zu reagieren. Die Agenten des Large Language Model (LLM) planen, recherchieren und begründen die Antwort der KI. Dieser Gedankengang (CoT) ahmt die menschliche Problemlösung nach. Eine Gradio-Schnittstelle koordiniert die Datenverarbeitung – mehrere Datenquellen werden hochgeladen, erfasst und mithilfe von Open-Source-Tools als Vektoren gespeichert. Gradio bietet außerdem eine Chat-Oberfläche zur Eingabe von Suchanfragen in natürlicher Sprache.
Mit der CoT-Visualisierung in Gradio sehen Sie die Schritte und Entscheidungen, die jeder Agent getroffen hat, um die endgültige, synthetisierte Antwort zu liefern. Diese Lösung bietet ein leicht verständliches Beispiel dafür, wie agentische KI die Schlussfolgerungsfähigkeiten sowohl lokaler als auch cloudbasierter Modelle verbessern kann.