Optimierung von Ausschreibungen für die Bauplanung mithilfe von KI
Home | Praxisbeispiele | Optimierung von Ausschreibungen für die Bauplanung mithilfe von KI
Die Digitalisierung verändert zunehmend auch die Bauwirtschaft – insbesondere im Bereich des Wissensmanagements. Ein zentrales Problem vieler Architekturbüros ist die aufwendige Erstellung von Ausschreibungstexten, die oft Hunderte von Seiten umfassen. Das Mittelstand-Digital Zentrum Hannover hat gemeinsam mit der Prusseit und Reiss Bauplanungsbüro GmbH untersucht, wie Künstliche Intelligenz (KI) diesen Prozess effizienter gestalten kann. Ziel des Projekts war die Entwicklung einer KI-gestützten Suchlösung, die es ermöglicht, bereits vorhandene, thematisch passende Textpassagen schnell und gezielt zu finden.
Projektüberblick
Das Mittelstand-Digital Zentrum Hannover entwickelte gemeinsam mit der Prusseit und Reiss Bauplanungsbüro GmbH einen KI-gestützten Prototypen zur Optimierung des Wissensmanagements. Bestehende Ausschreibungen können hochgeladen und mithilfe eines Information-Retrieval-Ansatzes durchsucht werden, um relevante Passagen zu ermitteln. Die Lösung ermöglicht eine effiziente Dokumentensuche, die den manuellen Rechercheaufwand erheblich reduziert. So können beispielsweise bei der Suche nach einem Ausschreibungstext zu einer bestimmten Dachkonstruktion passende Passagen schnell identifiziert werden. Der Prototyp zeigt, wie KI-gestützte Informationssuche den Erstellungsprozess von Ausschreibungen beschleunigen kann, indem relevante Inhalte schneller gefunden werden. Dies spart Zeit und verbessert die Qualität der Ausschreibungsdokumente.
Die Prusseit und Reiss Bauplanungsbüro GmbH ist ein Bauplanungs- und Architekturbüro mit Sitz in Garbsen, das auf mehr als 66 Jahre erfolgreiche Tätigkeit im Gewerbe- und Industriebau zurückblicken kann. Das Leistungsspektrum des Büros umfasst die ganzheitliche Realisierung von Projekten – von der Grundstücksfindung über Vorentwürfe mit Betriebsablaufplanungen bis hin zur Baugenehmigung. Besonderer Wert wird auf bautechnisch und bauphysikalisch einwandfreie Baukonzeptionen gelegt, die sowohl kostenoptimiert als auch ästhetisch und termingerecht umgesetzt werden.
Herausforderung und Zielsetzung
Ein hoher Zeitaufwand entsteht für das Unternehmen bei der Erstellung von Generalunternehmer-Ausschreibungen. Es handelt sich dabei um sehr umfangreiche und komplexe Dokumente, die jeden Arbeitsschritt für den Bau oder die Sanierung des Gebäudes beinhalten. Die Bauunternehmen können sich auf die Arbeitsschritte bewerben. Um die notwendige Qualität dieser Ausschreibungen effizient zu erreichen, orientiert man sich an früheren Bauausschreibungen, in die bereits erheblicher Arbeitsaufwand geflossen ist. Für junge Architektinnen und Architekten entsteht hier die Herausforderung, dass sie nicht immer einen Überblick über frühere Ausschreibungen haben. Dadurch entsteht ein Wissensengpass, der durch Wissensmanagement behoben werden soll.
Eine einfache Suche nach Stichwörtern genügt hier nicht, da normale Suchsysteme keine Textausschnitte über mehrere Ausschreibungen hinweg finden und auch nicht die notwendigen Metadaten aus der Ausschreibung berücksichtigen, beispielsweise ob es sich um Industrie- oder Wohngebäude handelt und ob die Ausschreibung eine Sanierung oder einen Neubau behandelt. Daher sollte im Rahmen eines Projekts ein Wissensspeicher aufgebaut werden, der in den KI-basierten Information-Retrieval-Ansatz eingebunden wird. Information-Retrieval bezeichnet die Extraktion relevanter Informationen aus einer Datenbasis, sodass mithilfe eines Sprachmodells (Large Language Model, LLM) relevante Abschnitte schnell und präzise aufgerufen werden können.
Lösungsweg
Eigene Sprachmodelle vs. RAG
Sprachmodelle können genutzt werden, um das Wissensmanagement zu unterstützen. Zwei Methoden spielen eine übergeordnete Rolle:
- Das Training eines eigenen Sprachmodells anhand von Unternehmensdaten und
- der Retrieval-Augmented-Generation (RAG)-Ansatz.
Beide Varianten können lokal auf eigenen Servern betrieben oder online genutzt werden. Ein eigenes Sprachmodell zu trainieren beinhaltet das Fine-Tuning eines bestehenden Modells wie zum Beispiel Llama oder BERT anhand der Unternehmensdaten (siehe Bild 1). Dadurch kann das modifizierte Sprachmodell Aufgaben entsprechend der Unternehmensvorgaben lösen. Nachteilig ist dabei, dass keine Echtzeitdaten abgerufen werden können und beim Hinzufügen neuer Daten ein erneuter Trainingsprozess notwendig ist. Anders ist dies beim RAG-Ansatz.
Der RAG-Ansatz wurde von Meta AI entwickelt und verbindet ein retrieval-basiertes (deutsch: Abfrage-basiertes) Modell mit einem generativen Sprachmodell. Das Schema der Funktionsweise ist in Bild 2 dargestellt. Zunächst sucht das System in einer vordefinierten Wissensdatenbank nach relevanten Dokumenten oder Textausschnitten zur jeweiligen Anfrage. Diese Informationen werden dann als Kontext an das Sprachmodell weitergegeben. Das Sprachmodell formuliert seine Antwort dann auf Basis der übergebenen Daten. Dadurch kann das Modell auch über sein ursprüngliches Training hinaus aktuelle oder domänenspezifische Informationen nutzen, ohne neu trainiert werden zu müssen. Dies verbessert nicht nur die Qualität der Antworten, sondern stellt auch sicher, dass die bereitgestellten Inhalte auf verlässlichen Daten basieren. Die extrahierten Daten aus der Wissensdatenbank können abgerufen werden, um die Basis für die Aussage des Sprachmodells zu überprüfen und die Genauigkeit der Anfrage sicherzustellen.
Bild 1: Schematische Darstellung vom Fine-Tuning eines Modells
Bild 2: Schematische Darstellung der Funktionsweise des RAG-Ansatzes
Für das Unternehmen wurde ein browserbasiertes Suchtool entwickelt, das Nutzerinnen und Nutzer dabei unterstützt, gezielt relevante Textpassagen in umfangreichen Ausschreibungstexten zu finden. Die Lösung basiert auf dem Information-Retrieval-Ansatz, der auch bei RAG genutzt wird und umfasst mehrere Schritte: Zunächst wurden die Ausschreibungen nach Kapiteln und Unterkapiteln unterteilt. Anschließend generierte ein Sprachmodell (hier: GPT-4o) eine kurze Zusammenfassung für jede Textpassage. Diese Zusammenfassungen sowie die gestellten Suchanfragen wurden vektorisiert. Anschließend wurde eine semantische Ähnlichkeitssuche durchgeführt, um die relevantesten Zusammenfassungen zu identifizieren. Das System gibt schließlich die Textpassagen mit den höchsten Ähnlichkeitswerten aus, sodass Nutzer*innen schnell und effizient die passenden Inhalte finden können.
Erstellung der Datenbank
Um eine fundierte Datenbank zu erstellen, müssen zunächst Generalunternehmer-Ausschreibungen gesammelt werden, die eine möglichst breite Palette an Anwendungsfällen abdecken. Diese Dokumente dienen als zentrale Wissensquelle für das spätere System. In diesem Fall wurden PDF-Dateien verwendet. Die Dokumente haben einen ähnlichen Aufbau und sind strukturiert in Kapitel und Unterkapitel. Im nächsten Schritt erfolgt die Segmentierung der Dokumente, das sogenannte Chunking. Die Inhalte werden automatisiert in kleinere, sinnvolle Einheiten aufgeteilt, um eine effizientere Verarbeitung zu ermöglichen. Anschließend werden diese Segmente mithilfe eines KI-Modells prägnant zusammengefasst, sodass relevante Informationen schnell abrufbar sind. Dieser kombinierte Ansatz stellt sicher, dass die gespeicherten Inhalte sowohl strukturiert als auch leicht durchsuchbar sind.
Ähnlichkeitssuche in der Vektordatenbank
Nachdem eine Suchanfrage gestellt wurde, wird sie in einen Vektor umgewandelt. Ein Vektor entspricht einer numerischen Repräsentation des semantischen Inhalts. Gleichzeitig werden auch die zuvor segmentierten Textpassagen in Vektoren überführt. Durch den Vergleich dieser Vektoren werden die relevantesten Passagen ermittelt, die inhaltlich am besten mit der Suchanfrage übereinstimmen. Dieser Prozess, bekannt als Similarity Search, filtert die passendsten Treffer heraus und ermöglicht es den Mitarbeiterinnen und Mitarbeitern, bewährte Formulierungen effizient wiederzuverwenden. Eine zentrale Herausforderung besteht in der Präzision der Suchergebnisse. Während ausführliche und präzise formulierte Prompts meist sehr relevante Treffer liefern, führen kürzere oder unspezifische Suchanfragen häufig zu unpassenden Ergebnissen.
Auswahl des Sprachmodells
Für die Zusammenfassung der einzelnen Absätze wurde ein Sprachmodell genutzt. Die Auswahl des Sprachmodells erfordert eine Abwägung zwischen Leistungfähigkeit, Kosten und Datenschutz. Im vorliegenden Fall wurde eine Schnittstelle (API) zu ChatGPT genutzt. Da es sich um öffentliche Ausschreibungen ohne-personenbezogenen Inhalten handelte, waren die Datenschutzanforderungen vergleichsweise gering.
Nutzen für den Mittelstand
Die Ergebnisse zeigen, dass KI-Methoden das Lademanagement in mittelständischen Unternehmen optimieren können und eine praxisnahe Lösung zur effizienteren Nutzung der Ladeinfrastruktur bieten. Durch die datenbasierte Prognose von Standzeiten und Ladeverhalten lassen sich Ladevorgänge besser planen, Lastspitzen vermeiden und Energiekosten senken. Gleichzeitig ermöglicht das System eine intelligentere Nutzung von Eigenstrom – etwa aus Photovoltaik – und steigert so den Eigenverbrauch. Das reduziert nicht nur Betriebskosten, sondern trägt auch zur Netzstabilität und Nachhaltigkeit bei. Für Unternehmen bedeutet das weniger manuellen Aufwand, mehr Planungssicherheit und einen aktiven Beitrag zur Energiewende.

Prusseit & Reiss plant und realisiert Gewerbe- und Industriebauten, einschließlich Logistikzentren und Verwaltungsgebäuden. Sie bieten Dienstleistungen von der Projektentwicklung bis zur Bauleitung an.
Noch Fragen offen?
Unsere Projekte umfassen einen großen zeitlichen, organisatorischen und thematischen
Umfang. Erfragen Sie die Details einfach beim Projektverantwortlichen. Wir leiten Sie gerne weiter!


