Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Die ein- und zweidimensionale numerische Berechnung der Fließvorgänge in offenen Gerinnen findet zunehmend auch Anwendung in der Modellierung immer komplexerer Prozesse im unter Anderem im Bereich der Ökosystemmodellierung in Gebirgs- und Mittelgebirgsbächen. In diesem Bereich existieren zurzeit noch Probleme hinsichtlich der hydraulischen Prognoserechnungen. Neben den numerischen Grundlagen werden die Abhängigkeiten des Strömungsfeldes von der Rauheitsstruktur der Sohle und der Überdeckungshöhe behandelt. Zur Untersuchung der Fließwiderstandsgleichungen wurden Laborversuche in einer Versuchsrinne durchgeführt. Es wird gezeigt, dass der üblicherweise verwendete Ansatz des mittleren Sohlgefälles bei der Berechnung der Sohlschubspannungsgeschwindigkeit u* in Stufen-Becken-Sequenzen nicht zulässig ist. Stattdessen ist es erforderlich, die lokalen Energieliniengefälle zu bestimmen und einzusetzen. Die Anwendung der aus der Literatur bekannten Ansätze zur Beschreibung des Fließwiderstandes führt zu keinen befriedigenden Ergebnissen und wird ausführlich diskutiert. In der Untersuchung der verschiedenen Fließwiderstandsbeziehungen zeigte sich, dass insbesondere die ungenügende Beschreibung der Rauheitstruktur der Sohloberfläche durch einen charakteristischen Korndurchmesser des Sohlmaterials als unzureichend anzusehen ist. Hinsichtlich der Beschreibung rauer Oberflächenstrukturen wurde ein einfacher Segmentierungsalgorithmus entwickelt, der es erlaubt, komplizierte Oberflächenstrukturen zu vereinfachen und über die Standardabweichung abschnittsweise Rauheiten zuzuweisen. Dieses Verfahren wird in einem zweidimensionalen hydraulischen Modell eingesetzt. Hierdurch wird für die Wassertiefenbestimmung als auch für die Fließgeschwindigkeitsbestimmung eine Berücksichtigung der speziellen topographischen Verhältnisse ermöglicht.
Seit ihren Anfängen im ausgehenden 19. Jh. ist der brandenburgischen Hausforschung ein Phänomen in der Entwicklung des ländlichen Wohnhauses bekannt, das in der vorliegenden Arbeit als Typenwandel bezeichnet wird: Zahlreiche Landschaften der ehemaligen Kurmark Brandenburg wurden bis in das 18. Jh. hinein von einem giebelständigen Haustyp - dem sogenannten Märkischen Mittelflurhaus - geprägt. Im Verlauf des 18. und 19. jh. wurde dieser von einem traufständigen Haustyp - dem sogenannten Mitteldeutschen Ernhaus - >verdrängt<. Dieser Typenwandel ist wie jeder Wandel einer tradierten Hausform auf einen Komplex verschiedener Faktoren und Einflussgrößen zurückzuführen. Über diese Faktoren und Einflussgrößen bestehen in der bisherigen regionalen Hausforschung folgende Thesen: Zum einen wird angenommen, dass das Vorbild der im Rahmen der friderizianischen Kolonisation seit der Mitte des 18. Jh. zahlreich erbauten, traufständigen Kolonistenhäuser diesen Typenwandel beeinflusst oder ausgelöst habe. Zum anderen seien die baupolizeilichen Vorschriften und der Einfluss der preußischen Landbauschule - vertreten durch das Oberbaudepartement - ein auslösender oder beschleunigender Faktor gewesen. Aufgabe der Untersuchung ist es, diese Thesen anhand eines geeigneten Untersuchungsgebietes zu diskutieren. Als solches eignete sich das Oderbruch insbesondere, weil es das größte zusammenhängende Siedlungsgebiet auf deutscher Seite darstellt, das unter der Regentschaft Friedrichs des Großen kolonisiert wurde, und seine allmähliche Trockenlegung seit der Mitte des 18. Jh. von intensiven obrigkeitlichen Eingriffen begleitet war. Mit der zusätzlichen Abgrenzung der untersuchten Hausformen auf diejenigen der ländlichen Mittelschicht, d.h. auf die Häuser der Bauern, Fischer und Kossäten, basiert die zentrale stratigrafische Untersuchung des Wandlungsprozesses einerseits auf durch die Autorin selbst erarbeiteter Bauforschung am rezenten Hausbestand und andererseits auf der Auswertung umfangreichen Archivmaterials. Der durch zahlreiche Übergangsformen nachweisbare Prozess der Herausbildung des jüngeren Haustyps aus dem älteren Haustyp heraus widerlegt die bisherige Annahme, dass der Typenwandel lediglich eine Grenzverschiebung zwischen den geografischen Verbreitungsgebieten zweier frühneuzeitlicher Haustypen gewesen sei. Die archivalische Überlieferung zur friderizianischen Kolonisation, zum ländlichen Baugeschehen im ausgehenden 18. und beginnenden 19. Jh. sowie zur obrigkeitlichen Reglementierung des >Unterthanenbauwesens< erbringt den eindeutigen Nachweis, dass weder das Vorbild der Kolonistenhäuser noch irgendeine Form der obrigkeitlichen Einflussnahme für den Wandel vom giebelständigen zum traufständigen Haustyp von Bedeutung waren. Vielmehr erweisen sich die Auswirkungen der Agrarreformen auf die bäuerlichen Betriebe als der ausschlaggebende Faktor für den Typenwandel. Die bisher angewandten Begriffe zur Bezeichnung der Haustypen stellen sich im Ergebnis der Untersuchung nicht nur als irreführend sondern falsch heraus. Die Arbeit eröffnet deshalb eine Debatte zur Neudefinition der Typenbegriffe innerhalb der regionalen Hausforschung.
Das Langzeittragverhalten von Stützen aus Holz wird entscheidend von der Größe der Dauerlast und dem umgebenden Klima beeinflusst. Im Gegensatz zu Biegeträgern haben diese Effekte auch Einfluss auf den Grenzzustand der Tragfähigkeit und sind unmittelbar Gegenstand von Sicherheitsaspekten. Der Eurocode 5 beachtet dies überhaupt nicht, während in DIN 1052 (2004:08) Hinweise zur Bemessung gegeben sind. Da der Baustoff Holz infolge seines Wuchscharakters stark streuende Materialparameter aufweist, ist es kaum möglich, Experimente in ausreichendem Umfang durchzuführen. Gegen eine solche experimentelle Untersuchung sprechen auch die zu erwartenden hohen Kosten sowie die langandauernden Versuche unter Klimabeanspruchung. Aus diesem Grund wird auf virtuelle Versuche mit Hilfe des Computerprogramms ISOBEAM zurückgegriffen. Dazu sind allerdings abgesicherte Materialmodelle wichtig, die hier an Experimenten mit Klein- und Kleinstproben sowie mit Versuchkörpern baupraktisch relevanter Abmessungen angepasst wurden. Mit diesem verifizierten Modell war es möglich, gezielt Parameterstudien durchzuführen. Der Einfluss der Einbauholzfeuchte auf das hygrothermische Langzeittragverhalten wurde genauso untersucht wie der der Nutzungsklasse und der Querschnittsabmessungen. Die Ergebnisse der virtuellen Versuche dienten zum einen der Überprüfung der Vorgehensweise nach DIN 1052 (2004:08) und zum anderen zur Anpassung neuer Vorschläge zur Bemessung. Es wurde Wert darauf gelegt, dass sich die Vorschläge neuer Bemessungskonzepte an die bestehenden normativen Bemessungsregeln anlehnen. Zum einen wurde das Bemessungsverfahren nach Theorie II. Ordnung um eine weitere Ausmitte zur Berücksichtigung des Kriechens ergänzt, zum anderen wurde beim Ersatzstabverfahren der Beiwert entsprechend modifiziert. Alternativ ist es möglich, den Modifikationsbeiwert neu an die virtuellen Versuchsergebnisse anzupassen. Die Einbauholzfeuchte wurde ebenfalls über einen zusätzlichen Modifikationsfaktor berücksichtigt.
Neben dem Schwerpunkt der Verflüssigung werden auch Zusatzmittel benötigt, die extrem lange Verarbeitbarkeitszeiten des Betons ermöglichen. Eine neue Wirkungsgruppe, durch die Verarbeitbarkeitszeiten von über 90 Stunden er-reicht werden können, sind Langzeitverzögerer (LVZ) auf der Basis von Phosphonsäure. In systematischen Versuchen wurden grundlegende Erkenntnisse über die Wirkungsmechanismen von LVZ auf die Hydratation gewonnen. Es hat sich gezeigt, dass die verzögernde Wirkung von LVZ auf die Bildung von schwer löslichem Calciumphosphonat zurückzuführen ist, welches die Partikeloberflächen žabdichtetœ. Vom Angebot an gelöstem Calcium hängt es ab, ob sich das žabdichtendeœ Calciumphosphonat direkt bildet oder ob durch den Calciumanspruch des LVZ eine kurzzeitig verstärkte Hydratation reaktiver Klin-kerphasen hervorgerufen wird. Sulfatoptimierte Zemente wiesen aufgrund der Anteile an Sulfatträger genüge! nd Calcium-Ionen für eine sofortige Bildung von Calciumphosphonat auf. In Verbindung mit der Bildung von primärem Ettringit bildet die Sulfatträgeroptimierung die Grundlage für die erwünschte Wirkungsweise des Zusatzmittels.
In der Dissertation wurden unterschiedliche Methoden zur Standortidentifizierung mit Oberflächenwellen analysiert. Es wurden neue Methoden zur Parameteridentifikation unter Nutzung von Oberflächenwellen vorgeschlagen. Die Ziele der Arbeit können wie folgt definiert werden: a) Die Entwicklung eines geeigneten theoretischen Modells als Grundlage zur Untersuchung des Standortes hinsichtlich vorhandener Bodensteifigkeiten. b) Die Entwicklung einer neuen Inversionsmethodik unter Berücksichtigung aller auftretenden Moden im Oberflächenwellenfeld. Die Erstellung eines Modells des vertikal heterogenen Untergrundes erfolgte im Frequenz-bereichs für beliebig geschichtete Böden, aufbereitet durch weitestgehend analytische Formulierungen. Durch Nutzung beliebiger horizontaler, elastisch-isotroper Schichten konnte die vertikale Heterogenität approximiert werden. Die Definition der Green'schen Funktionen wurde in Form der Reflexions- und Transmissionskoeffizienten durchgeführt. Die Lösung des formulierten Halbraumproblems erfolgte unter Verwendung der Konturintegration. Dazu wurde die Vorgehensweise der bestehenden Lösung des homogenen Halbraums auf das Problem des geschichteten Mediums übertragen. Die daraus sich ergebende Lösung ist in ein Körperwellen- und ein Oberflächenwellenfeld separiert. Der Vorteil dieser analytischen Betrachtungsweise liegt in der eindeutigen Zuordnungsmöglichkeit der erhaltenen Lösungen zu Wellentypen und in der klaren Dispersionscharakteristik der berechneten Modelle. Im Gegensatz dazu liefern numerische Lösungen, wie FEM, immer ein Wellenfeld, in dem die Wellentypen zugeordnet bzw. interpretiert werden müssen. Mit Hilfe der synthetischen Bodenmodellierung wird das Verhalten von geschichteten Böden bei durchlaufenden Oberflächenwellenfeldern simuliert und untersucht. Für die Untersuchung der Profile wurde hauptsächlich die Modale Superposition von Oberflächenwellen und die Wellenzahl-Integration verwendet. Bei der Analyse von Oberflächenwellenfeldern in vorhandenen Medien sind abweichend von den üblichen seismischen Methoden spezielle Untersuchungsmethoden zur Ermittlung der vorhandenen Dispersion notwendig. Zur Durchführung der Dispersionsanalyse wird in geotechnischen Untersuchungen in der Regel das Phasen-Differenzen-Verfahren (SASW) genutzt. Aufgrund der beschränkten Aussagefähigkeit dieses Verfahrens zu auftretenden höheren Moden werden verbesserte Analysemethoden zur experimentellen Auswertung hinzugezogen. Diese Methoden nutzen zur Informationsgewinnung das räumlich ausgedehnte Wellenfeld. Ausgehend von dem Dispersionsverhalten kann die Bodenstruktur mittels inverser Methoden bestimmt werden. Für die gemeinsame Inversion der in den Messungen vorhandenen Moden wurde ein entsprechendes Inversionsverfahren abgeleitet. Als Grundlage der Inversion wurde ein Verfahren des kleinsten Fehlerquadrates gewählt. Der Vorteil hinsichtlich einer effizienten und stabilen Inversion unter Nutzung dieser Methodik überwiegt den Nachteil der lokalen Suche nach dem Fehlerminimum. Zum Erreichen der stabilen und zielgerichteten Inversion wird der Levenberg-Marquardt Algorithmus, zusammen mit der Wichtung der Dispersionsäste entsprechend ihres Anregungsverhaltens in den Dispersionsspektren, eingesetzt. Von Vorteil hat sich innerhalb der Arbeit die gleichzeitige Behandlung von theoretischen und experimentellen Parameterstudien erwiesen, da sich Ergebnisse und Erkenntnisse beider Seiten ergänzten. Eine Interpretation von Felddaten kann damit weitaus sicherer durchgeführt werden. Zusätzlich konnten die erarbeiteten experimentellen und theoretischen Verfahren gegenseitig überprüft werden.
Numerische Berechnung von Mauerwerkstrukturen in homogenen und diskreten Modellierungsstrategien
(2004)
Im Zentrum der Arbeit stehen die Entwicklung, Verifikation, Implementierung und Leistungsfähigkeit numerischer Berechnungsmodelle für Mauerwerk im Rahmen der Kontinuums- und Diskontinuumsmechanik. Makromodelle beschreiben das Mauerwerk als verschmiertes Ersatzkontinuum. Mikromodelle berücksichtigen durch die Modellierung der einzelnen Steine und Fugen die Struktur des Mauerwerkverbandes. Soll darüber hinaus der durch die Querdehnungsinteraktion zwischen Stein und Mörtel hervorgerufene heterogene Spannungszustand im Mauerwerk abgebildet werden, so ist ein detailliertes Mikromodell, welches Steine und Fugen in ihren exakten geometrischen Dimensionen berücksichtigt, erforderlich. Demgegenüber steht die vereinfachte Mikromodellierung, bei der die Fugen mit Hilfe von Kontaktalgorithmen beschrieben werden. Im Rahmen der Makromodellierung werden neue räumliche Materialmodelle für verschiedene ein- und mehrschalige Mauerwerkarten hergeleitet. Die vorgestellten Modelle berücksichtigen die Anisotropie der Steifigkeiten, der Festigkeiten sowie des Ver- und Entfestigungsverhaltens. Die numerische Implementation erfolgt mit Hilfe moderner elastoplastischer Algorithmen im Rahmen der impliziten Finite Element Methode in das Programm ANSYS. Innerhalb der detaillierten Mikromodellierung wird ein neues, aus Materialbeschreibungen für Stein, Mörtel sowie deren Verbund bestehendes nichtlineares Berechnungsmodell entwickelt und in das Programm ANSYS implementiert. Die diskontinuumsmechanische Beschreibung von Mauerwerk im Rahmen der vereinfachten Mikromodellierung erfolgt unter Verwendung der expliziten Distinkt Element Methode mit Hilfe der Programme UDEC und 3DEC. An praktischen Beispielen werden Probleme der Tragfähigkeitsbewertung gemauerter Bogenbrücken, Möglichkeiten zur Bewertung vorhandener Rissbildungen und Schädigungen an historischen Mauerwerkstrukturen und Traglastberechnungen an gemauerten Stützen ausgewertet und analysiert.
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
An Experimental Study on Hydro-Mechanical Characteristics of Compacted Bentonite-Sand Mixtures
(2005)
Nuclear and hazardous waste disposal issues have become universal issues and problems related to the final disposal of these waste including finding a suitable site, natural and engineered barriers used, construction of the repository, long-term performance assessment have gained increasing attention all over the world. High-level radioactive and hazardous waste are required to be buried in deep geological repositories. In Germany, the ongoing researches have assessed the suitability of salt-stone formation in the country as a host rock candidate for its nuclear waste repository. Bentonite-based materials have been proposed to be used as sealing and buffer elements for the nuclear waste repository. Several hydro-mechanical processes will take place in the field and influence behaviour of the sealing and buffer elements of the repository. In this dissertation, a study on the hydro-mechanical characterisation of bentonite-sand mixtures is presented. Mixtures of a calcium-type bentonite, named Calcigel, and quartz sand were used in the investigation. Series of experiments including basic and physico-chemical characterisation, microstructure and fabric studies, suction and swelling pressure measurements, wetting and drying test, one-dimensional compression-rebound test, one-dimensional cyclic wetting-drying test under constant vertical stress, and saturated permeability test were conducted. The experimental data obtained are analysed and several characteristics of the material are brought out in this dissertation. Conclusions regarding basic behaviour of the materials are drawn based on the results of microstructure and fabric studies. Factors influencing the magnitude of suction and swelling pressure of the materials are outlined and discussed. The suction-induced compression and rebound characteristics of the material are described. The wetting and drying behaviour as influenced by the material boundary conditions are discussed. Permeability characteristics of the materials are examined based on several available permeability models. Several mechanical and hydraulic parameters that can be used in modelling using some available constitutive modelling approaches are derived based on the experimental data. At the end, conclusions regarding the hydro-mechanical characteristics of the materials are drawn and suggestions for future studies are made.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der last- und zeitabhängigen Verformungseigenschaften und der Steifigkeits-Degradation von unbewehrtem Normalbeton und hochfestem, selbstverdichtendem Beton (SVB). Neben experimentellen Untersuchungen werden numerische Simmulationen des Beton-Kriechverhaltens unter kurzzeitiger, quasi-statischer, uniaxialer Druckbeanspruchung vorgenommen.
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Die projektgetriebene Bauwirtschaft wird dominiert durch einen branchenspezifischen Preiswettbewerb. Eine wissenschaftliche Auseinandersetzung mit den Gründen für diesen Preiswettbewerb und den Voraussetzungen für einen Leistungswettbewerb hat bislang kaum stattgefunden. Im Rahmen der vorliegenden Dissertation werden zunächst die bauwirtschaftlichen Besonderheiten hinsichtlich Bauwerk, Bauleistungen und Branchenstruktur, untersucht und die Auswirkung auf den Wettbewerb herausgearbeitet. Ziel einer Strategie des nicht preisbasierten Wettbewerbs muss es demnach insbesondere sein, die Risiken der Transaktion für den Kunden zu minimieren und die Nutzeneinschätzung des Kunden vor dem Kauf zu verbessern. In der vorliegenden Arbeit wird erstmals ein Grundmodell entwickelt, welches sämtliche Treiber eines Leistungswettbewerbs integriert. Grundlage hierfür sind die wirtschaftswissenschaftlichen Theorien der Produktdifferenzierung und der Differenzierungsstrategie aus den Bereichen Volkswirtschaftslehre, Marketing Management und Strategisches Management. Die Bestandteile des Modells auf Projektebene sind Qualität, Zeit und Varietät. Die Treiber auf Unternehmensebene sind Innovation und Marke. Neben den unmittelbaren Treibern des Leistungswettbewerbs wirken sich die Unternehmensstrukturen und Kernkompetenzen, die Zielmarktbestimmung und das Strategische Sourcing mittelbar auf die Performance des Unternehmens aus. Die Wirkungsweise der Treiber und die jeweilige Bedeutung für einen Leistungswettbewerb in der Bauwirtschaft werden im einzelnen dargestellt und erläutert. Die Dissertation stellt eine Grundlagenarbeit zum Thema Wettbewerbsstrategien in der Bauwirtschaft dar. Die Aspekte des Leistungswettbewerbs, in Abgrenzung zum Preiswettbewerb, stehen im Mittelpunkt der Arbeit. Im Zuge der Diskussion der Einzelaspekte wird qualitativ nachgewiesen, dass die Umsetzung einer Strategie des nicht preisbasierten Wettbewerbs in der Bauwirtschaft, einen positiven Einfluss auf die Performance des Unternehmens hat.
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
A Flexible Model for Incorporating Construction Product Data into Building Information Models
(2006)
When considering the integration and interoperability between AEC-FM software applications and construction products' data, it is essential to investigate the state-of-the-art and conduct an extensive review in the literature of both Building Information Models and electronic product catalogues. It was found that there are many reasons and key-barriers that hinder the developed solutions from being implemented. Among the reasons that are attributed to the failure of many previous research projects to achieve this integration aim are the proprietary developments of CAD vendors, the fragmented nature of construction product data i.e. commercial and technical data, the prefabrication versus on-site production, marketing strategies and brand-naming, the referencing of a product to the data of its constituents, availability of life-cycle data in a single point in time where it is needed all over the whole life-cycle of the product itself, taxonomy problems, the inability to extract search parameters from the building information model to participate in the conduction of parametric searches. Finally and most important is keeping the product data in the building information model consistent and up-to-date. Hence, it was found that there is a great potential for construction product data to be integrated to building information models by electronic means in a dynamic and extensible manner that prevents the model from getting obsolete. The study has managed to establish a solution concept that links continually updated and extensible life-cycle product data to a software independent building information model (IFC) all over the life span of the product itself. As a result, the solution concept has managed to reach a reliable building information model that is capable of overcoming the majority of the above mentioned barriers. In the meantime, the solution is capable of referencing, retrieving, updating, and merging product data at any point in time. A distributed network application that represents all the involved parties in the construction product value chain is simulated by real software tools to demonstrate the proof of concept of this research work.