Refine
Has Fulltext
- yes (45) (remove)
Document Type
- Doctoral Thesis (22)
- Article (8)
- Master's Thesis (6)
- Report (3)
- Conference Proceeding (2)
- Book (1)
- Part of a Book (1)
- Habilitation (1)
- Periodical (1)
Institute
- Professur Bodenmechanik (3)
- Professur Informatik im Bauwesen (3)
- F. A. Finger-Institut für Baustoffkunde (FIB) (2)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (2)
- Institut für Strukturmechanik (ISM) (2)
- Junior-Professur Augmented Reality (2)
- Junior-Professur Computational Architecture (2)
- Professur Interface Design (2)
- An-Institute (1)
- Erdbebenzentrum (1)
Keywords
- Beton (3)
- Architektur (2)
- Bauplanung (2)
- Bemessung (2)
- Bender elements (2)
- Erdbeben (2)
- IFC (2)
- Mehrskalenanalyse (2)
- Mehrskalenmodell (2)
- Optimierung (2)
Year of publication
- 2009 (45) (remove)
Bei der Produktion von Betonsteinen mit vollautomatischen Steinformmaschinen ist das Füllen der Form mit Betongemenge die erste Phase des Formgebungs- und Verdichtungsprozesses. Trotz langjähriger praktischer Erfahrungen mit Steinformmaschinen wird der Formgebungs- und Verdichtungsprozess nicht ausreichend stabil beherrscht. Im industriellen Routinebetrieb erweist sich insbesondere die Realisierung einer gleichmäßigen Füllung als das primäre Problem. Die in dieser Phase entstehenden Defizite beeinflussen direkt die Qualität der zu erzeugenden Betonsteine. Eine Kompensation dieser Mängel ist mit den nachfolgenden Prozessphasen nicht mehr möglich. Die Zielstellung der vorliegenden Arbeit ist es, ausgehend von einer systematischen Analyse des Formgebungs- und Verdichtungsprozesses im Allgemeinen und der Analyse des Füllvorganges im Besonderen, die tatsächlich an Steinformmaschinen erreichbare Füllungsgüte zu ermitteln, Einflüsse auf die erreichte Füllungsgüte und deren Wechsel-beziehungen zu untersuchen sowie ein Modell zur Beschreibung und Simulation des Füllvorganges zu entwickeln und zu verifizieren. Als wesentliche Voraussetzung für eine systematische Analyse der Füllstufe(n), wird eine Methode zur Berechnung und Bewertung der Füllungsgüte entwickelt. Grundlage der Methode bildet dabei die systematische Erfassung der Steinmassen mi von vollständigen, aufeinander folgend gefertigten Einheiten. Entsprechend der Lage innerhalb der Form und der Folge der gefertigten Einheiten werden die Massen als quantitatives stetiges Merkmal der zu untersuchenden Grundgesamtheit in eine Urliste editiert und für die weitere Auswertung genutzt. Unter Anwendung der entwickelten Methode zur Berechnung und Bewertung der Füllungsgüte wird das tatsächlich im industriellen Routinebetrieb erreichbare Niveau analysiert. Dafür werden in einem erstmals durchgeführten, umfangreichen Feldversuch an elf Steinformmaschinen in Deutschland und der Schweiz die erreichten Füllungsgüten erfasst, die Prozessabläufe dokumentiert und die Wechselbeziehungen zwischen den eingefüllten Massen mi und den Einflussgrößen mit Hilfe der Varianzanalyse nach Variationsursache untersucht. Darüber hinaus werden ausgewählte Festbeton-eigenschaften der Proben bestimmt und deren Korrelation zu den jeweils erreichten Massen mi mit Hilfe der empirischen Regression analysiert. Basierend auf den systematischen Prozessbeobachtungen im industriellen Routinebetrieb wird unter Berücksichtigung der Füllwagenkinematik, des Gemengefüllstandes im Füllwagen und der sukzessiven Übergabe diskreter Massen in die Formzellen ein phänomenologisches Modell zur Beschreibung der ersten Füllstufe entwickelt. Das Bewegungsverhalten des Füllwagens und das Fließverhalten des zu verarbeitenden Betongemenges werden dabei zunächst stark vereinfacht dargestellt. Unter Berücksichtigung der zeilenabhängigen Überdeckungszeit und des Füllstandes im Füllwagen werden koordinatenabhängige Druckprofile im Füllraum, so genannte Zellendruck-Zeit-Funktionen, entwickelt. Als Arbeitshypothese wird formuliert, dass mit diesen Funktionen die unterschiedlichen Bedingungen während des Füllvorgangs im Prozessraum beschrieben werden können und diese Funktionen darüber hinaus mit den im Ergebnis des Vorgangs eingefüllten Massen mi korrelieren. Zur numerischen Nachbildung der ersten Füllstufe bei der Betonsteinherstellung wird die auf der Diskrete-Elemente-Methode basierenden Simulationssoftware Particle Flow Code in 3 Dimensions genutzt. Damit wird es möglich, den Verlauf des Füllprozesses und die sich im Prozessraum ausbildenden Fließprofile durch eine realitätsnahe Computeranimation detailliert und gut einsehbar darzustellen. An Hand der numerisch erzeugten Füllungsgüten wird eine Gegenüberstellung mit den empirischen Ergebnissen möglich. Gleichzeitig erfolgt die Berechnung der Druck-Zeit-Funktionen am Boden aller Formzellen, um kausale Wechselbeziehungen zwischen der Füllaufgabe, der Füllausrüstung und dem Prozessverlauf bzw. dem Prozessergebnis aufzeigen zu können. Zur Verifizierung des der Simulation zu Grunde gelegten Gesamtmodells wird das numerische Experiment an einer speziellen Versuchseinrichtung nachgestellt. Um die Aufnahme der Zellendruck-Zeit-Funktionen während des Füllens vornehmen zu können, ohne dadurch den Füllvorgang zu stören, wird ein eigens für den Verifizierungsversuch entwickelter Drucksensor genutzt. Auf allen Abstraktionsebenen werden die Ergebnisse mit den für den industriellen Routinebetrieb entwickelten Methoden ausgewertet und gegenübergestellt. Mit Hilfe von Varianzanalysen wird die Einflussstärke verschiedener Parameter verglichen. Zur Überprüfung der Arbeitshypothese werden die Zellendruck-Zeit-Funktionen während der numerischen und der realen Experimente aufgenommen und die Korrelationen zu den eingefüllten Massen mi überprüft.
This text proposes a genealogy of biopolitics based on Michel Foucault’s thought, and on an understanding of it as a philosophico-political notion. In order to elaborate this genealogy, the text takes as its starting point not only politics but also life, as the second component of the term. The hypothesis is the following: To understand what biopolitics means, we have to take seriously Foucault’s assertion of an indetermination of life, as the correlate of power and knowledge. This notion emerges in the epistemic break that takes place around 1800 and that entails the opening up of the notion of biopolitics under the name of governmentality, implying that life is not only the object of biopolitics but also serves as its model.
Die vorliegende Arbeit beschäftigt sich mit den bodenmechanischen Ursachen von Gründungsschäden sowie Techniken zu deren Sanierung. Kernaufgabe ist es, einen Auswahlprozess zu entwickeln, mit dem im konkreten Schadensfall das zweckmäßigste technische Verfahren zur Sanierung bestimmt werden kann. Hierzu werden zunächst mögliche Schadensursachen katalogisiert. Anschließend werden die gegenwärtig in Deutschland gebräuchlichsten Sanierungstechniken analysiert und einander gegenübergestellt. Zur Ermittlung der geeignetsten Sanierungstechnik in einem realen Projekt wird ein allgemeiner zweistufiger Entscheidungsalgorithmus vorgeschlagen. Dieser setzt sich aus einem Entscheidungsbaum mit anschließender Nutzwertanalyse zusammen. Ergebnis des Algorithmus’ ist ein Ranking, welches die infrage kommenden Techniken nach ihrem Nutzen für die Sanierung ordnet. Anhand zweier Praxisbeispiele - dem Schloss Schwerin und der St. Jacobi-Schlosskirche in Osterode am Harz - wird abschließend die Wirkungsweise des Algorithmus demonstriert. Ergebnis der Arbeit ist, dass die Formulierung eines allgemeinen entscheidungsbaumes, der jedwede Eventualität einer speziellen Bauaufgabe berücksichtigt, nahezu unmöglich ist. Der entwickelte Entscheidungsbaum ist mitunter noch zu ungenau um die Auswahl an Techniken ausreichend einzuschränken. Die darum als zweite Stufe etablierte Nutzwertanalyse erwies sich als effiziente und transparente Entscheidungshilfe. Bei ihr ist jedoch die Gefahr einer subjektiven Beeinflussung der Entscheidung durch den Planer gegeben. In einem konkreten Projekt könnte durch eine Verfeinerung des Baumes seine Selektion wesentlich verbessert werden, so dass am Ende nur eine einzige Technik als zweckmäßigste ausgewiesen wird. Eine Nutzwertanalyse könnte in diesem Fall als zweite Stufe entfallen.
Bauwerke sind in der Regel Unikate, für die meist eine komplette und aufwändige Neuplanung durchzuführen ist. Der Umfang und die Verschiedenartigkeit der einzelnen Planungsaufgaben bedingen ein paralleles Arbeiten der beteiligten Fachplaner. Darüber hinaus ist die Bauplanung ein kreativer und iterativer Prozess, der durch häufige Änderungen des Planungsmaterials und Abstimmungen zwischen den Fachplanern gekennzeichnet ist. Mithilfe von speziellen Fachanwendungen erstellen die Planungsbeteiligten verschiedene Datenmodelle, zwischen denen fachliche Abhängigkeiten bestehen. Ziel der Arbeit ist es, die Konsistenz der einzelnen Fachmodelle eines Bauwerks sicherzustellen, indem Abhängigkeiten auf Basis von Objektversionen definiert werden. Voraussetzung dafür ist, dass die Fachanwendungen nach dem etablierten Paradigma der objektorientierten Programmierung entwickelt wurden. Das sequentielle und parallele Arbeiten mehrerer Fachplaner wird auf Basis eines optimistischen Zugriffsmodells unterstützt, das ohne Schreibsperren auskommt. Weiterhin wird die Historie des Planungsmaterials gespeichert und die Definition von rechtsverbindlichen Freigabeständen ermöglicht. Als Vorbild für die Systemarchitektur diente das Softwarekonfigurationsmanagement, dessen Versionierungsansatz meist auf einem Client-Server-Modell beruht. Die formale Beschreibung des verwendeten Ansatzes wird über die Mengenlehre und Relationenalgebra vorgenommen, so dass er allgemeingültig und technologieunabhängig ist. Auf Grundlage dieses Ansatzes werden Konzepte für den Einsatz versionierter Objektmodelle im Bauwesen erarbeitet und mit einer Pilotimplementierung basierend auf einer Open-Source-Ingenieurplattform an einem praxisnahen Szenario verifiziert. Beim Entwurf der Konzepte wird besonderer Wert auf die Handhabbarkeit der Umsetzung gelegt. Das betrifft im Besonderen die hierarchische Strukturierung des Projektmaterials, die ergonomische Gestaltung der Benutzerschnittstellen und der Erzielung von geringen Anwortzeiten. Diese Aspekte sind eine wichtige Voraussetzung für die Effizienz und Akzeptanz von Software im praktischen Einsatz. Bestehende Fachanwendungen können durch geringen Entwicklungsaufwand einfach in die verteilte Umgebung integriert werden, ohne sie von Grund auf programmieren zu müssen.
Physicochemical forces are responsible for the swelling pressure development in saturated bentonites. In this paper, the swelling pressures of several compacted bentonite specimens for a range of dry density of 1.10–1.73 Mg/m3 were measured experimentally. The clay used was a divalent-rich Ca-Mg-bentonite with 12% exchangeable Na+ ions. The theoretical swelling pressure–dry density relationship for the bentonite was determined from the Gouy-Chapman diffuse double-layer theory. A comparison of experimental and theoretical results showed that the experimental swelling pressures are either smaller or greater than their theoretical counterparts within different dry density ranges. It is shown that for dry density of the clay less than about 1.55 Mg/m3, a possible dissociation of ions from the surface of the clay platelets contributed to the diffuse double-layer repulsion. At higher dry densities, the adsorptive forces due to surface and ion hydration dominated the swelling pressures of the clay. A comparison of the modified diffuse double-layer theory equations proposed in the literature to determine the swelling pressures of compacted bentonites and the experimental results for the clay in this study showed that the agreement between the calculated and experimental swelling pressure results is very good for dry densities less than 1.55 Mg/m3, whereas at higher dry densities the use of the equations was found to be limited.
Spatial time domain reflectometry (spatial TDR) is a new measurement method for determining water content profiles along elongated probes (transmission lines). The method is based on the inverse modeling of TDR reflectograms using an optimization algorithm. By means of using flat ribbon cables it is possible to take two independent TDRmeasurements from both ends of the probe, which are used to improve the spatial information content of the optimization results and to consider effects caused by electrical conductivity. The method has been used for monitoring water content distributions on a full-scale levee model made of well-graded clean sand. Flood simulation tests, irrigation tests, and long-term observations were carried out on the model. The results show that spatial TDR is able to determine water content distributions with an accuracy of the spatial resolution of about ±3 cm compared to pore pressure measurements and an average deviation of ±2 vol % compared to measurements made using another independent TDR measurement system.
VHB-JOURQUAL represents the official journal ranking of the German Academic Association for Business Research. Since its introduction in 2003, the ranking has become the most influential journal evaluation approach in German-speaking countries, impacting several key managerial decisions of German, Austrian, and Swiss business schools. This article reports the methodological approach of the ranking’s second edition. It also presents the main results and additional analyses on the validity of the rating and the underlying decision processes of the respondents. Selected implications for researchers and higher-education institutions are discussed.
Keramische Werkstoffe stellen bewährte, ästhetisch ansprechende und dauerhafte Baustoffe dar. Sie können als ökologisch wertvoll, gesund und wirtschaftlich eingestuft werden (Wagner et al. 1998)... Zum Einsatz von Sekundärrohstoffen in keramische Massen, d.h. zur Herstellung keramischer Erzeugnisse wurden bereits zahlreiche Untersuchungen durchgeführt. ... Die Zielstellung der vorliegenden Arbeit liegt daher in der umfassenden Beurteilung des Einsatzes von Sekundärrohstoffen in silikatkeramische Massen. Als Sekundärrohstoffe wurden Gesteins- sowie Glas- bzw. glashaltige Reststoffe unterschiedlicher Zusammensetzungen gewählt. ...
Untersuchungen adaptiver Modellanpassungen für Probleme dynamischer Bauwerks-Bodeninteraktion
(2009)
Die Eigenschaften des Baugrunds können das dynamische Verhalten eines Bauwerks in erheblichem Maße beeinflussen. Um daraus resultierende Veränderungen der Tragwerksbeanspruchung ermitteln zu können, muss der Boden in den Berechnungsmodellen zur Bestimmung der Tragwerksbeanspruchung berücksichtigt werden. Die möglichen Modellierungsvarianten unterscheiden sich in ihrer Komplexität erheblich. Im Rahmen dieser Arbeit wird das dynamische Verhalten eines konkreten Bauwerks, der Millikan Library, an einem numerischen Modell untersucht. Während das Partialmodell Bauwerk während der Untersuchungen unverändert bleibt, werden für den Boden verschiedene Modellierungsvarianten verwendet. Allen Bodenmodellen gemein ist, dass sie auf einfachen, gekoppelten Feder-Dämpferelementen beruhen. Die mit den unterschiedlichen Modellierungsvarianten des Bodens erzielten Ergebnisse werden einander gegenüber gestellt und mit dem, im Rahmen anderer Arbeiten experimentell bestimmten, dynamischen Verhalten des untersuchten Bauwerks verglichen.
Seit Anfang der 80er Jahre stehen Zusatzmittel (engl. Shrinkage Reducing Admixture – SRA) der bauchemischen Industrie zur Verfügung, die das Schwinden von Zementstein und Beton reduzieren können. In der vorliegenden Arbeit wurden die Wirkungsmechanismen schwindreduzierender Zusatzmittel (SRA) und darin enthaltener Wirkstoffe in Zementstein systematisch untersucht. Es hat sich gezeigt, dass das autogene Schwinden von Zementstein wurde durch handelsübliche Schwindreduzierer und darin enthaltene Wirkstoffe im Alter von einem halben Jahr um bis zu 77 % reduziert. Durch Schwindreduzierer wurden in Bezug auf die jeweiligen Referenzproben ohne SRA die Anteile an Gelporen im Zementstein erhöht und die Anteile an Kapillarporen verringert. Gleichzeitig stellte sich in den Zementsteinen mit Schwindreduzierer bzw. den darin enthaltenen Wirkstoffen bei konservierender Lagerung eine höhere innere Ausgleichsfeuchte ein als in den jeweiligen Referenzproben ohne SRA. Die bisherige Annahme, die Abminderung des Schwindens durch SRA sei nur auf die Reduzierung der Oberflächenspannung der Porenlösung zurückzuführen, ist nur bedingt zutreffend. Während der Hydratation des Zements wird Wasser verbraucht und in Hydratphasen eingebaut. Hierbei reichern sich die SRA-Moleküle in der Porenlösung des Zementsteins an und verstärken die Spaltdruckwirkung der Porenlösung zwischen den Gelpartikeln. Dadurch wird das autogene Schwinden des Zementsteins vermindert.
The present study analysis the environmental benefits of urban vegetation within the municipal boundary of a megacity through multi scale integrated modelling to estimate its benefits approximately. The advantages (and challenges) that Nature, inserted into cities, offers to the population are observed from different viewpoints. As geographical reference the profile of megacities located in low (tropical) latitudes was observed, in a case study on the city of São Paulo/ Brazil. Commonly, urban vegetation is overlooked by local people, governments and economical structures. Although sparse vegetation exists, it is hardly recognized. Along the brief history of rapid urbanization which is accompanied by massive environmental degradation, urban green becomes, in the dispute for space, a true luxury in cities like São Paulo. Not as retrogression but as advance, it demonstrates that the integration between nature and city would be desirable. The approximated quantification of the variations which occur between actual scenario and greened scenarios shows the need to rethink the urban biome as a man-dominated ecosystem. The benefits of the urban vegetation are diverse. This work details plants as agents of climatic and ecosystem balance and performance. It also approaches current issues like climate change, energy efficiency and thermal comfort, as well as the purification of natural resources, through the treatment of water, soil and air. Especially because at present no efficient technical solutions exist, that could substitute the environmental services of the vegetation. These benefits contribute to quality of life and increase socio-environmental equity especially important in high-contrast megacities. The vegetation assumes two important roles in cities. The functional dimension brings concrete and measurable benefits to the environment. From a symbolic vision, vegetation represents Nature in cities, approximating humans to their origins. Conclusively the study defends the importance of the valorization of Nature and of the united efforts for literally green cities because it proves that financial investment in urban vegetation has direct effects on the costs destined to the areas of health and infrastructure. The City of São Paulo, invested in 2008 about US$ 180 million (one hundred and eighty million dollars) in urban green (and environment) which tends to save US$ 980 million (nine hundred and eighty million dollars) of expenses annually. In other words, for each US$ 1 invested in planting and maintenance of urban green, the society saves at least US$ 5 of expenses in health, construction of French drains, energy etc.
The Healthy Cities concept is based on the New Public Health approach. It aims at health promotion at the local level by encouraging community participation and intersectoral collaboration. The paper summarizes findings of research on the Australian Healthy Cities Projects. The long-term study was conducted by the author and is based on a method mix. The results of the study can partially be transferred to Healthy Cities initiatives in other parts of the world. The concept can be linked to Local Agenda 21 initiatives (sustainable urban development).
Identity management provides PET (privacy enhancing technology) tools for users to control privacy of their personal data. With the support of mobile location determination techniques based on GPS, WLAN, Bluetooth, etc., context-aware and location-aware mobile applications (e.g. restaurant finder, friend finder, indoor and outdoor navigation, etc.) have gained quite big interest in the business and IT world. Considering sensitive static personal information (e.g. name, address, phone number, etc.) and also dynamic personal information (e.g. current location, velocity in car, current status, etc.), mobile identity management is required to help mobile users to safeguard their personal data. In this paper, we evaluate certain required aspects and features (e.g. context-to-context dependence and relation, blurring in levels, trust management with p3p integration, extended privacy preferences, etc.) of mobile identity management
Die Planung komplexer Bauwerke erfolgt zunehmend mit rechnergestützten Planungswerkzeugen, die den Export von Bauwerksinformationen im STEP-Format auf Grundlage der Industry Foundation Classes (IFC) ermöglichen. Durch die Verfügbarkeit dieser Schnittstelle ist es möglich, Bauwerksinformationen für eine weiterführende applikationsübergreifende Verarbeitung bereitzustellen. Ein großer Teil der bereitgestellten Informationen bezieht sich auf die geometrische Beschreibung der einzelnen Bauteile. Um den am Bauprozess Beteiligten eine optimale Auswertung und Analyse der Bauwerksinformationen zu ermöglichen, ist deren Visualisierung unumgänglich. Das IFC-Modell stellt diese Daten mit Hilfe verschiedener Geometriemodelle bereit. Der vorliegende Beitrag beschreibt die Visualisierung von IFC-Objekten mittels Java3D. Er beschränkt sich dabei auf die Darstellung von Objekten, deren Geometrie mittels Boundary Representation (Brep) oder Surface-Model-Repräsentation beschrieben wird.
Die betriebsfeste Auslegung von Hochdruckbauteilen ist technisch-wirtschaftlich notwendig. In dieser Arbeit werden die wissenschaftlichen Grundlagen dafür erarbeitet. Die technische Entwicklung der Hochdruckbauteile führt insbesondere bei Dieselmotoren zu stetig steigenden Drücken und damit zu einer wachsenden Herausforderung bei der Festigkeitsauslegung. Bei Hochdruckbauteilen sind die Möglichkeiten der Schwingfestigkeitssteigerung, z. B. durch Wanddickenvergrößerung oder durch den Einsatz höherfester Werkstoffe, begrenzt. Eine breite industrielle Anwendung findet derzeit die Autofrettage. Bei diesem Verfahren erzeugt eine einmalige statische Überlast tief in das Bauteil reichende Druckeigenspannungsfelder, die zu einer erheblichen Schwingfestigkeitssteigerung, insbesondere in der Rissfortschrittsphase, führen. Zuverlässige Lebensdauervorhersageverfahren für diese Phase existieren derzeit nicht. Sie werden in der vorliegenden Arbeit entwickelt und anhand experimenteller Ergebnisse verifiziert. Für das Berechnungsverfahren fand ein ingenieurmäßiger Ansatz Verwendung. Darin sollten zwar alle relevanten Effekte abgebildet werden, jedoch Komplexität und Modellierungsaufwand so gering wie möglich gehalten werden. Die gewählten Berechnungsmodule sind nach erfolgter Analyse der Literatur entnommen. Sie umfassen die Berechnung der Autofrettageeigenspannungen, der Spannungsintensität, des Rissöffnungs- und Rissschließverhalten und des Rissfortschrittes. Das Modul Eigenspannungsberechnung für die Autofrettage basiert auf der Superposition von Autofrettagebe- und -entlastung und ermöglicht die notwendige Berücksichtung des Bauschinger-Effektes. Spannungsintensitäten werden mit einer 3D-Gewichtsfunktion für einen ebenen Riss unter Mode I Beanspruchung ermittelt, weil aufgrund der Symmetrie der meisten Hochdruckbauteile das stabile Langrisswachstum ausschließlich unter Mode I Beanspruchung stattfindet. Die Rissöffnungs- und -schließeffekte werden über Näherungsformeln abgebildet. In der Anwendung dieser Näherungsformeln hat sich die Rissöffnungsbeziehung nach Ibrahim et. al. durch den Vergleich mit von rechnerischen mit experimentellen Lebensdaueren als am Besten geeignet erwiesen. Bei dem untersuchten Werkstoff 42CrMo4 spielen die Reihenfolgeeffekte eine untergeordnete Bedeutung und werden deshlab nicht modelliert. Für die Rissfortschrittsbeziehung konnte auf die Formulierung der Paris-Erdogan Beziehung für effektive Schwingweiten zurückgegriffen werden. Die gewählten Berechnungsmodule sind nach erfolgter Analyse der Literatur entnommen, aber in dieser Zusammenstellung ein neuer Ansatz. Da die Einzelmodule nur in geringem Umfang zu verifizieren sind, kann das Berechnungsverfahren nur in seiner Gesamtheit durch den Vergleich von experimentellen zu vorhergesagten Lebensdauern und Dauerfestigkeiten überprüft werden. In verschiedenen Sensitivitätsanalysen konnten für die Berechnungsparameter Rissöffnungsbeziehung, Anfangsrisslänge, Bruchzähigkeit, Rissfortschrittsgleichung und Schwellwert der Spannungsintensität der Einfluss auf die berechnete Rissfortschrittslebensdauer und -dauerfestigkeit aufgezeigt werden. So hat der Schwellwert der Spannungsintensität einen geringen Einfluss auf die Vorhersage der Rissstillstandsdauerfestigkeit autofrettierter Kreuzbohrungen, weil der Rissöffnungsdruck sehr nahe am Maximaldruck ist. Eine andere Sensitivitätsanalyse zeigt beispielsweise, dass sich die längsten Rissfortschrittslebensdauern bei Verwendung der Rissöffnungsbeziehung nach Ibrahim et. al. ergeben, weil diese Beziehung die größten Rissöffnungsdrücke vorhersagt. Für die Verifikation des Berechnungsverfahrens sind Innendruckschwellversuche an insgesamt 14 Versuchsreihen mit Kreuzbohrungen durchgeführt worden. Die allgemeine Anwendbarkeit des Berechnungsverfahrens konnte durch die Anwendung auf Kreuzbohrungen aus den Forschungsvorhaben Autofrettage I-III, auf Railstücke und auf Hochdruckverteilerleisten nachgewiesen werden. Auch hier stützt sich die Verifikation auf umfangreiche experimentelle Ergebnisse. Die statistische Auswertung des Verhältnisses der vorhergesagten zu experimentellen Lebensdauern und Schwingfestigkeiten aller untersuchten Bohrungsverschneidungen zeigt eine gute mittlere Vorhersagegüte bei geringer Streuung. Damit ist die Leistungsfähigkeit der vorgestellten Lebensdauervorhersagemethode nachgewiesen.
Im Rahmen des sich derzeit vollziehenden Wandels von der segmentierten, zeichnungsorientierten zur integrierten, modellbasierten Arbeitsweise bei der Planung von Bauwerken und ihrer Erstellung werden Computermodelle nicht mehr nur für die physikalische Simulation des Bauwerksverhaltens, sondern auch zur Koordination zwischen den einzelnen Planungsdisziplinen und Projektbeteiligten genutzt. Die gemeinsame Erstellung und Nutzung dieses Modells zur virtuellen Abbildung des Bauwerks und seiner Erstellungsprozesse, das sog. Building Information Modeling (BIM), ist dabei zentraler Bestandteil der Planung. Die Integration der Terminplanung in diese Arbeitsweise erfolgt bisher jedoch nur unzureichend, meist lediglich in der Form einer nachgelagerten 4D-Simulation zur Kommunikation der Planungsergebnisse. Sie weist damit im Verhältnis zum entstehenden Zusatzaufwand einen zu geringen Nutzen für den Terminplaner auf. Gegenstand der vorliegenden Arbeit ist die tiefere Einbettung der Terminplanung in die modellbasierte Arbeitsweise. Auf Basis einer umfassende Analyse der Rahmenbedingungen und des Informationsbedarfs der Terminplanung werden Konzepte zur effizienten Wiederverwendung von im Modell gespeicherten Daten mit Hilfe einer Verknüpfungssprache, zum umfassenden Datenaustausch auf Basis der Industry Foundation Classes (IFC) und für das Änderungsmanagement mittels einer Versionierung auf Objektebene entwickelt.Die für die modellbasierte Terminplanung relevanten Daten und ihre Beziehungen zueinander werden dabei formal beschrieben sowie die Kompatibilität ihrer Granularität durch eine Funktionalität zur Objektteilung sichergestellt. Zur zielgenauen Extraktion von Daten werden zudem Algorithmen für räumliche Anfragen entwickelt. Die vorgestellten Konzepte und ihre Anwendbarkeit werden mittels einer umfangreichen Pilotimplementierung anhand von mehreren Praxisbeispielen demonstriert und somit deren praktische Relevanz und Nutzen nachgewiesen.
From a macroscopic point of view, failure within concrete structures is characterized by the initiation and propagation of cracks. In the first part of the thesis, a methodology for macroscopic crack growth simulations for concrete structures using a cohesive discrete crack approach based on the extended finite element method is introduced. Particular attention is turned to the investigation of criteria for crack initiation and crack growth. A drawback of the macroscopic simulation is that the real physical phenomena leading to the nonlinear behavior are only modeled phenomenologically. For concrete, the nonlinear behavior is characterized by the initiation of microcracks which coalesce into macroscopic cracks. In order to obtain a higher resolution of this failure zones, a mesoscale model for concrete is developed that models particles, mortar matrix and the interfacial transition zone (ITZ) explicitly. The essential features are a representation of particles using a prescribed grading curve, a material formulation based on a cohesive approach for the ITZ and a combined model with damage and plasticity for the mortar matrix. Compared to numerical simulations, the response of real structures exhibits a stochastic scatter. This is e.g. due to the intrinsic heterogeneities of the structure. For mesoscale models, these intrinsic heterogeneities are simulated by using a random distribution of particles and by a simulation of spatially variable material parameters using random fields. There are two major problems related to numerical simulations on the mesoscale. First of all, the material parameters for the constitutive description of the materials are often difficult to measure directly. In order to estimate material parameters from macroscopic experiments, a parameter identification procedure based on Bayesian neural networks is developed which is universally applicable to any parameter identification problem in numerical simulations based on experimental results. This approach offers information about the most probable set of material parameters based on experimental data and information about the accuracy of the estimate. Consequently, this approach can be used a priori to determine a set of experiments to be carried out in order to fit the parameters of a numerical model to experimental data. The second problem is the computational effort required for mesoscale simulations of a full macroscopic structure. For this purpose, a coupling between mesoscale and macroscale model is developed. Representative mesoscale simulations are used to train a metamodel that is finally used as a constitutive model in a macroscopic simulation. Special focus is placed on the ability of appropriately simulating unloading.
Carl Heinrich Ferdinand Streichhan prägte zwischen 1848 und 1884 als Oberbaudirektor maßgeblich das Baugeschehen im Großherzogtum Sachsen-Weimar-Eisenach. Beauftragt mit für die zweite Hälfte des 19. Jahrhunderts typischen staatlichen Bauaufgaben, hinterließ er als Architekt ein zwar nicht sehr umfängliches, jedoch facettenreiches und zumindest regional bedeutendes Werk. Geprägt wurde seine Baugesinnung durch die dem Schinkel´schen Vorbild und einem spezifischen, selektiven Historismus verpflichtete, sogenannte Berliner Schule, der Streichhan zeit seines Berufslebens eng verbunden blieb. Neben einer Würdigung des Oeuvres fokussiert die Arbeit auf das weitgefächerte Aufgabenspektrum eines leitend im Staatsdienst tätigen „Bautechnikers“, das – wie zeitgenössisch üblich – sowohl konstruktiv planende als auch vielfältige administrative Tätigkeiten, ingenieurtechnische Leistungen ebenso wie baukünstlerische umfasste. Streichhans Bildungsweg, Laufbahn und berufliches Selbstverständnis sind für den Baubeamten des (mittleren) 19. Jahrhunderts ebenso typisch wie schließlich, infolge beschleunigter Wandlungsprozesse ab 1871, nicht mehr zeitgemäß: Im Kontext tiefgreifender Umwälzungen veränderten sich auch die Handlungsfelder der Architekten und die Bedingungen architektonischen Schaffens, wie Streichhans Wirken paradigmatisch belegt.
Die Architekten, Künstler und Designer des Bauhauses prägten mit neuem gestalterischen Geist eine unverwechselbare Bauhaus-Handschrift. Ausgehend von Weimar schrieben sie sich damit in die Weltkulturgeschichte ein. Nachdem das Bauhaus 1933 dem Nationalsozialismus in Deutschland zum Opfer gefallen war, lebten Idee und Praxis des Bauhauses mit den emigrierenden Lehrern und Schülern im Ausland weiter. Weltweit existieren noch heute Gebäude, Produkte und Kunstwerke, die durch das Bauhaus entstanden sind, von ihm inspiriert wurden oder darauf Bezug nehmen. Mit dem Projekt ImpulsBauhaus versuchen Jens Weber und Andreas Wolter, die weltweite Verbreitung und Einflussnahme des Bauhauses anhand der Beziehungen, Bewegungen und Werke seiner Vertreter bis in die Gegenwart nachvollziehbar zu machen. Das Projekt besteht aus zwei Teilen. Die ImpulsBauhaus-Forschungsplattform ist eine Datenbank, in der Informationen über Bauhaus-Vertreter gesammelt und mithilfe von Analysetools und Visualisierungsinstrumenten ausgewertet werden können. Der zweite Teil besteht aus einer räumlichen Inszenierung der Informationsbestände – der ImpulsBauhaus-Ausstellung. Ausgangspunkt des Projekts ImpulsBauhaus war neben dem kunstwissenschaftlichen Interesse die Frage, wie mit heutigen digitalen Mitteln große Informationsmengen verwaltet, analysiert und visualisiert werden können.
Weiterführende Informationen zum Projekt finden sich auf der Website http://impuls-bauhaus.de, wo auch interessierte Wissenschaftler und Autoren Zugang zur ImpulsBauhaus-Forschungsplattform erhalten.
Theory and application of optimization strategies for the design of seismically excited structures
(2009)
The study introduces into the theory and application of optimization strategies in earthquake engineering. The optimization algorithm substitutes the intuitive solution of practical problems done by the engineer in daily practice, providing automatic design tools and numerical means for further exploration of the design space for various extremum states. This requires a mathematical formulation of the design task, that is provided for typical seismic evaluations within this document. Utilizing the natural relation between design and optimization tasks, appropriate mechanical concepts are developed and discussed. The explanations start with an overview on the mechanical background for continua. Hereby the focus is placed on elasto-plastic structures. The given extremum formulations are treated with help of discretization methods in order to obtain optimization problems. These basics are utilized for derivation of programs for eigenvalue and stability analysis, that are applied in simplified linear analysis for the design of seismically excited structures. Another focus is set on the application in simplified nonlinear design, that uses limit state analyses on the basis of nonlinear problem formulations. Well known concepts as the response and pushover analysis are covered as well as alternative strategies on the basis of shakedown theory or cycle and deformation based evaluations. Furthermore, the study gives insight into the application of optimization problems in conjunction with nonlinear time history analyses. The solution of step-by-step procedures within optimization algorithms is shown and aspects of dynamic limit state analyses are discussed. For illustration of the great variety of optimization-based concepts in earthquake engineering, several specialized applications are presented, e.g. the generation of artificial ground motions and the determination of reduction coefficients for design spectrum reduction due to viscous and hysteretic damping. As well alternative strategies for the design of base isolated structures with controlled impact are presented. All presented applications are illustrated with help of various examples.