56 Bauwesen
Refine
Document Type
- Doctoral Thesis (46)
- Article (31)
- Master's Thesis (17)
- Conference Proceeding (11)
- Preprint (9)
- Bachelor Thesis (6)
- Report (4)
- Book (2)
- Periodical (2)
- Study Thesis (1)
Institute
- Institut für Strukturmechanik (ISM) (28)
- Junior-Professur Computational Architecture (16)
- Professur Baubetrieb und Bauverfahren (12)
- Professur Informatik in der Architektur (12)
- Professur Modellierung und Simulation - Konstruktion (8)
- F. A. Finger-Institut für Baustoffkunde (FIB) (6)
- Professur Stahl- und Hybridbau (4)
- Institut für Konstruktiven Ingenieurbau (IKI) (3)
- Professur Bauphysik (3)
- Professur Betriebswirtschaftslehre im Bauwesen (3)
Keywords
- Architektur (8)
- OA-Publikationsfonds2022 (7)
- Aerodynamik (5)
- BIM (5)
- Bridge (5)
- OA-Publikationsfonds2020 (5)
- Beton (4)
- CAD (4)
- Erdbeben (4)
- Ingenieurwissenschaften (4)
How does it come to particular structure formations in the cities and which strengths play a role in this process? On which elements can the phenomena be reduced to find the respective combination rules? How do general principles have to be formulated to be able to describe the urban processes so that different structural qualities can be produced? With the aid of mathematic methods, models based on four basic levels are generated in the computer, through which the connections between the elements and the rules of their interaction can be examined. Conclusions on the function of developing processes and the further urban origin can be derived.
PLANUNGSUNTERSTÜTZUNG DURCH DIE ANALYSE RÄUMLICHER PROZESSE MITTELS COMPUTERSIMULATIONEN. Erst wenn man – zumindest im Prinzip – versteht, wie eine Stadt mit ihren komplexen, verwobenen Vorgängen im Wesentlichen funktioniert, ist eine sinnvolle Stadtplanung möglich. Denn jede Planung bedeutet einen Eingriff in den komplexen Organismus einer Stadt. Findet dieser Eingriff ohne Wissen über die Funktionsweise des Organismus statt, können auch die Auswirkungen nicht abgeschätzt werden. Dieser Beitrag stellt dar, wie urbane Prozesse mittels Computersimulationen unter Zuhilfenahme so genannter Multi-Agenten-Systeme und Zellulärer Automaten verstanden werden können. von
At the end of the 1960s, architects at various universities world- wide began to explore the potential of computer technology for their profession. With the decline in prices for PCs in the 1990s and the development of various computer-aided architectural design systems (CAAD), the use of such systems in architectural and planning offices grew continuously. Because today no ar- chitectural office manages without a costly CAAD system and because intensive soſtware training has become an integral part of a university education, the question arises about what influence the various computer systems have had on the design process forming the core of architectural practice. The text at hand devel- ops ten theses about why there has been no success to this day in introducing computers such that new qualitative possibilities for design result. RESTRICTEDNESS
The structure and development of cities can be seen and evaluated from different points of view. By replicating the growth or shrinkage of a city using historical maps depicting different time states, we can obtain momentary snapshots of the dynamic mechanisms of the city. An examination of how these snapshots change over the course of time and a comparison of the different static time states reveals the various interdependencies of population density, technical infrastructure and the availability of public transport facilities. Urban infrastructure and facilities are not distributed evenly across the city – rather they are subject to different patterns and speeds of spread over the course of time and follow different spatial and temporal regularities. The reasons and underlying processes that cause the transition from one state to another result from the same recurring but varyingly pronounced hidden forces and their complex interactions. Such forces encompass a variety of economic, social, cultural and ecological conditions whose respective weighting defines the development of a city in general. Urban development is, however, not solely a product of the different spatial distribution of economic, legal or social indicators but also of the distribution of infrastructure. But to what extent is the development of a city affected by the changing provision of infrastructure? As
In the Space Syntax community, the standard tool for computing all kinds of spatial graph network measures is depthmapX (Turner, 2004; Varoudis, 2012). The process of evaluating many design variants of networks is relatively complicated, since they need to be drawn in a separated CAD system, exported and imported in depthmapX via dxf file format. This procedure disables a continuous integration into a design process. Furthermore, the standalone character of depthmapX makes it impossible to use its network centrality calculation for optimization processes. To overcome this limitations, we present in this paper the first steps of experimenting with a Grasshopper component (reference omitted until final version) that can access the functions of depthmapX and integrate them into Grasshopper/Rhino3D. Here the component is implemented in a way that it can be used directly for an evolutionary algorithm (EA) implemented in a Python scripting component in Grasshopper
The described study aims to find correlations between urban spatial configurations and human emotions. To this end, the authors measured people’s emotions while they walk along a path in an urban area using an instrument that measures skin conductance and skin temperature. The corresponding locations of the test persons were measured recorded by using a GPS-tracker (n=13). The results are interpreted and categorized as measures for positive and negative emotional arousal. To evaluate the technical and methodological process. The test results offer initial evidence that certain spaces or spatial sequences do cause positive or negative emotional arousal while others are relatively neutral. To achieve the goal of the study, the outcome was used as a basis for the study of testing correlations between people’s emotional responses and urban spatial configurations represented by Isovist properties of the urban form. By using their model the authors can explain negative emotional arousal for certain places, but they couldn’t find a model to predict emotional responses for individual spatial configurations.
Urban planning involves many aspects and various disciplines, demanding an asynchronous planning approach. The level of complexity rises with each aspect to be considered and makes it difficult to find universally satisfactory solutions. To improve this situation we propose a new approach, which complement traditional design methods with a computational urban plan- ning method that can fulfil formalizable design requirements automatically. Based on this approach we present a design space exploration framework for complex urban planning projects. For a better understanding of the idea of design space exploration, we introduce the concept of a digital scout which guides planners through the design space and assists them in their creative explorations. The scout can support planners during manual design by informing them about potential im- pacts or by suggesting different solutions that fulfill predefined quality requirements. The planner can change flexibly between a manually controlled and a completely automated design process. The developed system is presented using an exemplary urban planning scenario on two levels from the street layout to the placement of building volumes. Based on Self-Organizing Maps we implemented a method which makes it possible to visualize the multi-dimensional solution space in an easily analysable and comprehensible form.
It's not uncommon that analysis and simulation methods are used mainly to evaluate finished designs and to proof their quality. Whereas the potential of such methods is to lead or control a design process from the beginning on. Therefore, we introduce a design method that move away from a “what-if” forecasting philosophy and increase the focus on backcasting approaches. We use the power of computation by combining sophisticated methods to generate design with analysis methods to close the gap between analysis and synthesis of designs. For the development of a future-oriented computational design support we need to be aware of the human designer’s role. A productive combination of the excellence of human cognition with the power of modern computing technology is needed. We call this approach “cognitive design computing”. The computational part aim to mimic the way a designer’s brain works by combining state-of-the-art optimization and machine learning approaches with available simulation methods. The cognition part respects the complex nature of design problems by the provision of models for human-computation interaction. This means that a design problem is distributed between computer and designer. In the context of the conference slogan “back to command”, we ask how we may imagine the command over a cognitive design computing system. We expect that designers will need to let go control of some parts of the design process to machines, but in exchange they will get a new powerful command on complex computing processes. This means that designers have to explore the potentials of their role as commanders of partially automated design processes. In this contribution we describe an approach for the development of a future cognitive design computing system with the focus on urban design issues. The aim of this system is to enable an urban planner to treat a planning problem as a backcasting problem by defining what performance a design solution should achieve and to automatically query or generate a set of best possible solutions. This kind of computational planning process offers proof that the designer meets the original explicitly defined design requirements. A key way in which digital tools can support designers is by generating design proposals. Evolutionary multi-criteria optimization methods allow us to explore a multi-dimensional design space and provide a basis for the designer to evaluate contradicting requirements: a task urban planners are faced with frequently. We also reflect why designers will give more and more control to machines. Therefore, we investigate first approaches learn how designers use computational design support systems in combination with manual design strategies to deal with urban design problems by employing machine learning methods. By observing how designers work, it is possible to derive more complex artificial solution strategies that can help computers make better suggestions in the future.
In this paper we introduce LUCI, a Lightweight Urban Calculation Interchange system, designed to bring the advantages of a calculation and content co-ordination system to small planning and design groups by the means of an open source middle-ware. The middle-ware focuses on problems typical to urban planning and therefore features a geo-data repository as well as a job runtime administration, to coordinate simulation models and its multiple views. The described system architecture is accompanied by two exemplary use cases that have been used to test and further develop our concepts and implementations.
Nanostructured materials are extensively applied in many fields of material science for new industrial applications, particularly in the automotive, aerospace industry due to their exceptional physical and mechanical properties. Experimental testing of nanomaterials is expensive, timeconsuming,challenging and sometimes unfeasible. Therefore,computational simulations have been employed as alternative method to predict macroscopic material properties. The behavior of polymeric nanocomposites (PNCs) are highly complex.
The origins of macroscopic material properties reside in the properties and interactions taking place on finer scales. It is therefore essential to use multiscale modeling strategy to properly account for all large length and time scales associated with these material systems, which across many orders of magnitude. Numerous multiscale models of PNCs have been established, however, most of them connect only two scales. There are a few multiscale models for PNCs bridging four length scales (nano-, micro-, meso- and macro-scales). In addition, nanomaterials are stochastic in nature and the prediction of macroscopic mechanical properties are influenced by many factors such as fine-scale features. The predicted mechanical properties obtained by traditional approaches significantly deviate from the measured values in experiments due to neglecting uncertainty of material features. This discrepancy is indicated that the effective macroscopic properties of materials are highly sensitive to various sources of uncertainty, such as loading and boundary conditions and material characteristics, etc., while very few stochastic multiscale models for PNCs have been developed. Therefore, it is essential to construct PNC models within the framework of stochastic modeling and quantify the stochastic effect of the input parameters on the macroscopic mechanical properties of those materials.
This study aims to develop computational models at four length scales (nano-, micro-, meso- and macro-scales) and hierarchical upscaling approaches bridging length scales from nano- to macro-scales. A framework for uncertainty quantification (UQ) applied to predict the mechanical properties
of the PNCs in dependence of material features at different scales is studied. Sensitivity and uncertainty analysis are of great helps in quantifying the effect of input parameters, considering both main and interaction effects, on the mechanical properties of the PNCs. To achieve this major
goal, the following tasks are carried out:
At nano-scale, molecular dynamics (MD) were used to investigate deformation mechanism of glassy amorphous polyethylene (PE) in dependence of temperature and strain rate. Steered molecular dynamics (SMD)were also employed to investigate interfacial characteristic of the PNCs.
At mico-scale, we developed an atomistic-based continuum model represented by a representative volume element (RVE) in which the SWNT’s properties and the SWNT/polymer interphase are modeled at nano-scale, the surrounding polymer matrix is modeled by solid elements. Then, a two-parameter model was employed at meso-scale. A hierarchical multiscale approach has been developed to obtain the structure-property relations at one length scale and transfer the effect to the higher length
scales. In particular, we homogenized the RVE into an equivalent fiber.
The equivalent fiber was then employed in a micromechanical analysis (i.e. Mori-Tanaka model) to predict the effective macroscopic properties of the PNC. Furthermore, an averaging homogenization process was also used to obtain the effective stiffness of the PCN at meso-scale.
Stochastic modeling and uncertainty quantification consist of the following ingredients:
- Simple random sampling, Latin hypercube sampling, Sobol’ quasirandom sequences, Iman and Conover’s method (inducing correlation in Latin hypercube sampling) are employed to generate independent and dependent sample data, respectively.
- Surrogate models, such as polynomial regression, moving least squares (MLS), hybrid method combining polynomial regression and MLS, Kriging regression, and penalized spline regression, are employed as an approximation of a mechanical model. The advantage of the surrogate models is the high computational efficiency and robust as they can be constructed from a limited amount of available data.
- Global sensitivity analysis (SA) methods, such as variance-based methods for models with independent and dependent input parameters, Fourier-based techniques for performing variance-based methods and partial derivatives, elementary effects in the context of local SA, are used to quantify the effects of input parameters and their interactions on the mechanical properties of the PNCs. A bootstrap technique is used to assess the robustness of the global SA methods with respect to their performance.
In addition, the probability distribution of mechanical properties are determined by using the probability plot method. The upper and lower bounds of the predicted Young’s modulus according to 95 % prediction intervals were provided.
The above-mentioned methods study on the behaviour of intact materials. Novel numerical methods such as a node-based smoothed extended finite element method (NS-XFEM) and an edge-based smoothed phantom node method (ES-Phantom node) were developed for fracture problems. These methods can be used to account for crack at macro-scale for future works. The predicted mechanical properties were validated and verified. They show good agreement with previous experimental and simulations results.
Superplasticizers are utilized both to improve the fluidity during the placement and to reduce the water content of concretes. Both effects have also an impact on the properties of the hardened concrete. As a side effect the presence of superplasticizers affects the strength development of concretes that is strongly retarded. This may lead to an ecomomical drawback of the concrete manufacturing. The present work is aimed at gaining insights on the causes of the retarding effect of superplasticizers on the hydration of Portland cement. In order to simplify the complex interactions occurring during the hydration of Portland cement the majority of the work focuses on the interaction of superplasticizer and tricalcium silicate (Ca3SiO5 or C3S, the main compound of Portland cement clinker). The tests are performed in three main parts accompanied by methods as for example isothermal conduction calorimetry, electrical conductivity, Electron Microscopy, ICP-OES, TOC, as well as Analytical Ultracentrifugation.
In the first main part and based on the interaction of cations and anionic charges of polymers, the interactions between calcium ions and superplasticizers are investigated. As a main effect calcium ions are complexed by the functional groups of the polymers (carboxy, sulfonic). Calcium ions may be both dissolved in the aqueous phase and a constitute of particle interfaces. Besides these effects it is furthermore shown that superplasticizers induce the formation of nanoscaled particles which are dispersed in the aqueous phase (cluster formation). Analogous to recent findings in the field of biomineralization, it is reasonable to assume that these nanoparticles influence the crystal growth by their assembly process.
Based on the assumption that superplasticizers hinder either or both dissolution and precipitation and by that retard the cement hydration, the impact on separate reactions is investigated. On experiments that address the solubility of C-S-H phases and portlandite, it is shown that complexation of calcium ions in the aqueous phase by functional groups of polymers increases the solubility of portlandite. Contrary, in case of C-S-H solubility the complexation of calcium ions in solution leads to decrease of the calcium ion concentration in the aqueous phase. These effects are explained by differences in adsorption of polymers on C-S-H phases and portlandite. It is proposed that adsorption is stronger on C-S-H phases compared to portlandite due to the increased specific surface area of C-S-H phases. Following that, it is claimed that before polymers are able to adsorb on C-S-H phases the functional groups must be screened by calcium ions in the aqueous phase. It is further shown that data regarding the impact of superplasticizers on the unconstrained dissolution rate of C3S does not provide a clear relation to the overall retarding effect occurring during the hydration of C3S. Both increased and decreased dissolution rate with respect to the reference sample are detected. If the complexation capability of the superplasticizers is considered then also a reduced dissolution rate of C3S is determined. Despite the fact that the global hydration process is accelerated, the addition of calcite leads to a slower dissolution rate. Thus, a hindered unconstrained dissolution of C3S as possibly cause for the retarding effect still remains open for discussion. In the last section of this part, the pure crystallization of hydrate phases (C-S-H phases, portlandite) is fathomed. Results clearly show that superplasticizers prolong the induction time and modify the rate of crystal growth during pure crystallization in particular due to the complexation of ions in solution. But this effect is insufficient to account for the overall retarding effect. Further important factors are the blocking of crystal growth faces by adsorbed polymers and the dispersion of nanoscaled particles which hinders their agglomeration in order to build up crystals.
In the last main part of the work, the previously gathered results are utilized in order to investigate hydration kinetics. During hydration, dissolution and precipitation occur in parallel. Thereby, special attention is laid on the ion composition of the aqueous phase of C3S pastes and suspensions in order to determine the rate limiting step. All in all it is concluded that the retarding effect of superplasticizers on the hydration of tricalcium silicate is based on the retardation of crystallization of hydrate phases (C-S-H phases and portlandite). Thereby, the two effects complexation of calcium ions on surfaces and stabilization of nanoscaled particles are of major importance. These mechanisms may partly be compensated by template performance and increase in solubility by complexation of ions in solution. The decreased dissolution rate of C3S by the presence of superplasticizers during the in parallel occuring hydration process can only be assessed indirectly by means of the development of the ion concentrations in the aqueous phase (reaction path). Whether this observation is the cause or the consequence within the dissolution-precipitation process and therefore accounts for the retarding effect remains a topic for further investigations.
Besides these results it is shown that superplasticizers can be associated chemically with inhibitors because they reduce the frequency factor to end the induction period. Because the activation energy is widely unaffected it is shown that the basic reaction mechanism sustain. Furthermore, a method was developed which permits for the first time the determination of ion concentrations in the aqueous phase of C3S pastes in-situ. It is shown that during the C3S hydration the ion concentration in the aqueous phase is developed correspondingly to the heat release rate (calorimetry). The method permits the differentiation of the acceleration period in three stages. It is emphasized that crystallization of the product phases of C3S hydration, namely C-S-H phases and portlandite, are responsible for the end of the induction period.
Some caad packages offer additional support for the optimization of spatial configurations, but the possibilities for applying optimization are usually limited either by the complexity of the data model or by the constraints of the underlying caad system. Since we missed a system that allows to experiment with optimization techniques for the synthesis of spatial configurations, we developed a collection of methods over the past years. This collection is now combined in the presented open source library for computational planning synthesis, called CPlan. The aim of the library is to provide an easy to use programming framework with a flat learning curve for people with basic programming knowledge. It offers an extensible structure that allows to add new customized parts for various purposes. In this paper the existing functionality of the CPlan library is described.
When working on urban planning projects there are usually multiple aspects to consider. Often these aspects are contradictory and it is not possible to choose one over the other; instead, they each need to be fulfilled as well as possible. In this situation ideal solutions are not always found because they are either not sought or the problems are regarded as being too complex for human capabilities.To improve this situation we propose complementing traditional design approaches with a design synthesis process based on evolutionary many-criteria optimization methods that can fulfill formalizable design requirements. In addition we show how self-organizing maps can be used to visualize many-dimensional solution spaces in an easily analyzable and comprehensible form.The system is presented using an urban planning scenario for the placement of building volumes.
The increasing success of BIM (Building Information Model) and the emergence of its implementation in 3D construction models have paved a way for improving scheduling process. The recent research on application of BIM in scheduling has focused on quantity take-off, duration estimation for individual trades, schedule visualization, and clash detection.
Several experiments indicated that the lack of detailed planning causes about 30% non-productive time and stacking of trades. However, detailed planning still has not been implemented in practice despite receiving a lot of interest from researchers. The reason is associated with the huge amount and complexity of input data. In order to create a detailed planning, it is time consuming to manually decompose activities, collect and calculate the detailed information in relevant. Moreover, the coordination of detailed activities requires much effort for dealing with their complex constraints.
This dissertation aims to support the generation of detailed schedules from a rough schedule. It proposes a model for automated detailing of 4D schedules by integrating BIM, simulation and Pareto-based optimization.
Viele Baudenkmale sind dem Konflikt aus baulichem Instandsetzungsbedarf für eine zeitgemäße Nutzung und einer sich möglicherweise daraus ergebenden Gefährdung der Denkmalsubstanz ausgesetzt. Gründe sind steigende Energiekosten für den Gebäudebetrieb, zeitgemäße Anforderungen an Behaglichkeit und Arbeitsschutz, sowie die Vermeidung von Schäden an der Substanz aufgrund baulicher Mängel des konstruktiven Wärme- und Feuchteschutzes. Gleichzeitig gilt für viele Bauten aber auch die Notwendigkeit regelmäßiger Nutzung und Bewirtschaftung, um den Erhalt überhaupt zu sichern. Die energetische Ertüchtigung von Baudenkmalen scheitert in diesem Spannungsfeld oft am unlösbaren Konflikt zwischen dem Erhalt der bauzeitlichen Substanz auf der einen und der notwendigen energetischen Optimierung der Gebäudehülle auf der anderen Seite. Zielsetzung dieser Fallstudie ist die beispielhafte Entwicklung einer bauklimatischen und denkmalgerechten Ertüchtigungsstrategie am Beispiel eines Verwaltungsgebäudes der Nachkriegsmoderne als Beitrag zur Lösung dieses Konfliktes.
Baulogistische Vorgänge sind in einer modern angelegten Baustelle der Schlüssel zu einer wirtschaftlichen Abwicklung. Dieses gilt nicht nur für den Rohbau, bei dem die sehr enge Verzahnung zwischen den Fertigungs- und Logistikprozessen auf der Baustelle zu beobachten ist, sondern noch mehr für die Ausbauphase, bei der vermeintlich unabhängig voneinander agierende Einzelunternehmen des Ausbaus auf engem Raum miteinander um die jeweils besten Liefer- und Montagebedingungen konkurrieren.
Ausgehend von einer aktuellen Großbaustelle in Jena werden verschiedene Varianten einer leistungsfähigen Baulogistik entwickelt und deren Implementierung auf der Baustelle vorbereitet werden.
The focus of the thesis is to process measurements acquired from a continuous
monitoring system at a railway bridge. Temperature, strain and ambient vibration
records are analysed and two main directions of investigation are pursued.
The first and the most demanding task is to develop processing routines able to extract modal parameters from ambient vibration measurements. For this purpose, reliable experimental models are achieved on the basis of a stochastic system identification(SSI) procedure. A fully automated algorithm based on a three-stage clustering is implemented to perform a modal parameter estimation for every single measurement. After selecting a baseline of modal parameters, the evolution of eigenfrequencies is
studied and correlated to environmental and operational factors.
The second aspect deals with the structural response to passing trains. Corresponding
triggered records of strain and temperature are processed and their assessment is
accomplished using the average strains induced by each train as the reference parameter.
Three influences due to speed, temperature and loads are distinguished and treated individually. An attempt to estimate the maximum response variation due to each factor is also carried out.
Der Entwurfsraum für den Entwurf eines Tragwerks ist ein n-dimensionaler Raum, der aus allen freien Parametern des Modells aufgespannt wird.
Traditionell werden nur wenige Punkte dieses Raumes durch eine numerische (computergestützte) Simulation evaluiert, meist auf Basis der Finite-Elemente-Methode.
Mehrere Faktoren führen dazu, dass heute oft viele Revisionen eines Simulationsmodells durchlaufen werden: Zum einen ergeben sich oft Planungsänderungen, zum anderen ist oft die Untersuchung von Planungsalternativen und die Suche nach einem Optimum wünschenswert.
In dieser Arbeit soll für ein vorhandenes Finite-Elemente-Framework die sequentielle Datei-Eingabeschnittstelle durch eine Netzwerkschnittstelle ersetzt werden, die den Erfordernissen einer interaktiven Arbeitsweise entspricht. So erlaubt die hier konzipierte Schnittstelle interaktive, inkrementelle Modelländerungen sowie Status- und Berechnungsergebnis-Abfragen durch eine bidirektionale Schnittstelle.
Die Kombination aus interaktiver numerischer Simulation und Interoperabilität durch die Anwendung von Konzepten zur Bauwerks-Informations-Modellierung im Tragwerksentwurf ist Ziel dieser Dissertation. Die Beschreibung der Konzeption und prototypischen Umsetzung ist Gegenstand der schriftlichen Arbeit.
Im vorliegenden Buch sind die Ergebnisse eines studentischen Entwurfsprojektes dokumentiert, welches im Wintersemester 2012/13 an der Bauhaus-Universität in Weimar am Lehrstuhl Informatik in der Architektur (InfAR) stattgefunden hat. Das Projekt wurde in Zusammenarbeit mit Psychologen, Kognitions- und Computerwissenschaftlern des DFG geförderten Forschungsprojektes SFB/TR8 „Spatial Cognition“ Bremen/Freiburg konzipiert und durchgeführt.
Die Entwicklung von Hybridtechnologien führt zu vielen neuartigen und effizienten Anwen-dungen. Hybridtechnologien kommen immer dann zum Einsatz, wenn die ausschließliche Nutzung einer Technologie oder eines Werkstoffs nicht zum gewünschten Ergebnis führt. Dann kann durch Kombination unterschiedlicher Werkstoffe oder Technologien ein System geschaffen werden, das in seiner Konfiguration ein Optimum an Eigenschaften darstellt.
Im Bauwesen geht die Entwicklung schon seit jeher in Richtung von immer schlankeren ar-chitektonisch ansprechenden Konstruktionen. In der gegenwärtigen Entwicklung ermöglichen hochtechnologische Kunststoffe und Faserwerkstoffe, wie z. B. Kohlenstofffasern, sehr schlanke, leichte und dennoch hochtragfähiger Konstruktionen. Der wirtschaftliche Aspekt bei der Entwicklung von Tragsystemen bzw. -strukturen erfordert dabei in fast allen Fällen eine kostengünstig effiziente Ausbildung und die Optimierung von Trageigenschaften und Kostenfaktoren. Daher besteht oft die Anforderung nach einem Verbundsystem, bei dem unterschiedliche Materialien in der Art miteinander kombiniert werden, dass jeder Werkstoff für eine bestimmte Beanspruchung angeordnet wird und sein Tragfähigkeitspotenzial optimal ausschöpft. Im Rahmen dieser Arbeit werden an konkreten Beispielen Möglichkeiten aufge-zeigt, Hochtechnologiewerkstoffe in effizienter Art und Weise zu nutzen.
Der Kunststoff-Faser-Verbundwerkstoff stellt eine Möglichkeit dar, den als solches nur für dünnschichtige Klebverbindungen nutzbaren Klebstoff in seinen Anwendungsmöglichkeiten zu erweitern. Die Fasern wirken dabei dem mechanischen Schwachpunkt des Klebstoffs, einer nur geringen Zugfestigkeit, effektiv entgegen. Mit faserverstärkten Klebstoff können Anwendungen realisiert werden, bei denen der Klebstoff auch zur Zugkraftübertragung ge-nutzt wird. Zusätzlich bieten Füllstoffe eine Möglichkeit, die Steifigkeit des Klebstoffs zu stei-gern, was für viele mechanischen Beanspruchungen Vorteile mit sich bringt. Die Kombination aus einem partikelgefüllten und zusätzlich faserverstärkten Klebstoff führt zu einem Ver-bundwerkstoff, der für viele unterschiedliche Anwendungen geeignet ist. Praktische Anwen-dungsmöglichkeiten finden sich in der Herstellung von Fassadenelementen, wo der faserver-stärkte Klebstoff zur Verbindung von Aluminiumhohlprofilen verwendet wird. Weitere Anwen-dungsgebiete erstrecken sich auf die Zugkraftbewehrung von Betontragelementen, bei denen der faserverstärkte Klebstoff die Rolle einer Zugbewehrung an der Betonoberfläche übernimmt.
Alu-CFK-Hybridelemente ermöglichen die Herstellung sehr effizienter Tragsysteme, bei de-nen Gewichtsreduzierung der Tragstruktur und Kosteneinsparungen im Betrieb des Bauwerks gleichermaßen ermöglicht werden. Die CFK-Lamellen werden dabei in den am stärksten längskraftbeanspruchten Bereichen eines Aluminiumtragelementes angeordnet, wodurch sich die Biegetragfähigkeit des dann hybriden Tragelements signifikant erhöht. In der Folge können Gewichtsreduzierungen, verglichen mit herkömmlichen Aluminiumtragelementen, erzielt werden. Weiterhin können die Querschnittsaußenmaße bei Alu-CFK-Hybridelementen deutlich reduziert werden. In der Folge vereinfachen sich der Transport und die Montage dieser Art Tragwerke, was besonders bei fliegenden Bauten einen wesentlichen Vorteil dar-stellt.
Der Einsatz von Glas-Kunststoff-Hybridelementen ermöglicht die Konstruktion transparenter Tragstrukturen in einer optisch einzigartigen Qualität. Die Konstruktion eines Glas-Kunststoff-Hybridelementes ermöglicht ein redundant wirkendes Tragverhalten, bei dem die Steifigkeit und optische Qualität des Glases optimal im Tragsystem genutzt werden können. Der Kunst-stoff stellt eine Art Sicherheitselement dar und übernimmt im Falle eines Glasbruchs die Tragwirkung des Glases. Die Eigenschaft der Vorankündigung eines Systemversagens stellt die Grundlage für eine baupraktische Anwendung des Glas-Kunststoff-Hybridelementes als statisches Tragsystem dar. Durch die Redundanz des Tragverhaltens von Glas-Kunststoff-Hybridelementen ist das Versagen dieser Tragstruktur durch optische oder strukturelle An-zeichen erkennbar und eine Bemessung somit möglich.
Für die mechanische Analyse grundlegender Zusammenhänge in Hybridsystemen können ingenieurmäßige, analytische und numerische Betrachtungen durchgeführt werden. Die in-genieurmäßigen Betrachtungen sind sehr gut geeignet, um Abschätzungen zu treffen, die in später durchgeführten experimentellen Bauteiluntersuchungen oft auch ihre Bestätigung fan-den. Bei Detailbetrachtungen, wie z. B. der Analyse eines nichtlinearen Spannungsverlaufes in mechanisch beanspruchten Klebfugen, bietet eine numerische Betrachtung mittels FEM Vorteile, da sie eine sehr detaillierte Auswertung in Bereichen mit hohen Spannungsgradien-ten ermöglicht. Durch die Anwendung der FEM ist es möglich, Strukturen in unterschiedlichen Skalierungsbereichen zu analysieren und dabei auch Bereiche einzubeziehen, die für experimentelle Untersuchungen nur sehr schwer zugänglich sind. Genaue Kenntnisse über das Materialverhalten der zu analysierenden Stoffe stellen dabei eine wesentliche Grundlage für die Erstellung qualitativ hochwertiger Rechenmodelle dar.
Der Komplexität einer großen Baumaßnahme steht meist ein relativ unpräzises Termincontrolling gegenüber. Die Gründe dafür liegen in unzureichenden Baufortschrittsinformationen und der Schwierigkeit, eine geeignete Steuerungsmaßnahme auszuwählen. In der Folge kommt es häufig zu Terminverzügen und Mehrkosten.
Ziel der Arbeit war es, die realen Bau-Ist-Zustände eines Bauprojektes so genau zu erfassen, dass es möglich wird, täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes zu schaffen und mit Hilfe eines Simulationswerkzeuges nachzubilden. Zu diesem Zweck sollte ein Erfassungskonzept ausgearbeitet werden, mit dessen Hilfe unter Verwendung von Erfassungstechniken aussagekräftige sowie belastbare Daten zu einer auf die Anforderungen der Simulation abgestimmten Datenbasis zusammengeführt werden.
Um der Zielstellung gerecht zu werden, wurde anhand eines Beispiels ein Prozessmodell aufgebaut und definiert, welche Informationen zum Aufbau eines Simulationsmodells, das die reaktive Ablaufplanung unterstützt, erfasst werden müssen. Die einzelnen Prozessgrößen wurden detailliert beschrieben und die Erfassungsgrößen daraus abgeleitet. Weiterhin wurden Aussagen zur Prozessstrukturierung erarbeitet. Somit wurden Informationsstützstellen definiert.
Es wurden Methoden zur Erfassung des Bau-Ist-Zustandes hinsichtlich ihrer Eignung sowie Anwendungsmöglichkeiten analysiert und ausgewählte Anwendungsbeispiele für RFID, Barcodes und Bautagebücher dargestellt. Außerdem wurde betrachtet, welche Daten der baustelleneigenen Bauablaufdokumentation zur Belegung der Informationsstützstellen genutzt werden können. Diese Betrachtung stellte Dokumente in den Fokus, welche aufgrund von Vorschriften oder Vertragsbedingungen ohnehin auf Baustellen erfasst werden müssen.
Schließlich wurden die vorangegangenen Betrachtungen hinsichtlich der Erfassungsgrößen und der Erfassungsmethoden in einem Erfassungskonzept zusammengeführt und eine geeignete Kombination von Erfassungsmethoden entwickelt.
Der Baufortschritt soll anhand der Beschreibung, welchen Status die einzelnen Vorgänge angenommen haben, mit Hilfe eines digitalen Bautagebuchs erfasst werden. Die Randbedingungen, wie die Verfügbarkeit von Personal-, Material- und Geräteressourcen, werden mit Hilfe von RFID-Tags identifiziert, auf denen alle weiteren benötigten Informationen hinterlegt sind. Informationen über Ressourcen, welche geplante Termine wiedergeben, müssen ebenfalls im digitalen Bautagebuch hinterlegt und aktuell gehalten werden. Traditionelle Lieferscheine in Papierform müssen durch digitale Lieferscheine ersetzt werden.
Abgeschlossen wurde die Ausarbeitung des Erfassungskonzeptes durch Ansätze, mit deren Hilfe der Erfassungsaufwand reduziert werden kann. Zu diesem Zweck wurde eine hierarchische Ordnung des Erfassungskonzeptes eingeführt.
Im Ergebnis ist somit ein Erfassungskonzept entstanden, mit dessen Hilfe die realen Bau-Ist-Zustände einer Baumaßnahme so genau erfasst werden können, dass täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes in einer Simulations¬umgebung generiert werden kann. Die Erfassungskonzeption liefert eine Datenbasis, die auf die Anforderungen der Simulation abgestimmt ist.
Das Bauwesen hat sich in den letzten Jahren durch die Globalisierung des Marktes verbunden mit einer verstärkten Nutzung moderner Technologien stark gewandelt. Die Planung und die Durchführung von Bauvorhaben werden zunehmend komplexer und sind mit erhöhten Risiken verbunden. Geld- und Zeitressourcen werden bei einem immer härter werdenden Konkurrenzkampf knapper.
Das Projektmanagement stellt Lösungsansätze bereit, um Bauvorhaben auch unter erschwerten Bedingungen und erhöhten Risiken erfolgreich zum Abschluss zu bringen. Dabei hat ein systematisches Risikomanagement beginnend bei der Projektentwicklung bis zum Projektabschluss eine für den Projekterfolg entscheidende Bedeutung.
Ziel der Arbeit ist es, eine quantitative Risikoerfassung für Projektmanager als professionelle Bauherrenvertretung und die Simulation der Risikoauswirkungen auf den Verlauf eines Projektes während der Planungs- und Bauphase zu ermöglichen. Mit Hilfe eines abstrakten Modells soll eine differenzierte, praxisnahe Simulation durchführbar sein, die die verschiedenen Arten der Leistungs- und Kostenentstehung widerspiegelt. Parallel dazu soll die Beschreibung von Risiken so abstrahiert werden, dass beliebige Risiken quantitativ erfassbar und anschließend ihre Auswirkungen inklusive mögliche Gegenmaßnahmen in das Modell integrierbar sind.
Anhand zweier Beispiele werden die unterschiedlichen Einsatzmöglichkeiten der quantitativen Erfassung von Projektrisiken und der anschließenden Simulation ihrer Auswirkungen aufgezeigt. Bei dem ersten Beispiel, einem realen, bereits abgeschlossenen Schieneninfrastrukturprojekt, wird die Wirksamkeit einer vorbeugenden Maßnahme gegen ein Projektrisiko untersucht. Im zweiten Beispiel wird ein Planspielansatz zur praxisnahen Aus- und Weiterbildung von Projektmanagern entwickelt. Inhalt des Planspiels ist die Planung und Errichtung eines privatfinanzierten, öffentlichen Repräsentationsbaus mit teilweiser Fremdnutzung.
Nutzerorientierte Bausanierung bedeutet eine gegenüber dem konventionellen Vorgehen deutlich verstärkte Ausrichtung des Planungs- und Sanierungsprozesses auf die Anforderungen und Bedürfnisse des zukünftigen Nutzers eines Gebäudes. Dies hat einerseits ein hochwertigeres Produkt zum Ergebnis, erfordert andererseits aber auch den Einsatz neuer Methoden und Baustoffe sowie ein vernetztes Zusammenarbeiten aller am Bauprozess Beteiligten. Der Fokus der Publikation liegt dabei auf den Bereichen, die eine hohe Relevanz für die nutzerorientierte Bausanierung aufweisen. Dabei handelt es sich insbesondere um: Computergestütztes Bauaufmaß und digitale Bauwerksmodellierung (BIM), bauphysikalische Methoden zur Optimierung von Energieeffizienz und Behaglichkeit bei der Sanierung von Bestandsgebäuden, zerstörungsfreie Untersuchungsmethoden im Rahmen einer substanzschonenden Bauzustandsanalyse und Entwicklung von Ergänzungsbaustoffen.
Das Projekt nuBau ist eine Kooperation zwischen den Fakultäten Bauingenieurwesen und Architektur der Bauhaus-Universität Weimar. Die beteiligten Professuren sind: Bauphysik, Informatik in der Architektur, Polymere Werkstoffe und Werkstoffe des Bauens.
Am 4. Oktober 2007 fand im Rahmen des Forschungsprojektes „Lebenszyklusorientiertes Management öffentlicher Liegenschaften am Beispiel von Hochschulen und Wissenschaftseinrichtungen“ in Weimar der Workshop „PPP-Eignung und Vorgehensweise bei Hochschulprojekten“ mit über 60 Vertretern von Hochschulen, Studentenwerken, Ministerien, PPP Task Forces und Liegenschaftsbetrieben der Länder statt. Im Beitrag erfolgt die Zusammenstellung der Präsentationen der Referenten.
Die Bruchmechanik hat einen wichtigen Platz im modernen Bauingenieurwesen, um die Ausbreitung von Rissen in Bauteilen und ihre Gefährlichkeit einzuschätzen. Dabei kommen verschiedenste Methoden zum Einsatz. In dieser Arbeit soll die Qualitätsbewertung für einige dieser Methoden untersucht werden. Zu vergleichen sind u. a. die Genauigkeit, die Schnelligkeit, die Komplexität und die Stabilität. In den Vergleich sind die Finite Elemente Methode, die Extended Finite Elemente Methode und eine Kopplungsmethode (analytische Lösung für die Rissspitze und Finite Elemente Lösung für den Rest des Gebietes) einzubeziehen. Als reales Beispiel aus dem Bauingenieurwesen wird ein Betongelenk mit einem vorhandenen Riss betrachtet.
Metakaolin made from kaolin is used around the world but rarely in Vietnam where abundant deposits of kaolin is found. The first studies of producing metakaolin were conducted with high quality Vietnamese kaolins. The results showed the potential to produce metakaolin, and its effect has on strength development of mortars and concretes. However, utilisation of a low quality kaolin for producing Vietnamese metakaolin has not been studied so far.
The objectives of this study were to produce a good quality metakaolin made from low quality Vietnamese kaolin and to facilitate the utilisation of Vietnamese metakaolin in composite cements.
In order to reach such goals, the optimal thermal conversion of Vietnamese kaolin into metakaolin was carried out by many investigations, and as such the optimal conversion is found using the analysis results of DSC/TGA, XRD and CSI. During the calcination in a range of 500 – 800 oC lasting for 1 – 5 hours, the characterisation of calcinated kaolin was also monitored for mass loss, BET surface, PSD, density as well as the presence of the residual water. It is found to have a well correlation between residual water and BET surface.
The pozzolanic activity of metakaolin was tested by various methods regarding to the saturated lime method, mCh and TGA-CaO method. The results of the study showed which method is the most suitable one to characterise the real activity of metakaolin and can reach the greatest agreement with concrete performance. Furthermore, the pozzolanic activity results tested using methods were also analysed and compared to each other with respect to the BET surface.
The properties of Vietnam metakaolin was established using investigations on water demand, setting time, spread-flowability, and strength. It is concluded that depending on the intended use of composite cement and weather conditions of cure, each Vietnamese metakaolin can be used appropriately to produce (1) a composite cement with a low water demand (2) a high strength of composite cement (3) a composite cement that aims to reduce CO2 emissions and to improve economics of cement products (4) a high performance mortar.
The durability of metakaolin mortar was tested to find the needed metakaolin content against ASR, sulfat and sulfuric acid attacks successfully.
Zusammenfassung:
Der Freistaat Thüringen und die Bauhaus-Universität Weimar haben im Jahr 2011 eine Kooperation zur „Nachwuchsförderung Gebäude-Energieeffizienz in Thüringen (NaGET)“ geschlossen. Ziel der Zusammenarbeit war die Erforschung der energetischen Qualität der Landesgebäude, um daraus Empfehlungen für eine Priorisierung energetischer Sanierungsmaßnahmen ableiten zu können.Im Ergebnis der Untersuchungen wird den Entscheidungsträgern mit der energetischen Potenzialanalyse ein Instrument zur Verfügung gestellt, dass diese bei der Vorauswahl von energetisch zu sanierenden Objekten gezielt unterstützt.
Untersuchungsgegenstand der Studie stellen die rund 1.700 Landesgebäude des Freistaates Thüringen dar, von denen 938 als energetisch relevant einzuschätzen sind. Zunächst eingegrenzt auf 270, wurden letztendlich 218 Gebäude für die energetische Potenzialanalyse ausgewählt, die alle die Anforderungen an die Datenqualität erfüllen. Der aufgebaute Datenbestand reicht hinsichtlich Umfang und Belastbarkeit deutlich über den Ausgangszustand hinaus.
Im Mittelpunkt der Untersuchungen steht die Auswertung der Verbrauchswerte für Wärme und Strom. Mit Hilfe verschiedener Analysemethoden wird rechnerisch als auch grafisch eruiert, welche Gebäude als Hochverbraucher energetisch auffällig sind. Es zeigt sich, dass die Auswertung gleichartiger Gebäude besonders geeignet ist, um auffällige Hochverbraucher zu identifizieren. Am Beispiel von Institutsgebäuden für Forschung und Lehre (BWZK 2200) und Bibliotheksgebäuden (BWZK-Kategorie 9130) wird dies veranschaulicht. Die Auswertung der Gebäude einer einzelnen Einrichtung erfolgt exemplarisch für die Universität Erfurt.
Es wird gezeigt, dass neben dem absoluten Verbrauch weitere Analysekriterien und der Vergleich mit Benchmarks zusätzliche Aufschlüsse bieten. Mit der Ermittlung des Energieeffizienzpotenzials wird eine Kenngröße vorgestellt, die einen aussagekräftigen Vergleich unter den Gebäuden erlaubt. Darauf aufbauend lässt sich eine Rangfolge von Gebäuden bilden, die zur Priorisierung von energetischen Sanierungsmaßnahmen genutzt werden kann.
Zur Durchführung einer energetischen Potenzialanalyse wird eine schrittweise Vorgehensweise vorgestellt, die von der Voranalyse über die Grobanalyse bis zur Feinanalyse eine zunehmende Detailierung vorsieht. Es wird gezeigt, dass damit ein Immobilienportfolio öffentlicher Gebäude, wie dies des Freistaates Thüringen, zielgerichtet und kostenschonend auf energetisch auffällige Gebäude hin untersucht werden kann. Am Beispiel der Universitätsbibliothek Erfurt wird verdeutlicht, wie bei einem energetisch auffälligen Objekt in einer detaillierten Untersuchung die Vorergebnisse geprüft, Ursachen für den erhöhten Energieverbrauch ermittelt und Vorschläge zur Verbesserung der energetischen Qualität erarbeitet werden können.
In einer Hochrechnung wurde mit Hilfe starker Vereinfachungen abgeschätzt, dass bei Gebäuden mit erhöhtem Heizwärmeverbrauch im Mittel eine Einsparung von 52 kWh/m²a möglich ist. Das Einsparpotenzial beim Stromverbrauch beträgt für ein Gebäude des Freistaates Thüringen durchschnittlich 44 kWh/m²a. Festzustellen ist, dass die Streuung der Energieeinsparpotenziale sehr hoch ist. Bei einzelnen Gebäuden ist eine deutliche Abweichung von den Durchschnittswerten nach oben bzw. unten zu verzeichnen. Es wird des Weiteren angenommen, dass im Idealfall 28 % der jährlichen Energiekosten des Freistaates i.H.v. rund 35 Mio. Euro eingespart werden können, wenn die betrachteten Gebäude so energetisch saniert werden, dass sie den Richtwerten für die Verbrauchshöhe entsprechen.
Der Einsatz ungeeigneter Materialien ist eine der häufigsten Ursachen für Bauwerksschäden. Da die Beseitigung dieser Schäden oft mit hohen Kosten verbunden ist, besteht in der Baupraxis der Bedarf an einer Identifizierungsmethode für eingesetzte Baustoffe. Daneben wäre eine Kenntnis der in einem Bauwerk vorliegenden Materialien auch für Instandhaltungsarbeiten hilfreich.
Die Identifizierung der in einem Festbeton oder Festmörtel vorliegenden Zementart gilt auch gegenwärtig noch als schwierig oder sogar unmöglich. Die Schwierigkeiten ergeben sich in erste Linie daraus, dass die Hydratationsprodukte verschiedener Zementarten oft nur geringe Unterschiede in ihrer chemischen und mineralogischen Zusammensetzung aufweisen und die Hydratationsmechanismen bei einigen Zementarten noch nicht vollständig erforscht sind.
Primäres Ziel der vorliegenden Arbeit war es zu untersuchen, ob anhand des Mineralphasenbestandes, der sich während einer thermischen Behandlung von Zementsteinen einstellt, eine Identifizierung der vorliegenden Zementart möglich ist. Weiterhin sollte die Übertragbarkeit dieser Ergebnisse auf Betone und Mörtel eingeschätzt werden.
Zur Schaffung von Identifizierungsmerkmalen wurden die (angereicherten) Zementsteine bei Temperaturen im Bereich zwischen 600 °C und 1400 °C thermisch behandelt. An den getemperten Proben wurde der Mineralphasenbestand mittels Röntgendiffraktometrie bestimmt. Mit der gleichen Methode wurden die Ausgangszemente und die (angereicherten) Zementsteine untersucht. Aus der Gegenüberstellung der nachgewiesenen Mineralphasen konnten die gesuchten Identifizierungsmerkmale abgeleitet werden. Um den Einfluss der Gesteinskörnungen auf die Identifizierungsmöglichkeiten gesondert zu erfassen, wurde das Versuchsprogramm auf 3 Abstraktionsebenen angelegt. Für die Auswertung der Ergebnisse wurden die Proben zu Klassen zusammengefasst, welche jeweils charakteristische Zusammensetzungen der Ausgangszemente repräsentieren. Für die Analyseergebnisse wurden die klassenspezifischen die Mittel- und Grenzwerte bestimmt.
Als die effektivste Methode zur Anreicherung der Zementsteinmatrix aus Mörtel- und Betonproben erwies sich die Kombination aus einer Zerkleinerung in einem Laborbackenbrecher. Die fein partikulären Fraktionen, welche Zementsteingehalte von 70-80 Ma.-% aufwiesen, wurden als Analyseproben verwendet. Es zeigte sich aber auch, dass das Anreicherungsergebnis von der Gesteinskörnungsart abhängt. Bei Laborbetonen mit einer Kalkstein-Gesteinskörnung wurde mit der gleichen Methode lediglich eine Anreicherung des Zementsteins auf etwa 50 Ma.-% erreicht.
Die Untersuchungen auf Abstraktionsebene 1 lieferten die Erkenntnis, dass der Hydratationsprozess der Klinkerphasen, der Klinkerphasengemische sowie des Hüttensandes, auch in Gegenwart des Sulfatträgers für Behandlungstemperaturen im Bereich des Klinkerbrandes vollständig reversibel ist. Im Hinblick auf die Identifizierungsmöglichkeiten wurde 1100 °C als optimale Behandlungstemperatur ermittelt, da hier eine Schmelzphasenbildung ausgeschlossen werden kann.
Durch eine Gegenüberstellung der chemischen Zusammensetzung der Ausgangszemente und des Phasenbestandes nach der Temperung konnte nachgewiesen werden, dass bei reinen Zementsteinen grundsätzlich alle Bestandteile an der Reaktion, die während der thermischen Behandlung bei 1100 °C stattfindet, beteiligt sind. Der sich einstellende Phasen bestand ist nur von der chemischen Zusammensetzung der Probe und dabei besonders von derem CaO-Gehalt abhängig. Empirisch wurde eine Prioritätenfolge für die Phasenbildung ermittelt. Daraus geht hervor, dass bevorzugt CaO-reiche Phasen, wie Aluminatferritphase, Belit und Ye‘elimit entstehen und dass überschüssiger Kalk als freies CaO vorliegt. Nur wenn der CaO-Gehalt der Probe nicht für die vollständige Bildung der – in der Summe – kalkreichsten Phasen ausreicht, entstehen partiell oder vollständig kalkärmere Phasen, wie Merwinit und Melilith. Basierend auf den Prioritäten zur Phasenbildung wurde ein Satz von Berechnungsgleichungen aufgestellt, mit denen der CaO-Typ aus der Phasenzusammensetzung der bei 1100 °C getemperten Probe bestimmt werden kann. CaO-Typen repräsentieren Bereiche für die chemische Zusammensetzung der Ausgangsprobe, welche bei der Temperaturbehandlung zu einer charakteristischen qualitativen Phasenzusammensetzung führen. Die CaO-Typen der marktüblichen Zementarten wurden anhand der in der Norm EN 197 festgelegten Bereiche für die Zusammensetzung der Zemente aus ihren Hauptbestandteilen sowie der aus der Fachliteratur ermittelten Bereiche für die chemische Zusammensetzung dieser Hauptbestandteile ermittelt. Damit kann für die Zementarten der Phasenbestand vorhergesagt werden, welcher sich während der Temperaturbehandlung des entsprechenden Zementsteins einstellt. Ein Vergleich mit dem gemessenen Phasenbestand erlaubt so die Identifizierung der Zementart.
Die Übertragbarkeit der durch die Untersuchungen an den Zementsteinen gewonnenen Erkenntnisse und die daraus abgeleiteten Identifizierungsmöglichkeiten auf Zementsteine, welche aus quarzsandhaltigen Normmörteln angereichert wurden, konnte nachgewiesen werden. Dabei wurde eine leichte Verschiebung des Phasenbestandes hin zu kalkärmeren Phasen beobachtet, welche auf die Reaktionsbeteiligung eines Teils der in den Proben enthaltenen Restgesteinskörnung zurückzuführen ist. Die Unterscheidungsmöglichkeiten zwischen den Zementarten blieben jedoch überwiegend erhalten.
Bei Betonen nimmt der Einfluss der Gesteinskörnung auf den Phasenbestand deutlich zu und kann zum Teil nicht mehr vernachlässigt werden. Die Identifizierungsmöglichkeiten müssen deshalb nach der chemischen Zusammensetzung und der Reaktivität der Gesteinskörnung differenziert ermittelt werden. Dazu sind weitere Untersuchungen notwendig.
Für Zementsteine, zementsteinreiche Systeme sowie Mörtel und Betone mit wenig reaktiven Gesteinskörnungen kann die Zementart bereits mit der in dieser Arbeit vorgestellten Methode identifiziert werden. In Fällen, für die sich die Bereiche der chemischen Zusammensetzung mehrerer Zementarten überschneiden, kann es dabei notwendig sein, zusätzliche chemische bzw. mineralogische Untersuchungen durchzuführen, z. B. am unbehandelten Zementstein.
Die Qualität von Beplankungselementen wirkt sich deutlich auf den Feuerwiderstand von Metallständer-Wandkonstruktionen aus. Daher wurde im Rahmen dieser Arbeit der Einfluss von Zusätzen in Gipsplatten bezüglich einer möglichen Verbesserung dieser Eigenschaft untersucht.
Zu diesem Zweck wurden spezielle, den jeweiligen Untersuchungsbedingungen angepasste Probekörper unter Verwendung verschiedenster Zusätze gefertigt. Die Beurteilung deren Auswirkungen erfolgte insbesondere mittels nachfolgender fünf Kriterien:
1) dem Zeitpunkt der Temperaturerhöhung nach der Probekörperentwässerung,
2) dem Maximalwert der Plattenrückseitentemperatur,
3) der Größe und der Anzahl der Risse,
4) der Plattenstabilität nach der Wärmebeanspruchung,
5) der Verkürzung von prismatischen Probekörpern.
Besonders wichtig war hierbei die Charakterisierung der Auswirkungen einer simulierten Brandbeanspruchung von 970 °C über 90 Minuten auf Labor-Gipsplatten. Dabei wurde die Temperaturänderung auf der Plattenrückseite über den gesamten Prüfzeitraum kontinuierlich erfasst. Die Bewertung des Zusammenhalts der Platten nach der thermischen Beanspruchung erfolgte erstmals quantitativ über Anzahl und Größe der an den Proben entstandenen Risse. Ursächlich für die Rissbildung ist die Verringerung des Probekörpervolumens infolge des ausgetriebenen Kristallwassers. Da dieser Parameter im Plattenversuch nicht bestimmt werden kann, wurde ergänzend das Längenänderungsverhalten von Prismen im Ergebnis einer 90minütigen Temperung bei 1000 °C im Muffelofen ermittelt.
Besonders vorteilhaft hat sich die Zugabe von 80 g/m2 Glasfasern und 7,75 % Kalksteinmehl auf das Verhalten von Gipsplatten bei Brandbeanspruchung ausgewirkt. Diese Verbesserung ist insbesondere auf höhere Stabilität und geringere Schrumpfung der Gipsplatte zurückzuführen.
Basierend auf den im Labormaßstab erhaltenen Ergebnissen wurden Rezepturvorschläge zur Verbesserung des Feuerwiderstandsverhaltens von Gipsplatten unter Praxisbedingungen entwickelt. Die Herstellung der erforderlichen großformatigen Platten erfolgte auf der Bandstraße der Knauf Gips KG. Diese Platten wurden als Wandkonstruktion mit zweilagiger Beplankung einer großtechnischen Prüfung erfolgreich unterzogen. Eine geringere Durchbiegung der Wandkonstruktion, eine verminderte Volumenreduzierung der Platten sowie eine erhöhte Plattenstabilität belegen die verbesserten Eigenschaften dieser modifizierten Feuerschutzplatte.
Weitere durchgeführte Untersuchungen ergaben, dass es unerheblich ist, ob die Platten auf Basis von Natur- oder REA-Gips bzw. mit hohem oder niedrigem Flächengewicht gefertigt wurden. Das eindeutig beste Ergebnis mit einer Feuerwiderstandsdauer von 118 Minuten hat eine Wandkonstruktion aus Feuerschutzplatten auf Basis eines Stuckgipses aus 100 % REA-Gips mit einem Anteil von 83,9 g/m2 Glasfasern und 1 % Vermiculit und einem Flächengewicht von 10,77 kg/m2, bei einer Plattenstärke von 12,5 mm.
Die als Ziel vorgebende Feuerwiderstandsdauer von 120 Minuten bei zweilagiger Beplankung ohne Dämmstoff könnte künftig erreicht werden, wenn es gelingt, die Volumenreduzierung noch besser zu kompensieren und die Plattenstabilität zu steigern. Eine Möglichkeit hierzu ist die Substitution der beidseitigen Kartonlagen durch eine Glasfaser-Vliesummantelung. Die Wandkonstruktion W112 ohne Dämmstoff erreicht dabei eine Feuerwiderstandsdauer von weit über 120 Minuten, wobei der Gipskern mit Glasfasern armiert ist.
Helsinki Central
(2012)
Als zentraler Ort und Eingangstor in die finnische Hauptstadt bietet der Bereich um den Bahnhof, in dem sich das Baufeld befindet zu wenig räumliche Qualitäten und bildet gleichzeitig eine Barriere zwischen dem historischen Stadtkern und dem politischen und kulturellem Zentrum der Stadt.
Der historische Bahnhof aus der Epoche des Jugendstils ist momentan eingeschlossen von einer hochfrequentierten Straße im Süden und den flankierenden Stationen des Busbahnhofs an der Ost- und Westseite.
Die fußläufigen Verbindungen in die Altstadt sind gestört und das Regierungsviertel mit
dem Reichstagsgebäude werden links liegen gelassen. Eine Orientierung als Neuankömmling ist schwer möglich.
Darüber hinaus kommt etwa die Hälfte der Züge, vor allem die Regionalzüge nicht in der Bahnhofshalle des Kopfbahnhofes an, weil die Begrenzung durch die
Seitenflügel nur eine Erweiterung des Bahnhofs nach Norden hin zuließ.
Entstanden ist ein Entwurf der versucht, dem gesamten Bereich um den Bahnhof ein neues Gesicht zu geben und eine Verbesserung auf unterschiedlichen Ebenen zu erreichen. Er bündelt zum einen die verschiedenen Verkehrsströme und stellt eine bisher unterbrochene Querverbindung zwischen den benachbarten Stadtvierteln entlang des Bahnhofsareals her. Zum anderen trägt er dem Erfordernis nach einem städtebaulichen Gegenüber für das
Regierungsgebäude Rechnung, welches damit in den Verbund der kulturellen Einrichtungen auf dem Töölönlahti Gelände aufgenommen wird. Darüber hinaus belebt er eine Besonderheit von Helsinki. Zu Beginn des 20. Jahrhunderts bestand die Notwendigkeit den Hafen an das Schienennetz anzubinden. Da der Stadtkern bereits sehr dicht bebaut war, wurde ein Eisenbahnring entlang der Küste, einmal um das Stadtzentrum herum gebaut. Seitdem die Verbindung stillgelegt wurde liegt dieser Ring brach, was nun die große Chance bietet, eine kreuzungsfreien Rad- und Fußweg zu etablieren, der durch den Entwurf eines Mobilityhubs geschlossen würde.
In der vorliegenden Broschüre werden die städtebaulichen Rahmenbedingungen, die Analyse der gegenwärtigen Situation und der eigentliche Entwurfsprozess, der zu dieser Lösung führte dokumentiert.
Das Unterteilen einer vorgegebenen Grundfläche in Zonen und Räume ist eine im Architekturentwurf häufig eingesetzte Methode zur Grundrissentwicklung. Für deren Automatisierung können Unterteilungsalgorithmen betrachtet werden, die einen vorgegebenen, mehrdimensionalen Raum nach einer festgelegten Regel unterteilen. Neben dem Einsatz in der Computergrafik zur Polygondarstellung und im Floorplanning zur Optimierung von Platinen-, Chip- und Anlagenlayouts finden Unterteilungsalgorithmen zunehmend Anwendung bei der automatischen Generierung von Stadt- und Gebäudegrundrissen, insbesondere in Computerspielen.
Im Rahmen des Forschungsprojekts Kremlas wurde das gestalterische und generative Potential von Unterteilungsalgorithmen im Hinblick auf architektonische Fragestellungen und ihre Einsatzmöglichkeiten zur Entwicklung einer kreativen evolutionären Entwurfsmethode zur Lösung von Layoutproblemen in Architektur und Städtebau untersucht. Es entstand ein generativer Mechanismus, der eine Unterteilungsfolge zufällig erstellt und Grundrisse mit einer festgelegten Anzahl an Räumen mit bestimmter Raumgröße durch Unterteilung generiert. In Kombination mit evolutionären Algorithmen lassen sich die erhaltenen Layoutlösungen zudem hinsichtlich architektonisch relevanter Kriterien optimieren, für die im vorliegenden Fall Nachbarschaftsbeziehungen zwischen einzelnen Räumen betrachtet wurden.
Das vorliegende Arbeitspapier beschäftigt sich mit der Thematik der Nutzerinteraktion bei computerbasierten generativen Systemen. Zunächst wird erläutert, warum es notwendig ist, den Nutzer eines solchen Systems in den Generierungsprozess zu involvieren. Darauf aufbauend werden Anforderungen an ein interaktives generatives System formuliert. Anhand eines Systems zur Generierung von Layouts werden Methoden diskutiert, um diesen Anforderungen gerecht zu werden. Es wird gezeigt, dass sich insbesondere evolutionäre Algorithmen für ein interaktives entwurfsunterstützendes System eignen. Es wird kurz beschrieben, wie sich Layoutprobleme durch eine evolutionäre Strategie lösen lassen. Abschließend werden Fragen bezüglich der grafischen Darstellung von Layoutlösungen und der Interaktion mit dem Dargestellten diskutiert.
Die im vorliegenden Buch dokumentierten Untersuchungen befassen sich mit der Entwicklung von Methoden zur algorithmischen Lösung von Layoutaufgaben im architektonischen Kontext. Layout bezeichnet hier die gestalterisch und funktional sinnvolle Anordnung räumlicher Elemente, z.B. von Parzellen, Gebäuden, Räumen auf bestimmten Maßstabsebenen. Die vorliegenden Untersuchungen sind im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Forschungsprojekts entstanden.
Im Rahmen dieser Arbeit wurde die Entscheidungsfindung im Herstellungsprozess von Brückenkappen untersucht. Es stellte sich heraus, dass die Fuzzy-Methode ein geeignetes Werkzeug sein könnte, die Teilprozesse auf die Möglichkeit ihrer Parallelisierung hin zu untersuchen. Um diese Theorie zu testen, wurde auf den Grundlagen von Arbeiten der Professur Baubetrieb und Bauverfahren der Prozess näher analysiert und unterstützend durch eigene Recherchen ein UML-Diagramm erstellt, welches als Aktivitätsdiagramm ausgebildet wurde. Aufbauend auf diesem Ablauf und den gewonnenen Kenntnissen zur Herstellung einer Brückenkappe, konnten die einzelnen Prozesse zu Teilprozessen, sogenannten Bausteinen, zusammengefasst werden. Diese Bausteine sind entstanden, um die Simulation möglich zu machen, indem der Ablauf weniger komplex wird und nur die Prozesse zu beurteilen sind, die beeinflusst bzw. in ihrer Reihenfolge bis zu einem gewissen Grad variabel sind. Eine erleichterte Interaktion mit den Bausteinen und deren Überführung in ein Simulationsprogramm wurde über Templates realisiert. So besitzt jeder Baustein eine einheitliche Struktur. Unter anderem beinhalten die Bausteine die jeweiligen Ressourcen und Parameter, sowie die Abhängigkeiten der Prozesse untereinander und die zugehörige Priorität. Zur Entscheidungsfindung wurde die Fuzzylogik herangezogen und die Problemstellung der Parallelisierung zum Ziel gesetzt. Die Realisierung wurde über einen Entscheidungsbaum und das daraus resultierende Regelwerk erreicht. Somit ließen sich, ausgehend von einem festgelegten Prozess und durch die Fuzzifizierung der Eingangsparameter Priorität, Prozessdauer und Verfügbarkeit der Ressourcen und Arbeitskräfte, verschiedene Pfade identifizieren, allerdings nur in Verbindung mit den vorher analysierten Abhängigkeiten. Für jeden der Eingangsparameter wurden so Fuzzy-Sets erstellt. Über den Entscheidungsbaum, welcher mit den linguistischen Variablen versehen wurde, konnte über sogenannte "und" - Verknüpfungen das Regelwerk aufgestellt werden. Das gekürzte Regelwerk in dieser Arbeit beinhaltet grundsätzlich nur die Regeln, die auch zu einer wirklichen Entscheidung führen. Daraus folgt, dass es möglich ist mittels der Fuzzy-Methode eine Entscheidung darüber zu fällen, ob zwei Prozesse zu parallelisieren sind oder nicht und aufgetretene Verzögerungen wieder eingeholt werden können.
This term paper presents a literature review and discusses concepts of the following point: 1- Factors affecting small-strain stiffness in soil; 2- Methods to determine small-strain shear stiffness in laboratory and in-situ; 3- Brief introduction into wave propagation and 4- Bender elements technique to determine shear wave velocity in soil.
The initial shear modulus, Gmax, of soil is an important parameter for a variety of geotechnical design applications. This modulus is typically associated with shear strain levels about 5*10^-3% and below. The critical role of soil stiffness at small-strains in the design and analysis of geotechnical infrastructure is now widely accepted.
Gmax is a key parameter in small-strain dynamic analyses such as those to predict soil behavior or soil-structure interaction during earthquake, explosions, machine or traffic vibration where it is necessary to know how the shear modulus degrades from its small-strain value as the level of shear strain increases. Gmax can be equally important for small-strain cyclic situations such as those caused by wind or wave loading and for small-strain static situations as well. Gmax may also be used as an indirect indication of various soil parameters, as it, in many cases, correlates well to other soil properties such as density and sample disturbance. In recent years, a technique using bender elements was developed to investigate the small-strain shear modulus Gmax.
The objective of this thesis is to study the initial shear stiffness for various sands with different void ratios, densities, grain size distribution under dry and saturated conditions, then to compare empirical equations to predict Gmax and results from other testing devices with results of bender elements from this study.
In der vorliegenden Arbeit wird das Tragverhalten und das Sicherheitsniveau axial belasteter Großbohrpfähle in den pleistozänen Kalkarenit der Küstenregion von Dubai untersucht. Zunächst wird auf der Grundlage von Ergebnissen umfangreicher Baugrundanalysen und Probebelastungen das Tragverhalten detailliert beschrieben. Anschließend wird ein auf der Finiten-Elemente-Methode basierendes Strukturmodell zur Simulation des Last-Setzungsverhaltens von Großbohrpfählen im Sinne eines numerischen Versuchsstandes entwickelt. Um herstellungsbedingte Veränderungen der Baugrundeigenschaften in der Kontaktzone Pfahl-Baugrund zu berücksichtigen, die mit boden- und felsmechanischen Elementversuchen gewöhnlich nicht erfassbar sind, werden die Größen der relevanten konstitutiven Parameterwerte iterativ mittels inverser Optimierungsstrategien bestimmt. Abschließend wird eine methodische Vorgehensweise aufgezeigt, wie das Sicherheitsniveau axial belasteter Großbohrpfählen unter Berücksichtigung der räumlichen Variabilität der Baugrundeigenschaften zuverlässig abgeschätzt werden kann.
Die Simulation ist vor allem in der Forschung und Wissenschaft ein bekanntes Ver-fahren zur Untersuchung von dynamischen Prozessen. Fachgebiete wie u.a. die Medizin und Biologie, das Verkehrswesen, die Automobilindustrie, die Meteorologie und die Fertigungstechnik gewinnen neue Erkenntnisse aus dem Einsatz derartiger Analyseverfahren. Gründe für die Anwendung von Computersimulationen erstrecken sich von finanziellen und zeitlichen Aspekten über eine Risikoverringerung bis hin zu einer vereinfachten Vorgehensweise. Nicht in allen Bereichen aber werden die viel-seitigen Vorteile von Simulationsmethoden genutzt. In der Baubranche wird Simulation derzeit nur ansatzweise eingesetzt. Doch vor al-lem Baustellen bieten durch den zunehmenden Kosten- und Termindruck sowie viel-seitige andere Einflüsse eine gute Basis für die Anwendung von Simulationsmetho-den. Der Bauablauf kann dadurch besser kontrolliert und gesteuert werden. In der Planungsphase von Bauprojekten wird Simulation bereits in Grundzügen für die Op-timierung von Bauablauf- und Logistikprozessen genutzt. Allerdings ist besonders die Ausführungsphase durch Störungen und Änderungen geprägt, sodass hier Simu-lationsmethoden noch effektiver eingesetzt werden können. Im Rahmen dieser Arbeit sollen die Einsatzmöglichkeiten von Simulationsmethoden für die Optimierung des Termincontrollings untersucht werden. Durch das Aufzeigen verschiedener Methoden sowie einem Vergleich über ihre Vor- und Nachteile wird herausgefiltert, welches Simulationswerkzeug am effektivsten im Termincontrolling eingesetzt werden kann. Ein weiteres Ziel dieser Arbeit ist die Modellierung eines Beispielprozesses anhand eines ausgewählten Simulationsverfahrens. Die Herstellung einer Brückenkappe wird in diesem Zusammenhang umfangreich dargestellt und analysiert. Eventuelle Zwangspunkte bei der Umsetzung und verschiedene Lösungsmöglichkeiten werden aufgezeigt.
STIFTERS ROSENHAUS
(2007)
Es mag verwegen klingen, den Ursprung der modernen Architektur ausgerechnet in der österreichischen Provinz verankern zu wollen. Doch tatsächlich finden wir hier – mit Adalbert Stifters "Nachsommer" von 1857 – die wohl früheste Formulierung einer Urhütte der Moderne. Stifter (1805-1867), der Nationalheilige der österreichischen Literatur, beschreibt in seiner Erzählung auf das ausführlichste und umfänglichste das sogenannte Rosenhaus. Vor allem die Architekten der traditionellen Richtung waren immer wieder fasziniert von diesen Beschreibungen und ließen sich von Stifter auf die vielfältigsten Weisen anregen. Die Ausführungen des Hausherren des Rosenhofes über die Produkte seiner Werkstätten und die Schilderungen des einfachen Lebens in den Räumen des Rosenhauses fanden einen immensen Widerhall bei den Baumeistern der frühen Werkbundbewegung, ebenso wie bei den Architekten aus dem Umfeld der Stuttgarter Schule. So lassen sich nachsommerliche Impulse in Leben, Werk und Lehre der traditionellen Architekten Paul Schultze-Naumburg, Theodor Fischer und Paul Schmitthenner entdecken, aber auch bei Vertretern einer dezidierten Moderne wie Erich Mendelsohn, Bruno Taut oder Walter Gropius. So kann gezeigt werden, dass Schultze-Naumburgs privates Anwesen im sachsen-anhaltinischen Saaleck eine vollständige Realisierung des Rosenhauses und der damit verbundenen Lehrwerkstättenidee darstellt. Und am Beispiel von Paul Schmitthenner und Theodor Fischer kann auf eindrucksvolle Weise nachvollzogen werden, wie Stifters "Gesetzbuch des schönen Lebens" Werk, Lehre und Alltag eines Architekten bestimmen konnte. Für Friedrich Nietzsche, der den "Nachsommer" unter die wenigen Werke deutscher Literatur nach Goethe einordnete, die es verdienten, "wieder und wieder gelesen zu werden", stellte der "Roman der heilen Welt" die Vorwegnahme seines Diktums dar, dass das Dasein nur als ein Ästhetisches zu rechtfertigen sei. Das Rosenhaus, und dessen ethisches sowie ästhetisches Ideal, bildete die dazu entsprechende räumliche Form. Der "Nachsommer" ist, mit Roland Barthes gesprochen, eine Utopie – genauer: eine häusliche Utopie – "die gestaltende Suche nach dem höchsten Gut, was das Wohnen angeht." Dabei sind die selbstgewählten, ästhetischen Verhaltensweisen, die Stifter damals – am Beginn der Moderne – begründete, bis heute Merkmal der Formen des Bürgerlichen und sein Rosenhaus das Modell einer modernen, bürgerlich-traditionellen Architektur. Für beides, für die Ästhetik des Lebens wie auch für die entsprechende Architektur, diente Goethe oder besser die Beschreibung Goethes durch seinen Sekretär Eckermann als Vorbild.
Zwei Poelzigschüler in der Emigration: Rudolf Hamburger und Richard Paulick zwischen Shanghai und Ost-Berlin (1930–1955) (Hamburger _ China, Polen, Schweiz, Iran, UdSSR) (Paulick _ China) Diese Dissertation befasst sich mit dem Leben und Wirken der beiden Architekten Rudolf Hamburger (1903–1980) und Richard Paulick (1903–1979) während ihrer Emigration zwischen 1930 und 1955. Die Arbeit ist in zwölf Kapitel gegliedert und beinhaltet einen Prolog und Epilog. Im Anhang sind Originaltexte sowohl von Hamburger wie von Paulick, Mitarbeiterlisten der von Paulick betriebenen Firmen in Shanghai, eine Liste der Bühnenbilder von Paulick in Shanghai, die Projektlisten beider Architekten in der Emigration sowie die Literaturliste veröffentlicht. Der Prolog beleuchtet die Situation in der DDR nach der Rückkehr von Paulick und Hamburger aus der Emigration. Unter dem Druck der Partei (SED) mussten beide ihre Biographie erweitern und säubern. Der starke ideologische Hintergrund verhinderte in der DDR zwischen 1950 bis zum Ende 1989 eine ehrliche Aufarbeitung der Emigration und im Falle von Hamburger einen unverstellten Blick auf seine Tortur in den Arbeitslagern (Gulag) der Sowjetunion. Das ersten Kapitel beleuchtet die Herkunft und Ausbildung der beiden, als Studenten bei Hans Poelzig und Hermann Jansen; im Falle von Paulick seine Kooperation mit Georg Muche und seinen Mitarbeit im Büro von Walter Gropius; im Falle von Hamburger seine Mitarbeit als Meisterschüler bei Hans Poelzig und anderen. Auch die Mitgliedschaft der beiden in der 'Gruppe Junger Architekten' (GIA) wird beleuchtet. Rudolf Hamburger kam 1930 als Arbeitsemigrant nach Shanghai und konnte wegen seiner jüdischen Wurzeln nach der Machtübernahme durch die Nationalsozialisten 1933 nicht nach Deutschland zurückkehren. Er half Paulick 1933 bei der Flucht nach Shanghai, als dieser aus politischen Gründen Deutschland verlassen musste. Die weitere Karriere und das Privatleben bei beiden wurden durch diese Umstände bestimmt. Die Dissertation beleuchtet den sozialen und politischen Hintergrund während ihrer Zeit in der Emigration. Rudolf Hamburger wurde als Architekt für das Shanghai Municipal Council zwischen 1930 und 1937 zu einem wichtigen Protagonisten für die Entwicklung der modernen Architektur in Shanghai, der hier erstmals vorgestellt wird. Neben dieser Arbeit gründete er 1932 die Firma THE MODERN HOME, die 1934 in die Firma MODERN HOME überführt wurde und die zwischen 1937 und 1949 von Richard Paulick unter dem Namen MODERN HOMES weitergeführt wurde. Richard Paulick war auch als Bühnenbildner zwischen 1936 und 1949 an unterschiedlichen Theatern in Shanghai aktiv. Als Professor für Stadtplanung lehrte er zwischen 1943 und 1949 an der St. John’s Universität zum ersten Mal die Prinzipien der Moderne in diesem Feld in China. Er spielte auch eine Schlüsselrolle bei der Stadtplanung für Groß-Shanghai zwischen 1945 und 1949, die nach den Prinzipien der organischen Dezentralisation erfolgte. Die Schwierigkeiten seiner Weiteremigration in die USA oder der Rückkehr nach Deutschland zwischen 1947 und 1949, bis zu seiner Heimkehr in die DDR 1950, bilden den letzten Abschnitt in seinem Fall. Bei Rudolf Hamburger kommt hinzu, dass er in den dreißiger Jahren für den Geheimdienst der sowjetischen Armee (GRU) aktiv wurde. Die Tätigkeit als Architekt nutzte er in der Folge lediglich zur Deckung seiner anderen Aktivitäten. Die Emigration nach Polen, die Schweiz, erneut China, die Sowjetunion und in den Iran (1936–1943) sind immer den Zielen der geheimdienstlichen Tätigkeit untergeordnet. Mit dubiosen Vorwürfen wurde Hamburger 1943 in Moskau konfrontiert und in ein Arbeitslager deportiert, wo er nach Folter und schwierigen Haftbedingungen erst 1952 frei gelassen wurde. Bis 1955 lebte er in der Verbannung in der Ukraine und konnte dann mit der Hilfe seines Freundes Richard Paulick in die DDR einreisen.
The report is part of the research project 'TAILSAFE'. The project is supported by the european union. Basics of design and investigation procedures are presented within the report. Furthermore possible applications of design and investigation procedures are evaluated concerning to a smooth work during all using phases of a tailings facility, that is the planning and execution. Finally recomendations are given to optimise the handling with significant standards.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Die Arbeit befasst sich mit der österreichischen Bogenstaumauer Kölnbrein, die während des Ersteinstaus geschädigt wurde. Diese Schäden, sowie mögliche Ursachen sind anhand von Literaturquellen dokumentiert. Nach Erstellung eines Rechenmodells wurden, durch ein Randelementeprogramm, Rissfortschrittsberechnungen durchgeführt und mit dem realen Bauwerk verglichen. Zum Einsatz kamen die Anwendungen „OSM“, „FRANC3D“ und „BES“ der Cornell-University.
Zwischen den Jahren 1920 und 1930 kam es an der kalifornischen Küste zu Bauschäden an Brücken und Fahrbahnen, die sich vor allem in einer deutlichen Rissbildung äußerten. Seither werden immer wieder Bauschäden beschrieben, deren Ursache in der Reaktion von Zuschlägen, die „reaktive“ Kieselsäure enthalten, mit der Porenlösung des Betons zu sehen ist. Diese Reaktion wird als Alkali-Kieselsäure Reaktion (AKR) bezeichnet. Seit der ersten Veröffentlichung von Stanton über die „alkali-aggregate reaction“ an opalhaltigen Zuschlägen sind hunderte von Forschungsarbeiten zu diesem Thema durchgeführt und deren Ergebnisse veröffentlicht worden. Trotz eingehender Forschung seit mehr als 8o Jahren ist weder der Mechanismus der AKR vollständig geklärt noch eine eindeutige Voraussage über die Gefährdung von Bauwerken oder Bauteilen mit potentiell AKR-empfindlichen Zuschlägen möglich. Das liegt vor allen Dingen daran, das es sich bei der AKR um eine Reaktion handelt, die aus einer komplexen Abfolge chemischer und physikalischer Prozesse besteht, die in ihrer Gesamtheit zu einer Schädigung von Beton bzw. Betonbauteilen und Bauwerken führen können. Eine geschlossene Beschreibung und Behandlung dieser Reaktion ist nicht möglich, solange keine befriedigende Kenntnis über den Ablauf der einzelnen Schritte vorliegt. Dazu bedarf es grundsätzlicher Untersuchungen der einzelnen chemischen und physikalischen Reaktionsschritte sowie einer möglichst quantitativen Bewertung der verschiedenen Einflussfaktoren. Grundsätzlich gibt es weltweit eine ganze Reihe von Richtlinien und Normen , die dazu verhelfen sollen, Schädigungen an Bauwerken durch AKR zu verhindern. In Deutschland ist das momentan gültige Regelwerk die sogenannte Alkali-Richtlinie des deutschen Ausschusses für Stahlbeton (DAfStb). Sie dient zur Beurteilung von Zuschlag nach DIN 4226 [6, 7, 8] mit alkaliempfindlichen Bestandteilen. Dabei bezieht sich der Teil 2 der Richtlinie auf Zuschläge mit Opalsandstein, Kieselkreide und Flint aus bestimmten Gewinnungsgebieten. Hier wird eine reine Zuschlagprüfung gefordert. Teil 3 der Richtlinie bezieht sich auf präkambrische Grauwacken und andere alkaliempfindliche Gesteine. Gefordert werden hier Prüfungen der Zuschläge selbst sowie Prüfung an Betonbalken und 30er Würfeln in der Nebelkammer. Für die meisten in der Richtlinie genannten Zuschläge bilden die Prüfungen und Vorschriften eine ausreichende Sicherheit, um eine AKR zu vermeiden. Dennoch treten immer wieder Schäden mit Zuschlägen auf, die nach der Alkali-Richtlinie als unempfindlich eingestuft werden müssten. Dabei handelt es sich in der Regel um Schadensfälle, die erst nach mehreren Jahren mit spät reagierenden AKR-empfindlichen Zuschlägen auftreten. Zu diesen Zuschlägen, die gegebenenfalls speziell im Nebelkammertest innerhalb von neun Monaten keine signifikante Dehnung (<0,6mm/m) aufweisen, gehören Stressquarze, Kieselkalk, Granit, Porphyr, Kieselschiefer und Grauwacke. Die vorliegende Arbeit dient speziell der Beurteilung und Einordnung von unterschiedlichen kristallinen Quarzmodifikationen sowie der Ermittlung geeigneter Untersuchungsmethoden für die Beurteilung der AKR-Empfindlichkeit von Quarz.