Refine
Document Type
- Master's Thesis (115) (remove)
Institute
- Professur Baubetrieb und Bauverfahren (12)
- Professur Grundbau (12)
- Professur Baustatik und Bauteilfestigkeit (8)
- Institut für Europäische Urbanistik (6)
- Professur Stahlbau (6)
- Professur Verkehrsbau (6)
- Institut für Strukturmechanik (ISM) (5)
- Professur Baumechanik (5)
- Professur Bauphysik (5)
- Professur Bodenmechanik (5)
- Professur Siedlungswasserwirtschaft (5)
- Professur Verkehrsplanung und Verkehrstechnik (4)
- Professur Modellierung und Simulation - Konstruktion (3)
- Hochschule für Musik FRANZ LISZT (2)
- Medienkunst/Mediengestaltung (2)
- Professur Angewandte Mathematik (2)
- Professur Informatik im Bauwesen (2)
- Professur Informatik in der Architektur (2)
- Professur Informations- und Wissensverarbeitung (2)
- Professur Massivbau II (2)
- Professur Tragwerkslehre (2)
- Professur Wasserbau (2)
- F. A. Finger-Institut für Baustoffkunde (FIB) (1)
- Freie Kunst (1)
- Gropius-Professur (1)
- Institut für Konstruktiven Ingenieurbau (IKI) (1)
- Junior-Professur Augmented Reality (1)
- Professur Bauformenlehre (1)
- Professur Betriebswirtschaftslehre im Bauwesen (1)
- Professur Content Management und Webtechnologien (1)
- Professur Entwerfen und Baugestaltung (1)
- Professur Entwerfen und Tragwerkskonstruktion (1)
- Professur Experimentelle Konstruktions- und Materialanalyse (1)
- Professur Intelligentes Technisches Design (1)
- Professur Massivbau I (1)
- Professur Raumplanung und Raumforschung (1)
- Professur Sozialwissenschaftliche Stadtforschung (1)
- Professur Stochastik und Optimierung (1)
- Professur Strömungsmechanik (1)
- Professur Werkstoffe des Bauens (1)
- Weiterbildender Studiengang Wasser und Umwelt (1)
Keywords
- Brückenbau (6)
- Finite-Elemente-Methode (4)
- Temperaturfeld (4)
- BIM (3)
- Computersimulation (3)
- Deich (3)
- IFC (3)
- Simulation (3)
- Analyse (2)
- Bauablauf (2)
In dieser Arbeit wird die Fällung von Magnesium-Ammonium-Phosphaten (MAP) aus Schlachthofabwasser behandelt. Einleitend wird der Schlacht- und Zerlegprozess von Tieren in der Nahrungsmittelindustrie beschrieben und dabei die Stellen des Abwasseranfalls gekennzeichnet. Nachfolgend werden einige chemische Grundlagen zum MAP und dessen Kristallisationsparameter erläutert und ausgewertet. Nach Auswertung eigener Fällungsversuche wird ein Vorschlag für eine technische Lösung gebracht und dessen Kosten abgeschätzt.
Helsinki Central
(2012)
Als zentraler Ort und Eingangstor in die finnische Hauptstadt bietet der Bereich um den Bahnhof, in dem sich das Baufeld befindet zu wenig räumliche Qualitäten und bildet gleichzeitig eine Barriere zwischen dem historischen Stadtkern und dem politischen und kulturellem Zentrum der Stadt.
Der historische Bahnhof aus der Epoche des Jugendstils ist momentan eingeschlossen von einer hochfrequentierten Straße im Süden und den flankierenden Stationen des Busbahnhofs an der Ost- und Westseite.
Die fußläufigen Verbindungen in die Altstadt sind gestört und das Regierungsviertel mit
dem Reichstagsgebäude werden links liegen gelassen. Eine Orientierung als Neuankömmling ist schwer möglich.
Darüber hinaus kommt etwa die Hälfte der Züge, vor allem die Regionalzüge nicht in der Bahnhofshalle des Kopfbahnhofes an, weil die Begrenzung durch die
Seitenflügel nur eine Erweiterung des Bahnhofs nach Norden hin zuließ.
Entstanden ist ein Entwurf der versucht, dem gesamten Bereich um den Bahnhof ein neues Gesicht zu geben und eine Verbesserung auf unterschiedlichen Ebenen zu erreichen. Er bündelt zum einen die verschiedenen Verkehrsströme und stellt eine bisher unterbrochene Querverbindung zwischen den benachbarten Stadtvierteln entlang des Bahnhofsareals her. Zum anderen trägt er dem Erfordernis nach einem städtebaulichen Gegenüber für das
Regierungsgebäude Rechnung, welches damit in den Verbund der kulturellen Einrichtungen auf dem Töölönlahti Gelände aufgenommen wird. Darüber hinaus belebt er eine Besonderheit von Helsinki. Zu Beginn des 20. Jahrhunderts bestand die Notwendigkeit den Hafen an das Schienennetz anzubinden. Da der Stadtkern bereits sehr dicht bebaut war, wurde ein Eisenbahnring entlang der Küste, einmal um das Stadtzentrum herum gebaut. Seitdem die Verbindung stillgelegt wurde liegt dieser Ring brach, was nun die große Chance bietet, eine kreuzungsfreien Rad- und Fußweg zu etablieren, der durch den Entwurf eines Mobilityhubs geschlossen würde.
In der vorliegenden Broschüre werden die städtebaulichen Rahmenbedingungen, die Analyse der gegenwärtigen Situation und der eigentliche Entwurfsprozess, der zu dieser Lösung führte dokumentiert.
This master thesis explores an important and under-researched topic on the so-called bridging of length scales (from >meso< to >macro<), with the concept of homogenization in which the careful characterization of mechanical response requires that the developed material model >bridge< the representations of events that occur at two different scales. The underlying objective here is to efficiently incorporate material length scales in the classical continuum plasticity/damage theories through the concept of homogenization theory. The present thesis is devoted to computational modeling of heterogeneous materials, primarily to matrix-inclusion type of materials. Considerations are focused predominantly on the elastic and damage behavior as a response to quasistatic mechanical loading. Mainly this thesis focuses to elaborate a sound numerical homogenization model which accounts for the prediction of overall properties with the application of different types of boundary conditions namely: periodic, homogeneous and mixed type of boundary conditions over two-dimensional periodic and non-periodic RVEs and three-dimensional non-periodic RVEs. Identification of the governing mechanisms and assessing their effect on the material behavior leads one step further. Bringing together this knowledge with service requirements allows for functional oriented materials design. First, this thesis gives attention on providing the theoretical basic mechanisms involved in homogenization techniques and a survey will be made on existing analytical methods available in literature. Second, the proposed frameworks are implemented in the well known finite element software programs ANSYS and SLang. Simple and efficient algorithms in FORTRAN are developed for automated microstructure generation using RSA algorithm in order to perform a systematic numerical testing of microstructures of composites. Algorithms are developed to generate constraint equations in periodic boundary conditions and different displacements applied spatially over the boundaries of the RVE in homogeneous boundary conditions. Finally, nonlinear simulations are performed at mesolevel, by considering continuum scalar damage behavior of matrix material with the linear elastic behavior of aggregates with the assumption of rigid bond between constituents.
This report details the development of Horoskopos, a virtual planetarium for astrology. This project was an attempt to develop a learning tool for studying astrological concepts as connected to observational astronomy. The premise that astrology and observational astronomy were once inseparable from each other in ancient times guided the conceptualization of this tool as an interactive planetarium. The main references were existing software and applications for visualization in astrology and astronomy. Professional astrology teachers were consulted in order to understand better the state of astrological teaching and learning, as well as existing tools and practice. Horoskopos was built using the Unity3D development interface, which is based on the C# programming language. It also relied on the Swiss Ephemeris coding interface from Astrodienst. The development process was experimental and many of the needed skills were developed as needed. Usability tests were performed as new features were added to the interface. The final version of Horoskopos is fully usable, with many interactive visualization features and a defined visual identity. It was validated together with professional astrologers for its effectiveness in concept and visualization.
The hydraulic properties of the polymer-enhanced bentonite-sand mixtures (PEBSMs) investigated in this study consisted of the water retention behaviour (or the soil-water characteristic curve (SWCC)) and the saturated and unsaturated coefficients of permeability. The SWCCs of the compacted polymer-enhanced bentonite-sand mixtures were measured using two techniques; namely, axis-translation technique and vapour equilibrium technique. The results obtained from both methods were combined to establish a single SWCC for each specimen. The saturated coefficient of permeability of the material was measured using the constant-head flexible wall permeameter method. The unsaturated coefficient of permeability was computed from the SWCCs and the saturated permeability values using the statistical model. The study revealed that the wetting curves for the PEBSM and clay are above the drying curves. The fact is thought be due to the specimens being not saturated before starting the drying tests. Since the specimens are expensive soil such a trend can be expected. The permeability deduced from the oedometer test data over-estimates the actual water flow rate resulting in a higher computed saturated coefficient of permeability compared to the measured values. The nets of polymer and bentonite clusters are thought to retard the flow of water during the direct measurement. However, the net of polymer and bentonite clusters are compressed during loading and rebound during unloading. Hysteresis effect was found for the PEBSMs in the permeability versus degree of saturation curve. This is due to possible difference in the spatial distribution of water in the specimens depending whether the specimens were on drying or wetting path.
Bei der grundbautechnischen Bemessung und der Errichtung von Bauwerken im Grundwasser sind die wesentlichen Einwirkungen auf hydrodynamische Effekte zurückzuführen. Die zu-verlässige Funktion eines solchen Bauwerkes ist maßgeblich von der richtigen Einschätzung der unterschiedlichen Effekte abhängig. Aufgabe ist es, hydraulisch bedingte Versagensformen wie Hydraulischer Grundbruch, innere Erosion, Aufschwimmen und Auftrieb zu charakterisieren und voneinander abzugrenzen, ty-pische Beispiele dieser Versagensformen zu nennen, Interaktionen zwischen ihnen aufzu-zeichnen und zu quantifizieren sowie Einflussparameter und Grenzzustände zu beschreiben. Aufbauend auf diesen Betrachtungen soll am praktischen Beispiel einer Baugrubensicherung durch konventionelle Rechnung und numerische Simulation das Versagensprinzip des Hyd-raulischen Grundbruches in nicht bindigem Boden nachvollzogen werden. Die Ergebnisse der Analyse sind unter dem Gesichtspunkt der Richtigkeit der zugrunde liegenden physikalischen Gesetzmäßigkeiten zu bewerten.
Forscher prognostizieren in den kommenden Jahren eine Klimaerwärmung bis zu 6 ° C. Aus diesem Grund wurde das EU – Forschungsprojekt „ Climate for Culture“ ins Leben gerufen, um Auswirkungen dieses Klimawandels auf denkmalgeschützte, kulturhistorische Gebäude zu untersuchen. Ziel ist es, entsprechende Schutzmaßnahmen in konservatorischer Hinsicht zu erarbeiten.
Aufgrund des Zusammenhanges zwischen Temperatur und Luftfeuchte führt diese Klimaerwärmung auch zu einer Änderung des Feuchtehaushaltes im Außenbereich und, bedingt durch einen immer vorhandenen Luftwechsel, schließlich auch im Innenbereich von Gebäuden.
Die Fähigkeit eines Gebäudes, durch seine Beschaffenheit auf Feuchteeinflüsse zu reagieren, wird maßgeblich bestimmt durch seine Möglichkeit, in der Gebäudehülle und der vorhandenen Einrichtung anfallende Feuchte zwischenzuspeichern und diese zeitversetzt wieder an die Umgebung abzugeben. Diese Fähigkeit sorptiver Flächen zur Feuchtepufferung konnte bislang nur mit erheblichem Aufwand ermittelt werden.
In der vorliegenden Arbeit wird versucht, durch einfachere Methoden mittels hygrothermischer Simulation einen „Zweizahlwert“ zu erhalten, mit dem sich diese Raumkompetenz schnell und nachvollziehbar darstellen lässt.
Das Bund-Länder-Programm "Soziale Stadt" hat die Aufgabe, Stadtteile mit besonderem Entwicklungsbedarf zu fördern. Das negative Image ist einerseits Ursache, andererseits auch Folge von sozialen und städtebaulichen Problemlagen und Entwicklungen im Stadtteil. Diese Abwärtsspirale soll durch das Programm aufgebrochen werden. Der Autor nähert sich interdisziplinär dem Imagebegriff an und zeigt die Auswirkungen des Programms "Soziale Stadt" auf die Großwohnsiedlung Jena-Winzerla. Die Studie erfasst anhand des semantischen Differentials das Image im Stadtteil, wie es von den Bewohnern beurteilt wird und vergleicht es mit der Sicht von Außen. Der Einfluß des Programms auf das Image wird durch Experteninterviews beleuchtet. Das Beispiel eigt die Entwicklungen, die das Programm "Soziale Stadt" bewirken kann. Es werden aber auch Grenzen deutlich. Vor diesem Hintergrund werden abschließend Überlegungen angestellt, in welche Richtungen die Entwicklungen innerhalb des Förderprogramms gelenkt werden sollten, um das Image nachhaltig zu verbessern und betroffene Stadtteile adäquat zu fördern.
In displacement oriented methods of structural mechanics may static and dynamic equilibrium conditions lead to large coupled nonlinear systems of equations. In many cases they are solved iteratively utilizing derivatives of Newton's method. Alternatively, the equations may be expressed in terms of the Karush-Kuhn-Tucker conditions of an optimization problem and, therefore, may be solved using methods of mathematical programming. To begin with, the work deals with the fundamentals of the formulation as optimization problem. In particular, the requirements of material nonlinearity and contact situations are analyzed. Proximately, an algorithm is implemented which utilizes the usually sparse structure of the Hessian matrix, whereby particularly the convergence behaviour is analyzed and adjusted. The implementation was tested using examples from statics and dynamics of large systems. The results are verified considering the accuracy comparing alternative solutions (e.g. explicit methods). The potential areas of application is shown and the efficiency of the method is evaluated.
Die Finite-Elemente-Methode entwickelte sich in den letzten beiden Jahrzehnten zu einem wichtigen und mächtigen Werkzeug für Berechnungen im Ingenieurwesen. Waren zu Beginn dieser Entwicklung nur kleine Probleme lösbar, sind mit der heutigen Rechentechnik Systeme mit vielen Tausend Freiheitsgraden berechenbar. Durch diese Entwicklung werden Berechnungen von sehr komplizierten Strukturen möglich. Besonders in der Automobilindustrie kann mit einem solchen Verfahren die Konstruktion von Strukturen verbessert und optimiert werden. Um gute Ergebnisse bei den Berechnungen erzielen zu können müssen Programme entwickelt werden, die entsprechende mathematische Methoden enthalten. Besonders im Maschinenbau, aber auch in anderen Ingenieurbereichen wie dem Bauwesen, werden häufig gekrümmte dünne Schalenstrukturen untersucht. Eine effiziente und logische Konsequenz daraus ist die Nutzung von Schalenelementen innerhalb der FE-Berechnungen. Wird nun noch Wert auf eine realitätsnahe Modellierung gelegt, dann lässt es sich oft nicht vermeiden von der im Bauwesen üblichen Theorie erster Ordnung in eine nichtlineare Berechnungstheorie zu wechseln. Hierfür sind Methoden notwendig, die es vermögen diese Theorie abzubilden. Sollen Schalenstrukturen mit großen Verschiebungen betrachtet werden, ist es notwendig, die linearen Elementformulierungen um die nichtlinearen Ansätze der Strukturmechanik zu erweitern. Die Grundlage dieser Formulierung stellt oft die Lagrange'sche Betrachtungsweise dar, die Berechnungen an Strukturen mit großen Verformungen zulässt. Die Inhalte dieser Formulierung werden in Abschnitt 1.5 dieser Arbeit betrachtet. Räumlich veränderlichen Strukturen, also solche mit großen Verformungen, sind im Allgemeinen mit großen Rotationen verknüpft. Diese Rotationen werden bei Volumenelementen durch die unterschiedliche Verschiebung zweier benachbarter Elementknoten realisiert. Bei der Formulierung von dünnen Schalenelementen wird hingegen die Struktur als gekrümmte Raumfläche betrachtet. Da in Dickenrichtung nur ein Elementknoten zur Verfügung steht, muss die Rotation über eine andere Formulierung in die Berechnung einfließen. Ansätze zu allgemeinen großen Rotationen werden im Kapitel 2 betrachtet und für den Einsatz in einer Elementformulierung vorbereitet. Für die beschriebenen Schalenstrukturen werden häufig vierknotige Elemente genutzt, da mit ihnen Strukturen in einfacher Weise abgebildet werden können. Ein weiterer Vorteil besteht in der sich ergebenden geringen Bandbreite der Elementmatrizen. Diese Elementgruppe besitzt jedoch bei der klassischen isoparametrischen Formulierung einen großen Nachteil, der in der Erzeugung von parasitären Steifigkeitsanteilen besteht. Um dieses Sperrverhalten, was auch als 'Locking' bekannt ist, zu minimieren wurden in der Vergangenheit verschiedene Ansätze entwickelt. Ein sehr effizienter Ansatz zur Minimierung des Transversalschublockings bei bilinearen Schalenelementen stellt das Verfahren der veränderten Verzerrungsverläufe auf Elementebene dar. Dieses Verfahren wird vielfach in der Literatur aufgegriffen und als 'Assumed-Natural-Strain'-Ansatz oder als 'Mixed Interpolation of Tensorial Components' bezeichnet. Dieses Verfahren wird im Abschnitt 1.6 vorgestellt. Das Programmsystem SLang ermöglicht eine Berechnung von Strukturen mittels der Finite-Elemente-Methode. Um mit diesem Programm auch nichtlineare Probleme an Schalentragwerken berechnen zu können, wird im Rahmen dieser Diplomarbeit ein vierknotiges nichtlineares Schalenelement implementiert, das die genannten Ansätze für große Verformungen und finite Rotationen enthält. Für die Vermeidung von Transversalschublocking wird ein ANS-Ansatz in die Formulierung integriert. Das Kapitel 3 beschreibt die Formulierung dieses SHELL4N-Elementes. Dort werden die Elementmatrizen und deren Aufbau ausführlich dargestellt. Einige numerische Berechnungsbeispiele mit diesem neuen Element werden zur Evaluierung im Kapitel 4 dieser Arbeit dargestellt.
Diese Arbeit stellt die Implementierung von Scheibenelementen mit B-Spline Ansätzen n-ter Ordnung speziell für rechteckige Gebiete mit orthogonaler Vernetzung vor. Dabei kam insbesondere eine spezielle elementbasierte Formulierung auf Grundlage der einzelnen B-Spline Segmente zum Einsatz, die zur Aufbringung von Randbedingungen an den Rändern modifizierte B-Splines benutzt. In der Folge entstehen verschiedene Elementtypen zur Diskretisierung von rechteckigen Gebieten, deren Erzeugung, Speicherung und Anwendung im Zusammenhang mit der Finiten Elemente Methode Gegenstand der Arbeit sind. Anhand von untersuchten Beispielen werden die erfolgreiche Implementierung nachgewiesen und verschiedene Eigenschaften der Methode herausgestellt.
Die Architekten, Künstler und Designer des Bauhauses prägten mit neuem gestalterischen Geist eine unverwechselbare Bauhaus-Handschrift. Ausgehend von Weimar schrieben sie sich damit in die Weltkulturgeschichte ein. Nachdem das Bauhaus 1933 dem Nationalsozialismus in Deutschland zum Opfer gefallen war, lebten Idee und Praxis des Bauhauses mit den emigrierenden Lehrern und Schülern im Ausland weiter. Weltweit existieren noch heute Gebäude, Produkte und Kunstwerke, die durch das Bauhaus entstanden sind, von ihm inspiriert wurden oder darauf Bezug nehmen. Mit dem Projekt ImpulsBauhaus versuchen Jens Weber und Andreas Wolter, die weltweite Verbreitung und Einflussnahme des Bauhauses anhand der Beziehungen, Bewegungen und Werke seiner Vertreter bis in die Gegenwart nachvollziehbar zu machen. Das Projekt besteht aus zwei Teilen. Die ImpulsBauhaus-Forschungsplattform ist eine Datenbank, in der Informationen über Bauhaus-Vertreter gesammelt und mithilfe von Analysetools und Visualisierungsinstrumenten ausgewertet werden können. Der zweite Teil besteht aus einer räumlichen Inszenierung der Informationsbestände – der ImpulsBauhaus-Ausstellung. Ausgangspunkt des Projekts ImpulsBauhaus war neben dem kunstwissenschaftlichen Interesse die Frage, wie mit heutigen digitalen Mitteln große Informationsmengen verwaltet, analysiert und visualisiert werden können.
Weiterführende Informationen zum Projekt finden sich auf der Website http://impuls-bauhaus.de, wo auch interessierte Wissenschaftler und Autoren Zugang zur ImpulsBauhaus-Forschungsplattform erhalten.
Der inhaltlichen Qualitätssicherung von Bauwerksinformationsmodellen (BIM) kommt im Zuge einer stetig wachsenden Nutzung der verwendeten BIM für unterschiedliche Anwen-dungsfälle eine große Bedeutung zu. Diese ist für jede am Datenaustausch beteiligte Software dem Projektziel entsprechend durchzuführen. Mit den Industry Foundation Classes (IFC) steht ein etabliertes Format für die Beschreibung und den Austausch eines solchen Modells zur Verfügung. Für den Prozess der Qualitätssicherung wird eine serverbasierte Testumgebung Bestandteil des neuen Zertifizierungsverfahrens der IFC sein. Zu diesem Zweck wurde durch das „iabi - Institut für angewandte Bauinformatik” in Zusammenarbeit mit „buildingSMART e.V.“ (http://www.buildingsmart.de) ein Global Testing Documentation Server (GTDS) implementiert. Der GTDS ist eine, auf einer Datenbank basierte, Web-Applikation, die folgende Intentionen verfolgt:
• Bereitstellung eines Werkzeugs für das qualitative Testen IFC-basierter Modelle
• Unterstützung der Kommunikation zwischen IFC Entwicklern und Anwendern
• Dokumentation der Qualität von IFC-basierten Softwareanwendungen
• Bereitstellung einer Plattform für die Zertifizierung von IFC Anwendungen
Gegenstand der Arbeit ist die Planung und exemplarische Umsetzung eines Werkzeugs zur interaktiven Visualisierung von Qualitätsdefiziten, die vom GTDS im Modell erkannt wurden. Die exemplarische Umsetzung soll dabei aufbauend auf den OPEN IFC TOOLS (http://www.openifctools.org) erfolgen.
Thin-walled cylindrical composite shell structures are often applied in aerospace for lighter and cheaper launcher transport system. These structures exhibit sensitivity to geometrical imperfection and are prone to buckling under axial compression. Today the design is based on NASA guidelines from the 1960’s [1] using a conservative lower bound curve embodying many experimental results of that time. It is well known that the advantages and different characteristics of composites as well as the evolution of manufacturing standards are not considered apporopriately in this outdated approach. The DESICOS project was initiated to provide new design guidelines regarding all the advantages of composites and allow further weight reduction of space structures by guaranteeing a more precise and robust design.
Therefore it is necessary among other things to understand how a cutout with different dimensions affects the buckling load of a thin-walled cylindrical shell structure in combination with initial geometric imperfections. This work is intended to identify a ratio between the cutout characteristic dimension (in this case the cutout diameter) and the structure characteristic dimension (in this case the cylinder radius) that can be used to tell if the buckling structure is dominated by initial imperfections or is dominated by the cutout.
Zahlreiche Hochwasserereignisse führten in den letzten Jahren zu großen wirtschaftlichen Schäden, vor allem durch das Versagen von Hochwasserschutzdeichen HWD. Aus diesem Grund wurden großformatige Erkundungen bestehender Hochwasserschutzdeiche durch die Länder angeordnet. Ziel der Erkundungen sollte es sein, die Standsicherheit der HWD zu beurteilen. Daher sollten die möglicherweise auftretenden Versagenszustände bekannt sein und die zur Beurteilung wichtigen bodenmechanischen Parameter. Für eine umfassende Erkundung des Deichkörpers und seines Untergrundes müssen mehrere Schritte durchgeführt werden. Erst durch die Kombination mehrerer Erkundungsmethoden ist es möglich ein ganzheitliches Baugrundmodell aufzustellen und die notwendigen bodenmechanischen Parameter zu ermitteln. Als Voruntersuchung kommt dafür die Geophysik in Frage. Die Relevanz der einzelnen Methoden wird in dieser Arbeit vorgestellt. Im Anschluss daran sollte eine Erkundung mit konventionellen Methoden erfolgen. Mit den Ergebnissen wird das Baugrundmodell aufgestellt und die wichtigen bodenmechanischen Parameter ermittelt. Ziel dieser Arbeit war es, eine Vorgehensweise zu Erkundung von Hochwasserschutzdeichen aufzustellen.
Bei einem marktüblichen Calciumsulfat-Fließestrich wurden in der Praxis schädigende Volu-menexpansionen festgestellt. Diese sind ein Resultat aus dem Zusammenwirken des einge-setzten Bindemittel-Compounds und einer kritischen Gesteinskörnung.
Das Ziel dieser Arbeit ist es, ein Calciumsulfat-Bindemittelsystem zu konfektionieren, welches in der Lage ist, die im Mörtel festgestellten Volumenexpansionen zu unterbinden. Es sollen verschiedene Bindemittel- und Additivzusammensetzungen untersucht werden, welche in Verbindung mit der kritischen Gesteinskörnung die Herstellung eines volumenstabilen Fließestrichs ermöglichen. Dazu soll folgende Fragestellung beantwortet werden: Welche Ursachen hat die Volumenzunahme und wie ist diese zu minimieren bzw. unterbinden?
Dabei werden unterschiedliche Bindemittelrezepturen aus α-Halbhydrat, Thermoanhydrit und Naturanhydrit, sowie verschiedene Additivzusammensetzungen hergestellt und untersucht.
Durch Längenänderungsmessungen in der Schwindrinne werden die Einflüsse der Binde-mittel, der Additivzusammensetzungen und der Wasser/Bindemittel-Werte auf das Län-genänderungsverhalten untersucht. Mittels Variation der einzelnen Compound-Bestandteile kann festgestellt werden, dass der Stabilisierer die Längenänderung negativ beeinflusst. Dieser bindet freies Wasser, welches für eine Reaktion zwischen Bindemittel und Gesteins-körnung im plastischen Zustand nicht mehr zur Verfügung steht. Diese Reaktion kann folglich erst im erhärteten Zustand ablaufen und verursacht die schädigende Volumenexpansion.
Abschließend wurde ein Bindemittel-Compound konfektioniert, welcher ohne Zusatz von Stabilisierern in Zusammenhang mit der kritischen Gesteinskörnung volumenstabil ist und keine Schäden auslöst.
Für anwendungsbezogene Lösungsansätze im Bereich der Siedlungswasserwirtschaft im urbanen Raum ist es wichtig, die Inhalte komplexer ineinander greifender Systeme zu begreifen. Ein Simulationsspiel kann hilfreich sein, um den Nutzer mit neuen Technologien und Möglichkeiten der Kombination vertraut zu machen. Aufgrund hoher Anforderungen an Komplexität und Detailliertheit der Modelle ist die Entwicklung eines solchen Spiels teuer und aufwändig. Diese Arbeit untersucht, inwieweit sich das kommerziell zu Unterhaltungszwecken entwickelte Spiel SimCity 5 (Version 2013) nutzen lässt bzw. wie es konfiguriert werden muss. Im Speziellen wird dies am Beispiel des naturnahen Regenwassermanagements im urbanen Raum erläutert.
Die Analyse von SimCity 5 zeigt, dass sich das Spiel durchaus als Werkzeug zur Entscheidungsunterstützung eignet. Die Teilsysteme der Siedlungswasserwirtschaft sind jedoch zu stark vereinfacht, sodass Verbesserungsbedarf besteht.
Um Szenarien des naturnahen Regenwassermanagements in das Spiel zu integrieren, wurde im Rahmen der Arbeit das Modell SimRegen entwickelt. Da derzeit keine Schnittstelle zur agentenbasierten Simulationsengine GlassBox freigegeben ist, wurden Teilaspekte des Modells mit Hilfe des agentenbasierten Simulationswerkzeugs NetLogo (Version 5.0.4) implementiert.
Die Diskussionen in der Politik und in der Gesellschaft über Klimawandel, globale Erwärmung oder Nachhaltigkeit, die schon noch länger anhält, werden nie ein Ende finden, solange die Probleme, auf denen sie basiert, unlösbar bleiben. Vorgeschlagene Lösungen werden meist nicht richtig umgesetzt. Im Zusammenhang mit dieser Problematik steigt aber das Verantwortungsgefühl für bessere Zukunftsstrategien immer mehr. Die in den letzten Jahren vorgekommenen Umweltkatastrophen, wie im Golf von Mexiko (April 2010) oder im Fukushima (März 2011) die noch aktuell sind, zeigen, dass der Primärenergieeinsatz oder die Transportproblematik nicht mehr nur die Sorge der Entwicklungsländer, sondern auch der Industrieländer ist. Die Bauwelt mit ihrem erheblichen Energiebedarf spielt bei der Festlegung der Zukunftsstrategien eine große Rolle.
Vor allem sind die Forschungen nach umweltfreundlichen Materialien, der Recyclebarkeit der eingesetzten Baumaterialien oder dem vernünftigen Nutzen der Naturressourcen die wichtigsten Schwerpunkte. In dieser Hinsicht bringt Lehm als Baumaterial viele Vorteile mit sich. Bei einem Artikel sagt der Lehmbauexperte Martin Rauch: “In heutiger Zeit und einem Kulturkreis, in dem Baugrund und Arbeitszeit unsere großen Kosten verursachen, findet der tradierte Lehmbau mit dem verbundenen großen Aufwand an menschlicher Arbeitszeit nur schwer seinen Platz. Über die Art der Bauweise wird auch die Entscheidung gefällt, wie und wo die Wertschöpfung erfolgt und ob der Einsatz des Budgets einen gesellschaftlichen Nutzen mit sich bringt. Im Vergleich zu einem Sichtbetonhaus können bei einem Stampflehmhaus 40% der Primärenergie ein gespart und dafür mehr lokale Arbeitsressourcen gebunden werden. Davon profitieren vor allem die lokalen Handwerker und mittelständischen Betriebe” Anatolien ist der Ort, wo man immer noch die tiefsten Wurzeln der Baukultur menschlicher Geschichte findet. Diese Baukultur, die in den vergangenen Jahrzehnten fast verlorengegangen ist, ist die Lehmbaukultur. In dieser Hinsicht beabsichtigt dieser Entwurf die Würde des Lehms in Anatolien wieder herzustellen und dadurch dessen Glaubwürdigkeit zurückzubringen.
Das Hauptziel der vorliegenden Arbeit war es, eine stetige Kopplung zwischen der ananlytischen und numerischen Lösung von Randwertaufgaben mit Singularitäten zu realisieren. Durch die inter-polationsbasierte gekoppelte Methode kann eine globale C0 Stetigkeit erzielt werden. Für diesen Zweck wird ein spezielle finite Element (Kopplungselement) verwendet, das die Stetigkeit der Lösung sowohl mit dem analytischen Element als auch mit den normalen CST Elementen gewährleistet.
Die interpolationsbasierte gekoppelte Methode ist zwar für beliebige Knotenanzahl auf dem Interface ΓAD anwendbar, aber es konnte durch die Untersuchung von der Interpolationsmatrix und numerische Simulationen festgestellt werden, dass sie schlecht konditioniert ist. Um das Problem mit den numerischen Instabilitäten zu bewältigen, wurde eine approximationsbasierte Kopplungsmethode entwickelt und untersucht. Die Stabilität dieser Methode wurde anschließend anhand der Untersuchung von der Gramschen Matrix des verwendeten Basissystems auf zwei Intervallen [−π,π] und [−2π,2π] beurteilt. Die Gramsche Matrix auf dem Intervall [−2π,2π] hat einen günstigeren Konditionszahl in der Abhängigkeit von der Anzahl der Kopplungsknoten auf dem Interface aufgewiesen. Um die dazu gehörigen numerischen Instabilitäten ausschließen zu können wird das Basissystem mit Hilfe vom Gram-Schmidtschen Orthogonalisierungsverfahren auf beiden Intervallen orthogonalisiert. Das orthogonale Basissystem lässt sich auf dem Intervall [−2π,2π] mit expliziten Formeln schreiben. Die Methode des konsistentes Sampling, die häufig in der Nachrichtentechnik verwendet wird, wurde zur Realisierung von der approximationsbasierten Kopplung herangezogen. Eine Beschränkung dieser Methode ist es, dass die Anzahl der Sampling-Basisfunktionen muss gleich der Anzahl der Wiederherstellungsbasisfunktionen sein. Das hat dazu geführt, dass das eingeführt Basissys-tem (mit 2 n Basisfunktionen) nur mit n Basisfunktion verwendet werden kann.
Zur Lösung diese Problems wurde ein alternatives Basissystems (Variante 2) vorgestellt. Für die Verwendung dieses Basissystems ist aber eine Transformationsmatrix M nötig und bei der Orthogonalisierung des Basissystems auf dem Intervall [−π,π] kann die Herleitung von dieser Matrix kompliziert und aufwendig sein. Die Formfunktionen wurden anschließend für die beiden Varianten hergeleitet und grafisch (für n = 5) dargestellt und wurde gezeigt, dass diese Funktionen die Anforderungen an den Formfunktionen erfüllen und können somit für die FE- Approximation verwendet werden.
Anhand numerischer Simulationen, die mit der Variante 1 (mit Orthogonalisierung auf dem Intervall [−2π,2π]) durchgeführt wurden, wurden die grundlegenden Fragen (Beispielsweise: Stetigkeit der Verformungen auf dem Interface ΓAD, Spannungen auf dem analytischen Gebiet) über-
prüft.
Ziel dieser Diplomarbeit war es unter Verwendung von Messwerten und mathematischen Grundlagen eine Ermittlung der Tragfähigkeit vorhandener Straßenkonstruktionen. Ausgangspunkt waren Messungen auf zwei verschiedenen Strecken (L 2141 Andisleben-Dachwig, L1042 Gierstedt-Kleinfahner). Die Messungen wurden jeweils mit dem Benkelmannbalken und dem Falling-Weight-Deflectometer vorgenommen. Beide Verfahren unterscheiden sich durch die Art der Lateintragung. Die Lasteintragung erfolgt mit dem Benkelmannbalken statisch und mit dem Falling-Weight-Deflectometer dynamisch. Daraus folgt, dass die aus den Einsenkungswerten ermittelten E-Module mittels Benkelmannbalken statische E-Module und mittels Falling-Weight-Deflectometer. dynamische E-Module sind. Der E-Modul einer Schicht ist ein Maß für den Verformungswiderstand einer Straßenkonstruktion. Jede Straßenkonstruktion weist ein kompliziertes Verformungsverhalten auf. Betonstraßen besitzen in der Regel größere E-Module als Asphaltstraßen, die sich aber viskoelastisch und viskoplastisch verformen können. Der E-Modul einer Schicht ist auch von der jeweiligen Schichthöhe abhängig. Grundsätzlich gilt, je mehr Einsenkungswerte von einer Straßenkonstruktion zur Verfügung stehen, desto genauer fallen die Beurteilungen hinsichtlich ihrer Tragfähigkeit aus. Die mathematische Ermittlung der Tragfähigkeit einer Straßenkonstruktion erfolgt über die Festlegung eines mathematischen Modells. Es wurden verschiedene Modelle untersucht. Das einfachste Modell zur Beschreibung einer Straßenkonstruktion ist der elastisch- isotrope Halbraum, wobei der gesamte Straßenkörper durch einen einzigen E-Modul beschrieben wird. Eine wesentlich exaktere Beschreibung einer Straßenkonstruktion ist das Zweischichtensystem. In diesem System wird der bituminöse Aufbau mit der Schichtdicke h und dem E-Modul E1 gekennzeichnet und die Unterlage (Frostschutzschicht und Untergrund zusammengefasst) mit dem E-Modul E2 beschrieben. Das Zweischichtensystem hat den Vorteil, dass ein erkennbarer E-Modul Sprung zwischen der gebundenen Schicht (E1) und der ungebundnen Schicht (E2) entsteht. Ein drei oder mehrschichtiges System hier anzuwenden ist sehr schwierig, da dieses nicht eindeutig bestimmt ist. Das Zweischichtensystem ist eindeutig bestimmt und liefert genügend gute Ergebnisse, um die Tragfähigkeit zu beschreiben.
Bei der Bearbeitung geotechnischer Aufgabenstellungen treten häufig Probleme bei der Vorhersage des Setzungsverhaltens von Böden auf. Numerische Methoden auf Basis finiter Elemente oder finiter Differenzen werden oftmals als Hauptinstrumente der Prognose verwendet. Dabei erzielen sie jedoch nicht selten Ergebnisse, die im Nachhinein als unbefriedigend bezeichnet werden müssen. Eine Begründung dafür liegt in der Verwendung linearer Stoffgesetze, die auf Ansätze aus der Elastizitätstheorie beruhen. Werden höherwertige Stoffgesetze eingesetzt, so fehlen oftmals gesicherte Aussagen zu den erforderlichen Bodenkennwerten. Diese müssen durch ein umfangreiches Versuchsprogramm mit einer aufwendigen Auswertung bestimmt werden. Ziel dieser Arbeit ist es daher, eine robuste Methode zu entwickeln, die in der Lage ist, aus Messwerten (Feld) und Versuchsergebnissen (Labor) geeignete Parameter für Modelle mit nichtlinearer Konsolidationstheorie zu ermitteln. Dazu werden die Möglichkeiten der Mathematik ausgenutzt, welche inverse Methoden zur Verfügung stellt, mit denen man mehrere Bodenkennwerte (hauptsächlich Steifigkeiten und Durchlässigkeiten) gleichzeitig unter Be-rücksichtung ihrer Wechselbeziehungen zueinander bestimmen kann. Als Instrumentarium dafür steht das Programm AdConsol-1D zur Verfügung, welches die inverse Parameterermittlung auf Basis mathematischer Optimierungsmethode ermöglicht. Ein Test- und Versuchsdamm, der im Finnischen Haarajoki (Haarajoki Test Embankment) errichtet wurde und über längeren Zeitraum messtechnisch überwacht wurde, dient als Validationsbeispiel. Dieser wurde auf sehr verformungsempfindlichem Boden errichtet. Durch Aufbereitung und Auswertung der Feld- und Laborversuche am Haarajoki Test Embankment wurden die Grundlagen für die inverse Parameterermittlung geschaffen. Dazu wurde eine Methode zur Konstruktion plausib-ler Porenwasserüberdrücke aus Setzungsmessungen und Laborversuchsdaten entwickelt. Mit den Werten der Optimierung wurde ein Modell im 2D FEM Programm Plaxis erstellt, welches die in Haarajoki gemessenen Setzungen und Porenwasserdrücke möglichst genau reproduzieren sollte. Es zeigte sich, dass sich Bodenparameter des eindimensionalen nichtlinearen Konsolidati-onsmodells nicht problemlos auf ein 2D FEM Modell übertragen lassen. Insbesondere fehlen gesicherte Aussagen über die Größe des horizontalen Durchlässigkeitskoeffizienten kx und des Referenzsekantenmoduls E50Ref aus dem Triaxialversuch. Die inverse Berechnung für sich betrachtet verlief dahingegen zufrieden stellend mit dem eindimensionalen Modell in AdConsol-1D. Auf dieser Grundlage ist die Erstellung einer realistischen Prognose des weiteren Konsolidationsverlaufes am Haarajoki Test Embankment möglich.
In dieser Diplomarbeit mit dem Thema „Modellierung von Fußgängerbrücken aus faserverstärktem Kunststoff“ wird ein Tragwerk aus glasfaserverstärktem Kunststoff für eine Fußgängerbrücke mit 10,0 m Stützweite entwickelt, untersucht und hinsichtlich der Dimensionierung und Konstruktion analysiert. Inhaltlich wird hierzu in den Vorbetrachtungen zum Thema auf vorhandene Beispiele für Brückentragwerke aus faserverstärkten Kunststoffen eingegangen. Es werden die im Rahmen der Diplomarbeit wichtigen Sachverhalte hinsichtlich des Materials der faserverstärkten Kunststoffe (FVK) und auch die erforderlichen Grundlagen für die Berechnungen gegeben. Nach der Vorstellung verschiedener Ideen für Tragwerksquerschnitte erfolgt als Schwerpunkt der Diplomarbeit die rechnergestützte Modellierung und Berechnung einer Vorzugsvariante sowie die Auswertung und Analyse der Berechnungsergebnisse. Abschließend wird das entwickelte Tragwerk bewertet und es werden weitere Entwicklungsmöglichkeiten aufgezeigt.
Die vorliegende Arbeit beschäftigt sich mit den bodenmechanischen Ursachen von Gründungsschäden sowie Techniken zu deren Sanierung. Kernaufgabe ist es, einen Auswahlprozess zu entwickeln, mit dem im konkreten Schadensfall das zweckmäßigste technische Verfahren zur Sanierung bestimmt werden kann. Hierzu werden zunächst mögliche Schadensursachen katalogisiert. Anschließend werden die gegenwärtig in Deutschland gebräuchlichsten Sanierungstechniken analysiert und einander gegenübergestellt. Zur Ermittlung der geeignetsten Sanierungstechnik in einem realen Projekt wird ein allgemeiner zweistufiger Entscheidungsalgorithmus vorgeschlagen. Dieser setzt sich aus einem Entscheidungsbaum mit anschließender Nutzwertanalyse zusammen. Ergebnis des Algorithmus’ ist ein Ranking, welches die infrage kommenden Techniken nach ihrem Nutzen für die Sanierung ordnet. Anhand zweier Praxisbeispiele - dem Schloss Schwerin und der St. Jacobi-Schlosskirche in Osterode am Harz - wird abschließend die Wirkungsweise des Algorithmus demonstriert. Ergebnis der Arbeit ist, dass die Formulierung eines allgemeinen entscheidungsbaumes, der jedwede Eventualität einer speziellen Bauaufgabe berücksichtigt, nahezu unmöglich ist. Der entwickelte Entscheidungsbaum ist mitunter noch zu ungenau um die Auswahl an Techniken ausreichend einzuschränken. Die darum als zweite Stufe etablierte Nutzwertanalyse erwies sich als effiziente und transparente Entscheidungshilfe. Bei ihr ist jedoch die Gefahr einer subjektiven Beeinflussung der Entscheidung durch den Planer gegeben. In einem konkreten Projekt könnte durch eine Verfeinerung des Baumes seine Selektion wesentlich verbessert werden, so dass am Ende nur eine einzige Technik als zweckmäßigste ausgewiesen wird. Eine Nutzwertanalyse könnte in diesem Fall als zweite Stufe entfallen.
Identifying cable force with vibration-based methods has become widely used in engineering practice due to simplicity of application. The string taut theory provides a simple definition of the relationship between natural frequencies and the tension force of a cable. However, this theory assumes a perfectly flexible non-sagging cable pinned at its ends. These assumptions do not reflect all cases, especially when the cable is short, under low tension forces or the supports are partially flexible. Extradosed bridges, which are distinguished from cable-stayed bridges by their low pylon height, have shorter cables. Therefore the application of the conventional string taut theory to identify cable forces on extradosed bridge cables might be inadequate to identify cable forces.
In this work, numerical modelling of an extradosed bridge cable saddled on a circular deviator at pylon is conducted. The model is validated with the catenary analytical solution and its static and dynamic behaviours are studied. The effect of a saddle support is found to positively affect the cable stiffness by geometric means; longer saddle radius increases the cable stiffness by suppressing the deformations near the saddle. Further, accounting the effects of bending stiffness in the numerical model by using beam elements show considerable deviation from models with truss elements (i.e. zero bending stiffness). This deviation is manifested when comparing the static and dynamic properties. This motivates a more thorough study of bending stiffness effects on short cables.
Bending stiffness effects are studied using two rods connected with several springs along their length. Under bending moments, the springs resist the rods' relative axial displacement by the springs' transverse component. This concept is used to identify bending stiffness values by utilizing the parallel axis theorem to quantify ratios of the second moment of area. These ratios are calculated based on the setup of the springs (e.g. number of springs per unit length, transverse stiffness, etc...). The numerical model based on this concept agrees well with the theoretical values computed using upper and lower bounds of the parallel axis theorem.
The proposed concept of quantifying ratios of the second moment of area using springs as connection between cable rods is applied on an actual extradosed bridge geometry. The model is examined by comparison to the previously validated global numerical model. The two models showed good correlation under various changing parameters. This allowed further study of the effects of stick/slip behaviour between cable rods on an actual bridge geometry.
The main purpose of the thesis is to ensure the safe demolition of old guyed antenna masts that are located in different parts of Germany. The major problem in demolition of this masts is the falling down of the masts in unexpected direction because of buckling problem. The objective of this thesis is development of a numerical models using finite element method (FEM) and assuring a controlled collapse by coming up with different time setups for the detonation of explosives which are responsible for cutting down the cables. The result of this thesis will avoid unexpected outcomes during the demolition processes and prevent risk of collapsing of the mast over near by structures.
Zur Tragwerksanalyse bzw. zu Tragfähigkeits- und Bemessungsaufgaben dienen Betrachtungen an ausgewählten Querschnitten der Tragelemente. Besonders interessieren Normalspannungs- und Dehnungsverteilungen sowie Grenzbeanspruchungsniveaus und Grenzkapazitäten am Querschnitt. Die statische Wirksamkeit von Verbundquerschnitten basiert auf Verbundwirkung zwischen Querschnittsanteilen unterschiedlicher Materialeigenschaften (z.B. Verbundbau) oder unterschiedlicher Zeitpunkte ihrer statischen Mitwirkung (z.B. nachträgliche Querschnittsergänzungen). Hierbei kommt es häufig zu Fehlinterpretationen des prinzipiellen Tragverhaltens. In der vorliegenden Arbeit werden numerische Berechnungsmodelle zur Querschnittsanalyse vorgestellt und das Tabellenkalkulationsprogramm MS EXCEL zur Lösung der iterativen Berechnungsalgorithmen genutzt. Betrachtet werden Querschnitte üblicher Konstruktionen des Massiv-, Stahl- und Verbundbaus (Baustahl-Beton) unter ein- oder zweiachsiger Biegebeanspruchung und Normalkraft. Zur annähernden Erfassung des realen Tragverhaltens zu ausgewählten Zeitpunkten sind nichtlineare Spannungs-Dehnungs-Beziehungen der Materialien, Vordeformationen von einzelnen Querschnittsanteilen, nachträgliche Ergänzungen zu neuen statisch wirksamen Verbundquerschnitten sowie Rissbildungsmodelle im Beton berücksichtigt. Die im Rahmen dieser Arbeit entstandene programmtechnische Umsetzung „VerbQ“ (auf Basis von MS EXCEL und MS VISUAL BASIC) wurde anhand von Beispielrechnungen vorgestellt und erläutert.
Die Entstehung des Baugrundes ist geprägt durch die Genese und von anthropogenen Einflüssen. In der Arbeit werden auf der Grundlage isotroper Betrachtungen im Halbraum Prognosen für unbeprobte Bereiche eines linienförmigen Bauwerkes erstellt. Aufbauend auf dem bekannten Algorithmus der Geostatistik werden Berechnungen mit deterministischen Eingangsgrößen durchgeführt. Diese sind in einem Datensatz zusammengefasst und gehen ohne Unterteilung bzw. Bildung von (Homogen)Bereichen in die Schätzungen ein. Zur Anwendung kam dabei die an der Professur Grundbau der Bauhaus-Universität Weimar entwickelte Software GeoStat. Nach der Variogrammanalyse folgten geostatistische Berechnungen mit dem Ordinary und dem Universal Kriging. Der genutzte Datensatz unterlag dabei mehrfachen Modifikationen, um Unterschiede in der Ergebnisbildung beobachten zu können. Die Krigingschätzungen wurden für subjektiv ausgewählte Beprobungspunkte erstellt, die mit Referenzprofilen verglichen werden konnten. Im Ergebnis traten für alle durchgeführten Simulationen erhebliche Abweichungen der berechneten Werte zu den Referenzprofilen auf. Die Verwendung von Datensätzen ohne eine vorherige Bearbeitung und Unterteilung in Homogenbereiche erweist sich als nicht ratsam. Vielmehr ist es notwendig kompliziertere Krigingvarianten einzusetzen bzw. die benutzten Methoden mit anderen Verfahren zu kombinieren.
Im Rahmen dieser Arbeit wurde der Energieeintrag beim Laserstrahl-schweißen untersucht. Das verwendete Material ist ein Stahl der Sorte S355 J2G3. Für das FE-Programm SYSWELD sind verschiedene Wärmequellen entwickelt, erprobt und über Temperaturfelder mit einander verglichen wurden. Dabei kamen unterschiedliche Netz-varianten zum Einsatz. Der Energieeintrag wurde abzüglich der Verluste die beim Laserstrahlschweißen entstehen betrachtet, dabei sind die Verluste aus Transmission, Reflexion und Metalldampf separat betrachtet wurden. Es wurden auch Materialparameter wie: Verdampfungsenthalpie, spezifische Wärmekapazität sowie Wärmeleit-fähigkeit analysiert. Die Ergebnisse zur Anpassung des Energieeintrages waren im Gegensatz zu den Materialparametern noch ausbaufähig.
Ziel war es eine MAG- Stumpfschweißverbindung mit anschließender WIG- Überschmelzung zu simulieren. Es galt den Einfluss einer WIG- Nachbehandlung auf die Gefügestruktur der Stumpfnaht aus S690QL und dessen Eigenspannungszustand zu untersuchen. Die WIG- Nachbehandlung erzeugt eine im Wesentlichen martensitische Gefügestruktur im überschmolzenen Bereich der kerbgefährdeten Schweißnahtübergänge. Dieses konnte anhand von Mikroschliffbildern der Schweißverbindung verifiziert werden. Die Härtewerte nach Vickers sind durch die WIG- Nachbehandlung gering gesenkt und auf einen weniger konzentrierten Bereich verteilt worden. Das Zugspannungsniveau im Bereich der Nahtübergänge konnte ebenfalls gering gesenkt werden.
Die Diplomarbeit leistet einen Betrag zur numerischen Untersuchung des Verzuges eines Feinkornbaustahles beim MAG-Schweißen. Ziel dabei war es, Informationen zu dem schweißbedingten Verzug beeinflussenden Größen zusammenzustellen, Angaben zu möglichen Berechnungsformeln des an einer T-Stoßverbindung durch das Schweißen entstehenden Winkelverzuges des Gurtes zu recherchieren und die Grundlagen für eine Verzugsberechnung mit Hilfe der Finite-Element-Methode darzustellen. Das Hauptinteresse lag dabei jedoch auf den durch das Schweißen von Kehlnähten entstehenden Winkelverzuges des Gurtes an T-Stoßverbindungen. Dieser wurde mit Hilfe numerischer Berechnungen untersucht. Dabei wurden die Einflüsse, welche geometrischen, werkstofflichen oder verfahrensbedingten Ursprungs seien können, betrachtet.
In conjunction with the improved methods of monitoring damage and degradation processes, the interest in reliability assessment of reinforced concrete bridges is increasing in recent years. Automated imagebased inspections of the structural surface provide valuable data to extract quantitative information about deteriorations, such as crack patterns. However, the knowledge gain results from processing this information in a structural context, i.e. relating the damage artifacts to building components. This way, transformation to structural analysis is enabled. This approach sets two further requirements: availability of structural bridge information and a standardized storage for interoperability with subsequent analysis tools. Since the involved large datasets are only efficiently processed in an automated manner, the implementation of the complete workflow from damage and building data to structural analysis is targeted in this work. First, domain concepts are derived from the back-end tasks: structural analysis, damage modeling, and life-cycle assessment. The common interoperability format, the Industry Foundation Class (IFC), and processes in these domains are further assessed. The need for usercontrolled interpretation steps is identified and the developed prototype thus allows interaction at subsequent model stages. The latter has the advantage that interpretation steps can be individually separated into either a structural analysis or a damage information model or a combination of both. This approach to damage information processing from the perspective of structural analysis is then validated in different case studies.
Baulogistische Vorgänge sind in einer modern angelegten Baustelle der Schlüssel zu einer wirtschaftlichen Abwicklung. Dieses gilt nicht nur für den Rohbau, bei dem die sehr enge Verzahnung zwischen den Fertigungs- und Logistikprozessen auf der Baustelle zu beobachten ist, sondern noch mehr für die Ausbauphase, bei der vermeintlich unabhängig voneinander agierende Einzelunternehmen des Ausbaus auf engem Raum miteinander um die jeweils besten Liefer- und Montagebedingungen konkurrieren.
Ausgehend von einer aktuellen Großbaustelle in Jena werden verschiedene Varianten einer leistungsfähigen Baulogistik entwickelt und deren Implementierung auf der Baustelle vorbereitet werden.
Mit dieser Diplomarbeit werden die wichtigsten limnologischen Wechselwirkungen eines Gewässer- Ökosystems und der beteiligten Organismen ausführlich dargestellt. Dabei ist der „Nährstoffabbau“ speziell des Phosphors durch Plankton, Algen und Wasserpflanzen sowie dessen Einflussfaktoren wesentlich. In diesem Zusammenhang spielt die Phosphordynamik zwischen Gewässer, Sediment und Organismen eine entscheidende Rolle. Anhand ausgewählter Thüringer Badegewässer wird der Zusammenhang zwischen dem Phosphorgehalt und der Cyanobakterien- Dominanz untersucht. Von Bedeutung sind weitere hygienische Parameter der Wasserqualität. Mögliche Aussagen bei der Analyse der oligotrophen, natürlichen Badegewässer werden auf die naturnahen Schwimm- und Badeteiche übertragen. Da Schwimm- und Badeteiche künstlich errichtete Bauwerke sind, sind Aspekte der anthropogenen Nutzung bedeutsam. Hierzu zählen die Bauformen bzw. Größenver-hältnisse und der Technikeinsatz. Es wird geprüft, ob aufgrund vorliegender Daten be-züglich des Eintrages und der Elimination eine Bilanzierung des Phosphors in Schwimm- und Badeteichanlagen möglich ist. Als Ergebnis dieser Diplomarbeit werden Empfehlungen zu Errichtung und Betrieb von Schwimm- und Badeteichen erarbeitet, die den überwachungsbedürftigen Parameter Phosphor betreffen.
Central point of this study is to evaluate stiffness properties of pavement, specifically the E or G- modulus determined by different testing methods. Stiffness of soil is both stress and strain dependent property and otherwise different methods usually affect the material in different ways. The Young’s modulus E0 and shear modulus G0 correspond to the very small strain level are regarded as the initial or maximal stiffness of the relevant stress-strain curves of a given material. The modulus decay curve is called the degradation curve, which also reviewed in this study. With the results of different measurement methods applied for a reclaimed mining site in Klettwitz for determining of stiffness parameter of subsoil, author have tried to find a unification between the results considering the relationship between stiffness parameter and the range of strain levels. The testing methods executed at plant S9 in Klettwitz-Südfeld are: laboratory oedometer test, static plate load test, dynamic plate load test, and seismic testing methods (spectral analysis of surface wave, SASW). Some results getting from this study are: one receives different absolute values of stiffness parameter from different testing methods. The reason is different testing methods produce different range of strain levels in soil during their execution. Conventional and non-destructive testing methods should be combined together for investigating of subsoil characteristics. This means, the soil parameters must be adjusted to the current range of strain level. Especially for settlement calculation it is recommended that different values of stiffness modulus, Es, resulted by different testing methods should be simultaneously utilized along the depth beneath loading surface. Accuracy for determining of stiffness degradation curves depends a lot on the determination of maximal stiffness parameters (E0, G0) at the range of very small strain level, and it still requires much further studies.
Renewable energy use is on the rise and these alternative resources of energy can help combat with the climate change. Around 80% of the world's electricity comes from coal and petroleum however, the renewables are the fastest growing source of energy in the world. Solar, wind, hydro, geothermal and biogas are the most common forms of renewable energy. Among them, wind energy is emerging as a reliable and large-scaled source of power production. The recent research and confidence in the performance has led to the construction of more and bigger wind turbines around the world. As wind turbines are getting bigger, a concern regarding their safety is also in discussion. Wind turbines are expensive machinery to construct and the enormous capital investment is one of the main reasons, why many countries are unable to adopt to the wind energy. Generally, a reliable wind turbine will result in better performance and assist in minimizing the cost of operation. If a wind turbine fails, it's a loss of investment and can be harmful for the surrounding habitat. This thesis aims towards estimating the reliability of an offshore wind turbine. A model of Jacket type offshore wind turbine is prepared by using finite element software package ABAQUS and is compared with the structural failure criteria of the wind turbine tower. UQLab, which is a general uncertainty quantification framework developed at ETH Zürich, is used for the reliability analysis. Several probabilistic methods are included in the framework of UQLab, which include Monte Carlo, First Order Reliability Analysis and Adaptive Kriging Monte Carlo simulation. This reliability study is performed only for the structural failure of the wind turbine but it can be extended to many other forms of failures e.g. reliability for power production, or reliability for different component failures etc. It's a useful tool that can be utilized to estimate the reliability of future wind turbines, that could result in more safer and better performance of wind turbines.
Im Rahmen dieser Diplomarbeit werden die diffusen Phosphoreinträge am Beispiel des Einzugsgebietes der oberen Rur bilanziert . Im theoretischen Teil dieser Diplomarbeit werden die Grundlagen für die Darstellung des Nährstofftransportes erarbeitet. Dabei erfolgt die Beschreibung der Eintragswege von Phosphor in die Gewässer, die Herkunft und Art von Phosphoreinträgen sowie die wichtigen Eintragspfade der diffusen Phosphoreinträge. Mit diesen gewonnenen Erkenntnissen ist es möglich, den Stofftransport einschließlich der ablaufenden Prozesse mittels mathematischer Gleichungen über die Eintragspfade zu simulieren. Somit gelingt es, die Funktionsweise und die Anwendbarkeit, der zum Einsatz kommenden aktuellen Wasser- und Stofftransportmodelle zur Quantifizierung diffuser Phosphoreinträgen zu verstehen. Im praktischen Teil dieser Diplomarbeit werden die diffusen Phosphoreinträge im Einzugsgebiet der oberen Rur unter Hilfenahme der zuvor ermittelten Grundlagen bilanziert. Dabei ist es nötig, das Einzugsgebiet zu beschreiben, abzugrenzen und die enthaltenen Gewässer zu beleuchten. Weiterhin erfolgte eine Recherche der im Einzugsgebiet vorhandenen Flächennutzungen, um die Bilanzierung mit den aus der Literatur ermittelten Gleichungen und Werten durchführen zu können. Das Ergebnis ist eine Phosphorjahresfracht mit der das Einzugsgebiet bewertet werden kann.
Projector-based displays have been evolving tremendously in the last decade. Reduced costs and increasing capabilities have let to a widespread use for home entertainment and scientific visualization. The rapid development is continuing - techniques that allow seamless projection onto complex everyday environments such as textured walls, window curtains or bookshelfs have recently been proposed. Although cameras enable a completely automatic calibration of the systems, all previously described techniques rely on a precise mapping between projector and camera pixels. Global illumination effects such as reflections, refractions, scattering, dispersion etc. are completely ignored since only direct illumination is taken into account. We propose a novel method that applies the light transport matrix for performing an image-based radiometric compensation which accounts for all possible lighting effects. For practical application the matrix is decomposed into clusters of mutually influencing projector and camera pixels. The compensation is modeled as a linear equation system that can be solved separately for each cluster. For interactive compensation rates this model is adapted to enable an efficient implementation on programmable graphics hardware. Applying the light transport matrix's pseudo-inverse allows to separate the compensation into a computational expensive preprocessing step (computing the pseudo-inverse) and an on-line matrix-vector multiplication. The generalized mathematical foundation for radiometric compensation with projector-camera systems is validated with several experiments. We show that it is possible to project corrected imagery onto complex surfaces such as an inter-reflecting statuette and glass. The overall sharpness of defocused projections is increased as well. Using the proposed optimization for GPUs, real-time framerates are achieved.
In dieser Arbeit wird eine umfassende Untersuchung der raumakustischen Qualität der Schlosskapelle des Weimarer Residenzschlosses für den Zustand, wie sie zwischen 1658 und 1774 existierte, durchgeführt. Die Schlosskapelle als sakraler Raum innerhalb der Schlossanlage diente der Ausübung religiöser Handlungen und war fester Bestandteil des kulturellen Lebens am Weimarer Hof. Eine wesentliche Bedeutung erlangte sie in diesem Zusammenhang als musikalische Wirkungsstätte Johann Sebastian Bachs. Mit ihrer akustischen Qualität hatte sie einen erheblichen Einfluss auf sein musikalisches Schaffen. Die Untersuchung der raumakustischen Situation stellt damit eine notwendige Grundlage für eine musikwissenschaftliche Einordnung der Schlosskapelle als Aufführungsstätte geistlicher Kompositionen dar. Der raumakustische Zustand der Weimarer Schlosskapelle ist eng mit der baulichen Entwicklung der gesamten Schlossanlage verbunden, die infolge äußerer Einflüsse einem steten Wandel unterlag. Die Umgestaltung der Schlosskapelle zu Beginn des 17. Jahrhunderts erfolgte nach barocken Raumvorstellungen. Einen wesentlichen Einfluss auf die Gestaltung des Innenraumes übte zudem die reformierte Kirche mit ihren liturgischen Anforderungen aus. Die historische Entwicklung der architektonischen Stilepoche sowie der protestantischen Kirche wird in Bezug zu dem akustischen Erscheinungsbild der Schlosskapelle näher untersucht. Ausgehend von der architektonischen Rekonstruktion wird die Raumstruktur der historischen Schlosskapelle in ein Computermodell übertragen, mit dem die Berechnung akustischer Bewertungskriterien möglich ist. Eine ausgiebige Recherche nach verwendeten Materialien und der Ausbildung baulicher Konstruktionen ist dabei die Grundvoraussetzung für aussagekräftige Simulationsergebnisse. Die Wahl der Materialparameter sowie der Einfluss der geometrischen Besonderheiten der Weimarer Schlosskapelle auf die simulierten Schallfeldparameter werden durch die Untersuchung eines Referenzobjektes verifiziert. Dafür werden die akustischen Bewertungskriterien mit einer raumakustischen Messung ermittelt und mit Simulationsergebnissen verglichen. Ein besonderes Interesse bei der Simulation der Schlosskapelle gilt der Nachhallzeit als Charakteristikum der Halligkeit, die in sakralen Gebäuden die auffälligste akustische Raumeigenschaft darstellt. Mit der rekonstruierten Nachhallzeit wird die Schlosskapelle mit barocken Kirchen verglichen und bezüglich ihrer Lage im baustiltypischen Bereich beurteilt. Der Direktschall und die im zeitig folgenden Reflexionen sind bei der raumakustischen Simulation maßgeblicher Gegenstand der Betrachtung. Während der Nachhall das Verschmelzen einzelner Töne zu einem Gesamtklang fördert, ist der Direktschall für die Deutlichkeit von Sprache und der klanglichen Durchsichtigkeit von musikalischen Strukturen verantwortlich. Der Einfluss des Direktschalls wird mit speziellen Energiekriterien beurteilt, mit denen gezielte Aussagen über die akustische Qualität einzelner Platzbereiche möglich sind. Die unterschiedlichen akustischen Anforderungen an die Schlosskapelle bei der jeweiligen Nutzung des Raumes werden mit den Energiekriterien differenziert untersucht und bewertet.
Bei Produktionsprozessen, die auf den Prinzipien „Just-In-Time“ oder „Just-In-Sequence“ beruhen, ist es wichtig, dass die notwendigen Lieferteile pünktlich am Verarbeitungsort vorliegen. Wie groß die Auswirkungen des heutigen und des zukünftigen Verkehrsgeschehens, insbesondere der Verkehrsstörungen, auf die Transportdauern und die somit einzuplanenden Lieferzeiten sind, soll mit dieser Arbeit untersucht werden. Neben der Ermittlung der DTV-Werte für die Jahre 2007 und 2015 mittels einer „linearen Einfachregression“ und der Abschätzung der zukünftigen Baustellensituation wurden dazu Verkehrsmeldungen der Autobahnen 9, 14 und 93 von rund 100 Tagen derart aufbereitet und ausgewertet, dass es am Ende möglich wird, in Abhängigkeit einer bestimmten Tageszeit, Aussagen über die momentane Reisezeitverteilung zu treffen. Somit kann abgeschätzt werden, zu welcher Startzeit die Wahrscheinlichkeit einer störungsfreien Fahrt sehr hoch ist und welche Zeit vermieden werden sollte, da dann auf jeden Fall eine zusätzliche Reisezeit eingeplant werden müsste. Wie hoch diese Reisezeitzuschläge sind, hängt von der Länge der Wegintervalle, den Arten der Verkehrsstörungen und ihren Eintretenswahrscheinlichkeiten ab. Ein weiteres Ergebnis dieser Diplomarbeit liegt darin, Autobahnabschnitte aufzuzeigen, die derzeit besonders häufig von Stau oder stockendem Verkehr betroffen sind und somit oft längere Reisezeiten zur Folge haben. Aufbauend auf den heutigen Ergebnisse wird auch abgeschätzt, wie sich diese Reisezeitverteilung in den nächsten Jahren ändert, wenn die zukünftigen Verkehrsstärken und Querschnitte der Autobahnen zugrunde gelegt werden.
Scalarization methods are a category of multiobjective optimization (MOO) methods. These methods allow the usage of conventional single objective optimization algorithms, as scalarization methods reformulate the MOO problem into a single objective optimization problem. The scalarization methods analysed within this thesis are the Weighted Sum (WS), the Epsilon-Constraint (EC), and the MinMax (MM) method. After explaining the approach of each method, the WS, EC and MM are applied, a-posteriori, to three different examples: to the Kursawe function; to the ten bar truss, a common benchmark problem in structural optimization; and to the metamodel of an aero engine exit module.
The aim is to evaluate and compare the performance of each scalarization method that is examined within this thesis. The evaluation is conducted using performance metrics, such as the hypervolume and the generational distance, as well as using visual comparison.
The application to the three examples gives insight into the advantages and disadvantages of each method, and provides further understanding of an adequate application of the methods concerning high dimensional optimization problems.
Die Wiedernutzung von durch verkippten Abraum geprägten Flächen ehemaliger Braunkohletagebaue als Bauland hat in den letzten Jahren an Bedeutung gewonnen. Aufgrund der durch die Verkipptechnologie entstandenen Inhomogenität es Baugrundes, ist mit starken Schwankungen der bodenmechanischen Eigenschaften zu rechnen. Dies macht den Umgang mit solchen Kippenböden schwierig. Dennoch hat es bis zum jetzigen Zeitpunkt einige Projekte gegeben, die die Bebauung von Tagebaukippen beinhaltet haben. Das in dieser Arbeit behandelte Projekt umfasst den Neubau einer Erschließungsstraße, die teilweise über eine Braunkohletagebaukippe führt. Für den Verkehrsdamm, gegründet auf Kippenboden, ist in dieser Arbeit eine Setzungsprognose zu erstellen. Dazu müssen zunächst vorhandene Daten der Baugrunderkundung und Bauplanung erfasst und ausgewertet werden. Für die Setzungsberechnung relevante Baugrund- und Materialparameter und Maße werden zunächst zusammengefasst. Neben seiner Inhomogenität ist besonders die makroporige Struktur des Baugrundes durch Klumpenbildung entscheidend. In einem weiteren Schritt werden die Messdaten aus dem Setzungsmonitoring ausgewertet. Die Ergebnisse dieser Messungen dienen zum einen dem Vergleich mit den durch Berechnung oder Abschätzung ermittelten Setzungen und zum anderen der Kalibrierung oer Rückrechnung der Steifemodule im analytischen Berechnungsteil. Das Setzungsverhalten von Verkehrsdämmen auf Tagebaukippen ist grundsätzlich durch die große Verformbarkeit des Kippenbaugrundes unter Belastung geprägt. Aber auch die Setzungsanteile aus Eigensetzung der Kippe und des Dammes müssen in die Betrachtungen einbezogen werden. Dazu gibt es Abschätzungen und einfache Formeln auf Basis von Erfahrungswerten. Eine Besonderheit stellen eventuelle Sättigungssackungen des Kippenbodens resultierend aus dem Wiederanstieg des Grundwassers dar. Für diesen Verformungsanteil existiert lediglich ein Abschätzungsansatz aus Erfahrungswerten. Die Addition der einzeln ermittelten Verformungsanteile führt dann zur Setzungsprognose mithilfe konventioneller Verfahren. Mit dem Programm PLAXIS wird im nächsten Schritt eine numerische Berechnung der Dammsituation in den betrachteten Berechnungsschnitten durchgeführt. Relevante Materialmodelle und die Wahl der Parameter werden beschrieben und begründet. Im Zuge der Bearbeitung kommen das Mohr-Coulomb-Modell, das Hardening-Soil-Modell und das Soft-Soil-Modell zur Anwendung. Die berechneten Setzungen werden miteinander und mit den gemessenen Setzungen verglichen, um ihre Tauglichkeit für den Sonderfall der Tagebaukippen zu bewerten. Im Sinne einer Baugrundverbesserung existiert eine Vielzahl an Maßnahmen, die reduzierend oder beschleunigend bezogen auf die Verformungen des Baugrundes wirken. Auf diese Verfahren wird in einem abschließenden Abschnitt näher eingegangen. In einer kritischen Bewertung wird projektspezifisch ihre Tauglichkeit bzw. Anwendbarkeit geprüft.
Shrinkage tests and unconfined compression tests were carried out in this research. Four soil with different percentages of fines were used. Three possibilities to measure the matric suction of a soil are shown in this tesis – Tempe pressure cell test – pressure plate test and null-type-axis-translation test.
Die Simulation ist vor allem in der Forschung und Wissenschaft ein bekanntes Ver-fahren zur Untersuchung von dynamischen Prozessen. Fachgebiete wie u.a. die Medizin und Biologie, das Verkehrswesen, die Automobilindustrie, die Meteorologie und die Fertigungstechnik gewinnen neue Erkenntnisse aus dem Einsatz derartiger Analyseverfahren. Gründe für die Anwendung von Computersimulationen erstrecken sich von finanziellen und zeitlichen Aspekten über eine Risikoverringerung bis hin zu einer vereinfachten Vorgehensweise. Nicht in allen Bereichen aber werden die viel-seitigen Vorteile von Simulationsmethoden genutzt. In der Baubranche wird Simulation derzeit nur ansatzweise eingesetzt. Doch vor al-lem Baustellen bieten durch den zunehmenden Kosten- und Termindruck sowie viel-seitige andere Einflüsse eine gute Basis für die Anwendung von Simulationsmetho-den. Der Bauablauf kann dadurch besser kontrolliert und gesteuert werden. In der Planungsphase von Bauprojekten wird Simulation bereits in Grundzügen für die Op-timierung von Bauablauf- und Logistikprozessen genutzt. Allerdings ist besonders die Ausführungsphase durch Störungen und Änderungen geprägt, sodass hier Simu-lationsmethoden noch effektiver eingesetzt werden können. Im Rahmen dieser Arbeit sollen die Einsatzmöglichkeiten von Simulationsmethoden für die Optimierung des Termincontrollings untersucht werden. Durch das Aufzeigen verschiedener Methoden sowie einem Vergleich über ihre Vor- und Nachteile wird herausgefiltert, welches Simulationswerkzeug am effektivsten im Termincontrolling eingesetzt werden kann. Ein weiteres Ziel dieser Arbeit ist die Modellierung eines Beispielprozesses anhand eines ausgewählten Simulationsverfahrens. Die Herstellung einer Brückenkappe wird in diesem Zusammenhang umfangreich dargestellt und analysiert. Eventuelle Zwangspunkte bei der Umsetzung und verschiedene Lösungsmöglichkeiten werden aufgezeigt.
Die Arbeit befasst sich mit der österreichischen Bogenstaumauer Kölnbrein, die während des Ersteinstaus geschädigt wurde. Diese Schäden, sowie mögliche Ursachen sind anhand von Literaturquellen dokumentiert. Nach Erstellung eines Rechenmodells wurden, durch ein Randelementeprogramm, Rissfortschrittsberechnungen durchgeführt und mit dem realen Bauwerk verglichen. Zum Einsatz kamen die Anwendungen „OSM“, „FRANC3D“ und „BES“ der Cornell-University.
Aufgabe war es, eine Schweißnaht numerisch zu simulieren und die dabei entstehenden Eigenspannungen mit dem Programm SYSWELD zu simulieren. Dazu war es notwendig, eine entsprechende Wärmequelle für das MIG-Schweißen abzubilden, um die eingetragene Wärme in Form eines Temperaturfeldes darzustellen. Die Berechnung erfolgte unter Verwendung der temperaturabhängigen Materialkennwerte der verschweißten Werkstoffe, die in einer Literaturrecherche zusammengestellt wurden. Untersucht wurde außerdem der Einfluss der Modelliergenauigkeit auf die entstehenden Eigenspannungen. Dabei konnte festgestellt werden, dass eine realitätsnahe Darstellung der Naht von großer Bedeutung ist, um die Kerbwirkung der Schweißnaht zu erkennen.
In this thesis, a generic model for the post-failure behavior of concrete in tension is proposed. A mesoscale model of concrete representing the heterogeneous nature of concrete is formulated. The mesoscale model is composed of three phases: aggregate, mortar matrix, and the Interfacial Transition Zone between them. Both local and non-local formulations of the damage are implemented and the results are compared. Three homogenization schemes from the literature are employed to obtain the homogenized constitutive relationship for the macroscale model. Three groups of numerical examples are provided.
In dieser Arbeit wird der Vortriebsprozess einer Erddruckschildmaschine in einem Simulationsmodell mit Hilfe der System Dynamics modelliert. Nach einer Einführung in den maschinellen Tunnelbau werden die Besonderheiten der Erddruckschildmaschine herausgestellt. Anschließend wird das betrachtete System mit dem Simulationskonzept der System Dynamics modelliert und in einem geeigneten Simulationstool implementiert.
Smart Cities and Mobility Stations: Lessons learned from the Smarter Together in Vienna and Munich
(2020)
With an increasing urban population and urban problems arising from this unplanned growth, several projects aimed at promoting sustainable urban development have emerged. Smart mobility strategies, such as shared mobility and mobility stations, represent some of the solutions to promote changes in travel behavior. Despite its beneficial impacts, however, the implementation of such infrastructure is criticized for not contributing to current urban issues, as well as often disregarding knowledge about urban space and its functioning.
In this context, the Smarter Together, a joint research and innovation project funded through the European Union program H2020, was implemented. The project selected three lighthouse cities to test and upscale innovative solutions: Vienna, Munich, and Lyon.
This master thesis presents the main characteristics of the mobility stations systems implemented in Vienna and Munich in the scope of the project Smarter Together. Its main goal is to share what can be learned from their experiences while approaching critically the concept of smart cities. This master thesis identifies important aspects to take into account when planning, implementing, and operating mobility stations, and provides an understanding of smart cities and smart mobility that goes beyond the adoption of technology. Several methods were combined for the development of this master thesis, such as quantitative secondary data, observational studies, application of survey forms, explorative expert interviews, and literature review.
This work has demonstrated that the Smarter Together has a cutting-edge scope and contributed greatly to research and innovation, by creating living laboratories to test the application of technology in the urban environment. However, from the perspective of the mobility stations assessment, many caveats were made. In short, many lessons could be learned and are presented throughout this work aiming at contributing to the improvement of the mobility stations implemented in the project areas in Munich and Vienna, as well as for inspiring other cities in Europe and worldwide.
Für das städtische Leben hat die Existenz sich verändernder Personenströme eine grundlegende Bedeutung.
Ein Werkzeug, das solche kollektiven Bewegungsmuster sichtbar machen kann, wäre dabei ein bedeutendes Hilfsmittel für die Stadtplanung. Im Mittelpunkt der vorliegenden Arbeit steht die Auseinandersetzung mit der Space Syntax Methode.
Diese untersucht den Zusammenhang räumlicher Strukturen mit deren Nutzung. Eine wichtige Erkenntnis ist, dass das kollektive menschliche Verhalten im öffentlichen Raum berechenbar ist. Die Tatsache, dass Passanten bestimmte Wege bevorzugen und andere meiden, führt Space Syntax dabei auf stadträumliche Ursachen zurück. Der Begriff des Natural Movement beschreibt den Anteil dieser räumlich bedingten Nutzung.
Die vorliegende Arbeit gliedert sich in einen theoretischen und einen praktischen Teil. Zunächst werden die für das Verständnis der Space Syntax Methode wichtigen Begriffe und Maßgrößen beschrieben. Der methodische Teil wird ergänzt durch eine Gegenüberstellung nutzer-basierter wissenschaftlicher Ansätze mit der räumlich-orientierten Space Syntax Methode.
Im zweiten Teil der Arbeit wird die praktische Anwendung der Space Syntax Methode am Beispiel des Leipziger City-Tunnels vorgenommen. Das Fallbeispiel ist prädestiniert für die Untersuchung, wie die regionale Vernetzung des Schienenverkehrs aktuell betrieben wird. Von Interesse ist dabei sowohl die Konzeption des zukünftigen Liniennetzes als auch dessen stadträumliche Einbindung.
STIFTERS ROSENHAUS
(2007)
Es mag verwegen klingen, den Ursprung der modernen Architektur ausgerechnet in der österreichischen Provinz verankern zu wollen. Doch tatsächlich finden wir hier – mit Adalbert Stifters "Nachsommer" von 1857 – die wohl früheste Formulierung einer Urhütte der Moderne. Stifter (1805-1867), der Nationalheilige der österreichischen Literatur, beschreibt in seiner Erzählung auf das ausführlichste und umfänglichste das sogenannte Rosenhaus. Vor allem die Architekten der traditionellen Richtung waren immer wieder fasziniert von diesen Beschreibungen und ließen sich von Stifter auf die vielfältigsten Weisen anregen. Die Ausführungen des Hausherren des Rosenhofes über die Produkte seiner Werkstätten und die Schilderungen des einfachen Lebens in den Räumen des Rosenhauses fanden einen immensen Widerhall bei den Baumeistern der frühen Werkbundbewegung, ebenso wie bei den Architekten aus dem Umfeld der Stuttgarter Schule. So lassen sich nachsommerliche Impulse in Leben, Werk und Lehre der traditionellen Architekten Paul Schultze-Naumburg, Theodor Fischer und Paul Schmitthenner entdecken, aber auch bei Vertretern einer dezidierten Moderne wie Erich Mendelsohn, Bruno Taut oder Walter Gropius. So kann gezeigt werden, dass Schultze-Naumburgs privates Anwesen im sachsen-anhaltinischen Saaleck eine vollständige Realisierung des Rosenhauses und der damit verbundenen Lehrwerkstättenidee darstellt. Und am Beispiel von Paul Schmitthenner und Theodor Fischer kann auf eindrucksvolle Weise nachvollzogen werden, wie Stifters "Gesetzbuch des schönen Lebens" Werk, Lehre und Alltag eines Architekten bestimmen konnte. Für Friedrich Nietzsche, der den "Nachsommer" unter die wenigen Werke deutscher Literatur nach Goethe einordnete, die es verdienten, "wieder und wieder gelesen zu werden", stellte der "Roman der heilen Welt" die Vorwegnahme seines Diktums dar, dass das Dasein nur als ein Ästhetisches zu rechtfertigen sei. Das Rosenhaus, und dessen ethisches sowie ästhetisches Ideal, bildete die dazu entsprechende räumliche Form. Der "Nachsommer" ist, mit Roland Barthes gesprochen, eine Utopie – genauer: eine häusliche Utopie – "die gestaltende Suche nach dem höchsten Gut, was das Wohnen angeht." Dabei sind die selbstgewählten, ästhetischen Verhaltensweisen, die Stifter damals – am Beginn der Moderne – begründete, bis heute Merkmal der Formen des Bürgerlichen und sein Rosenhaus das Modell einer modernen, bürgerlich-traditionellen Architektur. Für beides, für die Ästhetik des Lebens wie auch für die entsprechende Architektur, diente Goethe oder besser die Beschreibung Goethes durch seinen Sekretär Eckermann als Vorbild.
The polymeric clay nanocomposites are a new class of materials of which recently have become the centre of attention due to their superior mechanical and physical properties. Several studies have been performed on the mechanical characterisation of these nanocomposites; however most of those studies have neglected the effect of the interfacial region between the clays and the matrix despite of its significant influence on the mechanical performance of the nanocomposites.
There are different analytical methods to calculate the overall elastic material properties of the composites. In this study we use the Mori-Tanaka method to determine the overall stiffness of the composites for simple inclusion geometries of cylinder and sphere. Furthermore, the effect of interphase layer on the overall properties of composites is calculated. Here, we intend to get ounds for the effective mechanical properties to compare with the analytical results. Hence, we use linear displacement boundary conditions (LD) and uniform traction boundary conditions (UT) accordingly. Finally, the analytical results are compared with numerical results and they are in a good agreement.
The next focus of this dissertation is a computational approach with a hierarchical multiscale method on the mesoscopic level. In other words, in this study we use the stochastic analysis and computational homogenization method to analyse the effect of thickness and stiffness of the interfacial region on the overall elastic properties of the clay/epoxy nanocomposites. The results show that the increase in interphase thickness, reduces the stiffness of the clay/epoxy naocomposites and this decrease becomes significant in higher clay contents. The results of the sensitivity analysis prove that the stiffness of the interphase layer has more significant effect on the final stiffness of nanocomposites. We also validate the results with the available experimental results from the literature which show good agreement.
Structural optimization has gained considerable attention in the design of structural engineering structures, especially in the preliminary phase.
This study introduces an unconventional approach for structural optimization by utilizing the Energy method with Integral Material Behavior (EIM), based on the Lagrange’s principle of minimum potential energy. An automated two-level optimization search process is proposed, which integrates the EIM, as an alternative method for nonlinear
structural analysis, and the bilevel optimization. The proposed procedure secures the equilibrium through minimizing the potential energy on one level, and on a higher level, a design objective function. For this, the most robust strategy of bilevel optimization, the nested method is used. The function of the potential energy is investigated along with its instabilities for physical nonlinear analysis through principle examples, by which the advantages and limitations using this method are reviewed. Furthermore, optimization algorithms are discussed.
A numerical fully functional code is developed for nonlinear cross section,
element and 2D frame analysis, utilizing different finite elements and is verified
against existing EIM programs. As a proof of concept, the method is applied on selected
examples using this code on cross section and element level. For the former one a
comparison is made with standard procedure, by employing the equilibrium equations
within the constrains. The validation of the element level was proven by a theoretical
solution of an arch bridge and finally, a truss bridge is optimized. Most of the
principle examples are chosen to be adequate for the everyday engineering practice, to
demonstrate the effectiveness of the proposed method.
This study implies that with further development, this method could become just as
competitive as the conventional structural optimization techniques using the Finite
Element Method.
Diese Arbeit umfasst eine Zusammenfassung der aktuellen Fertigteil- und Montagetechnik sowie Grundkenntnisse von automatisierten Systemen im Bauwesen. Dabei wird ein Überblick über den Stand der Technik gegeben und die daraus entstehenden Voraussetzungen für eine automatisierte Fertigteilmontage, beginnend bei den TUL-Prozessen bis hin zur Montage, definiert. Folgend werden Grundüberlegungen hinsichtlich weiterer Forschungsansätze bzw. Weiterführungen dieser modernen Technologien aufgezeigt sowie Schnittstellen zwischen Maschinen und Vermessungstechniken und Systemlücken bei der Anwendung analysiert. Eine Wirtschaftlichkeitsbetrachtung der mechanischen und automatisierten Fertigteilmontage soll die Zeit- und Lohnkosteneinsparungen aufzeigen. Weiterhin wurde eine Systematisierung von besonderen Verbindungs- und Anschlaghilfsmittel durchgeführt. Dabei bezog sich die Auswertung auf die Produktpaletten der vier größten deutschen Firmen. Grundsätzlich versteht sich die Arbeit als zukunftsorientiert und basiert auf einer sachlichen Untersuchung der Zusammenhänge.
In Deutschland hat sich das vollautomatische Bauen bisher vergleichsweise bescheiden entwickelt. Ein hoher Automatisierungsgrad ist dagegen seit Jahren bei den stationären Mischanlagen von Baustoffen, wie Beton und Asphalt sowie in der Serienfertigung standardisierter Betonwaren zu finden. Jedoch fehlen in Deutschland die Voraussetzungen, um grundlegend neu konzipierte, flexibel automatisierte oder roboterisierte Maschinen und Systeme zu entwickeln und einzusetzen. Zur Schaffung dieser Voraussetzungen soll die vorliegende Arbeit einen Beitrag leisten. Sie betrachtet ausschließlich die Skelettbauweise. Diese stellt ein Teilgebiet des Betonfertigteilbaus dar. Da eine Automatisierungslösung grundsätzlich erst bei großen Objekten mit einer hohen Wiederholungsrate der Prozesse und Elemente wirtschaftlich ist, wird die Montage eines Mehrzweckkomplexes untersucht. Die Tragstruktur dieses Gebäudes setzt sich, charakteristisch für die Skelettbauweise, aus Stützen und Bindern zusammen. Dabei werden im Hinblick auf die Aufgabenstellung dem herkömmlichen Montageablauf die Besonderheiten und bautechnischen Voraussetzungen einer automatisierten Montage hinzugefügt. Es wird eingrenzend speziell die Montage einer Fertigteilstütze und eines Unterzuges aufgezeigt. Nach einem einleitenden Kapitel sind in Kapitel 2 die Grundlagen der Automatisierung dargestellt. Darin werden die Gründe für eine Automatisierung und deren theoretischen Vorraussetzungen beleuchtet. Vornehmlich umfasst dies die Erläuterung der Anforderungen an Automatisierungsgeräte und automatisierungsgerechte Fertigteile. Im sich anschließenden Kapitel 3 werden die Vorraussetzungen der Planung, der Vermessung und der Herstellung umfassend dargelegt. Die Planungs-voraussetzungen beschreiben den ganzheitlichen Lösungsansatz von Entwurf, Planung, Herstellung, Ausführung (Montage) und Betrieb der Gebäude. Die verschiedenen Technologien zur Positionsbestimmung, Identifikation und Objektverfolgung werden in den vermessungstechnischen Grundlagen erläutern. Um alle Bereiche, die vor dem Beginn der eigentlichen Montage notwendig sind zu beleuchten wird schließlich in den herstellerseitigen Vorraussetzungen insbesondere beschrieben, welche optischen Markierungen, Sensoren und andere Hilfsmittel in die Fertigteile zu integrieren sind. Das Kapitel 4 beschreibt detailliert die beispielhafte Montage der Fertigteilstütze und des -unterzuges. Ergänzend sind in die einzelnen Schritten der Montage selbst entwickelte Varianten integriert. Als Grundlage werden zu jedem Prozess Gemeinsamkeiten aller Varianten aufgeführt. Daran schließen sich nach Bedarf individuelle Erläuterungen an. Die Varianten sind aus Überlegungen des Autors und aus den Konsultationen mit dem betreuenden Lehrstuhl entwickelt worden. Sie werden in diesem Teil der Arbeit detailliert beschrieben und ihre Eigenarten und Verwendungszwecke erläutert. Im Ganzen gesehen ergibt dieses Kapitel eine komplette Montage mit verschiedenen Möglichkeiten die einzelnen Schritte auszuführen. Im Kapitel 5 werden zu den jeweiligen Varianten die Vor- und Nachteile knapp und übersichtlich dargestellt. Aus welchen Gründen eine Variante weiterverfolgt werden sollte oder sie nicht umsetzbar ist, ist in einem sich jeweils anschließenden kurzen Fazit begründet. Anschließend wird unter teilweiser Verwendung der Varianten eine Vorzugsvariante zur automatisierten Montage entwickelt. Auf detailliertere Ausführungen wurde hier verzichtet um sich nicht zu wiederholen und Redundanzen zu vermeiden. Ausführlich wurden die einzelnen verwendeten Varianten bereits im Kapitel 4 beschrieben. Das Kapitel 6 untersucht die wirtschaftlichen Potentiale einer automatisierten Fertigteilmontage und stellt die Kosten einer automatisierten Montage, denen einer herkömmlichen Montage gegenüber. Dabei wurden verschiedene Annahmen getroffen, die aus den Ergebnissen der vorliegenden Arbeit, den Ergebnissen der Diplomarbeit von Frau Lauterbach und weiteren Literaturrecherchen abgeleitet wurden. Kapital 7 fasst die Ergebnisse der Arbeit zusammen und gibt Hinweise auf notwendige weiterführende Forschungen und Untersuchungen.
Im Rahmen der Forschung an Bauteil- und Fügestellendämpfung wurden die Schwingungen der Bauteile bisher mit 1D-Laser-Vibrometern gemessen. Nun steht ein 3D-Laser-Scanner zur Verfügung. Diese Arbeit beschäftigt sich mit der Frage, ob mit dem 3D-Laser-Scanner bessere und weitere relevante Daten bei der Schwingungsmessung gewonnen werden können.
Aufgabe der Masterarbeit war es, eine Eibnführung in die WRRL und deren Implementierung zu geben sowie das Darstellen erster Umsetzungsschritte in Norwegen.
Aus theoretischen Grundlagen zu Beschreibungsmöglichkeiten dreidimensionaler Geometrieobjekte und deren Anwendung in bestehenden Lösungen aus CAD, GIS und VR, wird ein Konzept zu dreidimensionalen Analysen erarbeitet. Dieses Konzept beinhaltet Objektanalysen wie Volumen, Schwerpunkt und Trägheitsmomente, Beziehungsanalysen wie Berührt, Überlappt, im Abstand oder gleiche Form sowie Verschneidungsanalysen über die Mengenoperationen Schnitt, Differenz und Vereinigung.
In dieser Diplomarbeit werden – anhand eines Simulationsprogrammes – die diffusen Schallfelder in Atrien untersucht. Diesbezüglich standen Referenzobjekte in Berlin zur Verfügung. Es wurde untersucht, inwieweit sich die Raumgeometrie, die Volumina und die Absorptionseigenschaften der Umhüllungsflächen auf die Energieverteilung im Atriumsraum auswirken. Ziel der Arbeit ist es, Optimierungspotenziale aufzuzeigen und Lösungsvorschläge zu entwickeln, die zeigen, mit welchen Mitteln und Methoden die Raumakustik nachträglich verbessert werden kann.
Untersuchung zum effizienten Schalungseinsatz bei häufig vorkommenden Sonderaufgaben im Schalungsbau
(2005)
Der Schalungseinsatz auf einer Ortbetonbaustelle hat wesentlichen Einfluß auf die Wirtschaftlichkeit einer Baumaßnahme. Der Arbeitsvorbereitung mit der Auswahl des geeigneten Schalungssystems kommt dabei die größte Bedeutung zu. In Ergänzung zu den Systemschalungen existieren einige Sonderlösungen der Schalungsanbieter, deren Einsatz sich bereits bei wenigen Nutzungen als kostengünstig erweisen kann. Der Kostenvergleich zwischen verschiedenen Varianten ist von vielen Faktoren abhängig. Da jedes Bauvorhaben ein Unikat darstellt, können keine allgemeingültigen Aussagen oder Berechnungen angestellt werden.
Beim Entwurf signalgesteuerter Knotenpunkte werden Signalsteuerung und Knotenpunktgestaltung aufeinander abgestimmt. Die bauliche Gestaltung vorfahrtgeregelter und lichtsignalgesteuerter Knotenpunkte weist demnach Differenzen auf. Ein Ausfall der LSA wie auch das Abschalten dieser während der Nachtstunden stellt eine Abweichung vom ursprünglichen Betriebskonzept dar. Zwei maßgebliche Anforderungen an Knotenpunkte in Hinblick auf die Verkehrssicherheit stellen die Erkennbarkeit und Begreifbarkeit des Knotenpunktes dar. Es wurde ein Kriterienkatalog entwickelt, der die bauliche Ausbildung des Knotenpunktes speziell hinsichtlich dieser beiden Aspekte untersucht und somit Mängel in der Verkehrssicherheit von Knotenpunkten mit ausgefallener und abgeschalteter LSA aufzeigt. Hierbei werden sowohl allgemeingültige Defizite als auch solche, die aus der unterschiedlichen Ausbildung entsprechend der geplanten Verkehrsregelung resultieren, aufgezeigt. Der entwickelte Kriterienkatalog diente als Leitfaden bei der Untersuchung von sechs lichtsignalgesteuerten Knotenpunkten im Stadtgebiet Weimar. Entsprechend der hier aufgezeigten Defizite wurden Maßnahmen entwickelt, die diese Mängel beseitigen sollen und zum Teil auf andere Knotenpunkte übertragbar sind.
Untersuchungen adaptiver Modellanpassungen für Probleme dynamischer Bauwerks-Bodeninteraktion
(2009)
Die Eigenschaften des Baugrunds können das dynamische Verhalten eines Bauwerks in erheblichem Maße beeinflussen. Um daraus resultierende Veränderungen der Tragwerksbeanspruchung ermitteln zu können, muss der Boden in den Berechnungsmodellen zur Bestimmung der Tragwerksbeanspruchung berücksichtigt werden. Die möglichen Modellierungsvarianten unterscheiden sich in ihrer Komplexität erheblich. Im Rahmen dieser Arbeit wird das dynamische Verhalten eines konkreten Bauwerks, der Millikan Library, an einem numerischen Modell untersucht. Während das Partialmodell Bauwerk während der Untersuchungen unverändert bleibt, werden für den Boden verschiedene Modellierungsvarianten verwendet. Allen Bodenmodellen gemein ist, dass sie auf einfachen, gekoppelten Feder-Dämpferelementen beruhen. Die mit den unterschiedlichen Modellierungsvarianten des Bodens erzielten Ergebnisse werden einander gegenüber gestellt und mit dem, im Rahmen anderer Arbeiten experimentell bestimmten, dynamischen Verhalten des untersuchten Bauwerks verglichen.
Das Ziel der vorliegenden Diplomarbeit war es, „Untersuchungen hinsichtlich des Einflusses von Phase Change Materials auf die Raumlufttemperatur“ durchzuführen und anschließend die Ergebnisse auszuwerten. Dabei galt es, thermodynamische Grundlagen zu erläutern sowie den derzeitigen Stand der Forschung darzulegen. Dies wurde umfassend bearbeitet, allerdings kann hierbei aufgrund des Umfangs und der Vielfalt im Bereich der internationalen PCM-Forschung kein Anspruch auf Vollständigkeit erhoben werden. Ein Hauptteil dieser Arbeit bestand darin, den Versuchsaufbau der Referenzräume im Eiermann-Bau in Apolda als Grundlage für spätere Messungen detailliert zu beschreiben. Dabei wurde auf die gesamte Messanlage, die eingebrachten PCM sowie auf daraus resultierende physikalische Kenngrößen ausführlich eingegangen. Es galt, geometrische, chemische und physikalische Einflüsse einzuschätzen, aber auch Schwachstellen aufzudecken, um die später folgenden Messreihen exakt auswerten zu können. Als kritisch einzuschätzende Größe fiel dabei besonders das eingebrachte Salzgemisch auf, welches hinsichtlich des Schmelz- und Kristallisationsbereiches als kaum beurteilbar auffiel. Dies konnte auch nach mehreren Untersuchungen, hier ist insbesondere die dynamische Differenzkalorimetrie zu nennen, nicht hinreichend geklärt werden. Basierend auf diesen Erkenntnissen wurden vergleichende Messreihen durchgeführt, welche durch verschiedene Luftwechselraten gestaltet wurden. Im Maximum konnte dabei im PCM-konditionierten Raum eine Reduktion der Temperatur um 6 K erreicht werden. Dabei muss allerdings berücksichtigt werden, dass diese Differenz größtenteils auf die thermische Masse des Salzgemischs zurückgeführt werden kann. Eine abschließende Messung ohne Salzgemisch zeigte, dass aufgrund des latenten Wärmespeichervermögens des PCM-Putzes lediglich eine thermische Differenz von 2 K erreicht werden kann. Hinsichtlich der Luftwechselrate ist anzumerken, dass die erwartete, vergleichsweise zügige Auskühlung trotz Lüftung in der Praxis nicht nachvollzogen werden konnte. Zur Auswertung der gewonnenen Messwerte galt es, das am Lehrstuhl Bauphysik vorhandene mathematische Minimalmodell auf die am Objekt vorhandenen Randbedingungen anzupassen. Aus den Datenwolken der Atmosphärentemperatur sowie der Globalstrahlung mussten Funktionen approximiert werden, da diese äußeren Zwänge einen entscheidenden Einfluss auf den Verlauf der Innenraumtemperatur ausüben. Die Ergebnisse der Berechungen des Temperaturverlaufs können als zufrieden stellend betrachtet werden, jedoch wurde deutlich, dass ein genaues Nachstellen nicht möglich ist. Dies ist vor allem auf die Tatsache zurückzuführen, dass das Minimalmodell lediglich eine Beschreibung der wesentlichen Prozesse mathematisch abbildet. Eine kritische Auseinandersetzung hinsichtlich allgemeiner Standpunkte als auch der Anwendbarkeit auf die Referenzräume wurde abschließend diskutiert.
Variantenuntersuchung für eine dauerhafte Bahndammsanierung unter zu Hilfenahme numerischer Methoden
(2004)
Das Ziel der Arbeit war es, die Standsicherheit eines Bahndammes im Vergleich der in Deutschland gültigen Vorschriften (DIN 1054 und Eurocode 7) zu untersuchen. Sollte sich dabei herausstellen, dass der Bahndamm in der gegebenen Situation die Standsicherheitsanforderungen nicht erfüllt sollten verschiedene Sanierungsvarianten vorgeschlagen und für eine Vorzugsvariante die wichtigsten Nachweise durchgeführt werden. Zunächst wurden die Allgemeinen Grundlagen der zur Zeit in Deutschland gültigen Vorschriften erläutert und anschließend auf das konkrete Projekt bezogen gegenübergestellt. Es stellte sich heraus, dass die Anforderungen an die Standsicherheit bei Berechnung nach beiden Vorschriften nicht erfüllt werden konnten. Somit war es notwendig für die gegebene Situation mögliche Sanierungsvorschläge zu entwickeln. Diese wurden anschließend kurz vorgestellt und erläutert. Schließlich wurden für die Vorzugsvariante die wichtigsten Nachweise im Vergleich der Vorschriften (DIN 1054 und Eurocode 7) durchgeführt und verglichen.
Zielstellung: Im Rahmen von Verkehrswegebauprojekten werden häufig Dämme aus Felsbruchmaterialien hergestellt. Solche Materialien weisen in der Regel einen hohen Anteil an Steinen und Blöcken auf. Dieses Größtkorn muss zerkleinert werden, um eine hohlraumarme Verdichtung gewährleisten zu können und damit spätere Sackungen durch Verlagerung der Gesteinsblöcke auszuschließen. Die diesbezüglichen Vorgaben der ZTVE-StB sind einzuhalten. Über die eingesetzte Verdichtungstechnologie lassen sich Gesteine bis zu bestimmten maximalen einaxialen Druckfestigkeiten auf entsprechende Korngrößen zertrümmern. Der Unternehmer muss entscheiden, ob mit einer gewählten Verdichtungstechnologie das Felsbruchmaterial ausreichend stark zertrümmert wird, um die Vorgaben zu erfüllen. Gleichzeitig darf der Feinkornanteil durch den Zertrümmerungsvorgang nur geringfügig ansteigen, um den Anforderungen bezüglich Durchlässigkeit und Frostempfindlichkeit gerecht zu werden. Die geforderten Tragfähigkeiten und Dichten müssen sichergestellt sein. Aufgrund fehlender Vergleichsuntersuchungen ist die Beurteilung der geeigneten Verdichtungstechnologie meist problematisch. Größenordnungen und Leistungsansätze können dadurch falsch eingeschätzt werden. Ziel dieser Diplomarbeit ist die Untersuchung der Beziehung zwischen Festigkeit und Zertrümmerung von Felsbruchmaterial in Abhängigkeit der eingesetzten Verdichtungstechnologie. Es soll untersucht werden, inwieweit vorhandene Steine und Gesteinsblöcke durch Verdichtungsvorgänge eine Zertrümmerung erfahren und welche Auswirkungen das auf die Korngrößenverteilung, insbesondere auch hinsichtlich des Feinkornanteils, hat. Ein Zusammenhang zu den erreichten Tragfähigkeiten und Dichten soll hergestellt werden. Dadurch kann die geplante Verdichtungstechnologie im Bezug auf ihre Wirksamkeit besser eingeschätzt und gegebenenfalls optimiert werden. Die Beurteilung von Leistungsansätzen und Kosten im Rahmen der Angebotserarbeitung wird somit deutlich vereinfacht.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden Analyse unterschiedlicher Berechnungsansätze zum hydraulischen Grundbruch. Diese wurden zunächst analysiert, an Beispielberechnungen angewandt und schließlich miteinander verglichen. Weiterhin wurde der Einfluss verschiedener Randbedingungen, allem voran der Baugrubenbreite, auf die Sicherheit gegen einen hydraulischen Grundbruch untersucht. Es werden Empfehlungen zur Anwendbarkeit verschiedener Näherungsansätze bei Vorhandensein bestimmter Einflussfaktoren gegeben.
Wechselwirkung zwischen Baugrundmodell und Gründungsentwurf am Beispiel eines Maschinenfundaments
(2004)
Die Beschreibung und Modellierung des Baugrundes erweist sich aufgrund seiner Genese als schwierig. Diese Tatsache soll am Beispiel eines Gründungsentwurfs, durch die Gegenüberstellung zweier unterschiedlicher Modellansätze demonstriert werden. In diese Betrachtung gehen zum einen "Subjektive Schätzungen" und zum anderen "[Geo]Statistische Baugrundmodelle" ein. Die Bemessung erfolgt anhand einer identischen Ausgangsdatenbasis. Im Ergebnis zeigen sich große Abweichungen zwischen beiden Modellansätzen, die sich auf unterschiedlichen Umgang mit den streuenden Baugrundkenngrößen zurückführen lassen. Die streuenden Baugrundkenngrößen werden bei den "Subjektiven Schätzungen" durch einen einzigen, ungünstig wirkenden Kennwert repräsentiert, der die Eigenschaften eines Homogenbereichs beschreibt. Bei den "[Geo]Statistischen Baugrundmodellen" werden die Baugrundkenngrößen in ihrer Streubreite erfasst, ausgewertet und mit der Monte-Carlo-Simulation in der Grenzzustandsfunktion berücksichtigt.
A complex artistic research on the theme of cultural heritage and (neo)colonial processes of material and immaterial expropriation. Starting from the encounter with a phonographic relic at the Berliner Phonogramm-Archiv, the artist embarks on a journey to her own roots embodied in the practice of the Afro-Brazilian religion Candomblé. In the form of a theoretical treatise, an archive (photos, diagrams, maps, newspaper clippings, letters, documents), as well as a sound performance in the public space of the city of Weimar, several theoretical and performative elements are brought together in this transmedia artistic research that proposes a true decolonial practice.
Why isn't Google welcome in Kreuzberg? Social movement and the effects of Internet on urban space
(2020)
Advances in information and communication technologies such as the Internet have driven a great transformation in the interactions between individuals and the urban environment. As the use of the Internet in cities becomes more intense and diverse, there is also a restructuring of urban space, which is experienced by groups in society in various ways, according to the specificity of each context. Accordingly, large Internet companies have emerged as new players in the processes of urbanization, either through partnerships with the public administration or through various services offered directly to urban residents. Once these corporations are key actors in the digitalization of urban services, their operations can affect the patterns of urban inequality and generate a series of new struggles over the production of space. Interested in analyzing this phenomena from the perspective of civil society, the present Master Thesis examined a social movement that prevented Google to settle a new startup campus in the district of Kreuzberg, in Berlin. By asking why Google was not welcome in that context, this study also sought to understand how internet, as well as its main operators, has affected everyday life in the city. Thus, besides analyzing the movement, I investigated the particularities of the urban context where it arose and the elements that distinguish the mobilization’s opponent. In pursuit of an interdisciplinary approach, I analyzed and discussed the results of empirical research in dialogue with critical theories in the fields of urban studies and the Internet, with emphasis on Castells' definitions of urban social movements and network society (1983, 2009, 2015), Couldry's and Mejias' (2019) idea of data colonialism, Lefèbvre's (1991, 1996) concepts of abstract space and the right to the city, as well as Zuboff's (2019) theory of surveillance capitalism. The case at hand has exposed that Google plays a prominent role in the way the Internet has been developed and deployed in cities. From the perspective accessed, the current appropriation of Internet technologies has been detrimental to individual autonomy and has contributed to intensifying existing inequalities in the city. The alternative vision to this relies mainly on the promotion of decentralized solidarity networks.
Für die einen also „Bausünde“, für die anderen ein erhaltenswertes Bauwerk – wie geht man damit um? Für wen gilt wann etwas als „Bausünde“ und wann als erhaltenswert, welche Ziele werden damit verfolgt und Konzepte aufgezeigt? Inwieweit spielen beispielsweise Aspekte wie Ästhetik, Funktionalität oder der allgemeine gesellschaftliche Kontext bzw. Wandel sowie das jeweils aktuelle und bauzeitliche planerische Leitbild bzw. Verständnis eine Rolle bei der Verwendung des Begriffs und den Umgang für konkrete Bauwerke? Und inwieweit steht der Erhaltungswert bzw. eine Denkmalwürdigkeit damit im Verhältnis und wie kann damit planerisch umgegangen werden?
Der Diskussion über den Umgang mit verschmähten Bauwerken will sich die vorliegende Abschlussarbeit nähern. Als Bauwerke werden hierbei sowohl Gebäude und Plätze als auch zur Erinnerung gesetzte Objekte wie Statuen verstanden.
In Baden-Württemberg werden derzeit für ca. 12.500 km Gewässer Hochwassergefahrenkarten erstellt. Hierfür sind umfangreiche hydraulische Berechnungen erforderlich, die es zu optimieren gilt. Bei der Wasserspiegellagenermittlung kommen zumeist eindimensionale Berechnungsverfahren zum Einsatz bei denen die Topografie der Gewässer und Vorländer über Querprofile erfasst werden. Im Rahmen der Hochwassergefahrenkartenerstellung werden diese Querprofile zum einen im Bereich des Gewässers über kostenintensive, terrestrische Vermessung und zum anderen im Bereich der Vorländer über ein digitales Geländemodell (DGM) bestimmt. In der vorliegenden Arbeit wurde ein Verfahren entwickelt, mit dessen Hilfe die Querprofilerstellung und damit insgesamt die Methodik zur Erstellung der Hochwassergefahrenkarten verbessert werden kann.Das Verfahren ermöglicht es, unter optimaler Ausnutzung sowohl der vorhandenen terrestrischen Vermessungsdaten, als auch des hochaufgelösten digitalen Geländemodells zusätzlich zur vorhandenen Vermessung an beliebigen Stellen Ergänzungsquerprofile zu generieren. Des Weiteren wurde mittels Sensitivitätsanalyse untersucht, welche Auswirkungen eine Verringerung der Anzahl von vermessenen Querprofilen auf die Wasserstände haben.