Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
Synergistic Framework for Analysis and Model Assessment in Bridge Aerodynamics and Aeroelasticity
(2020)
Wind-induced vibrations often represent a major design criterion for long-span bridges. This work deals with the assessment and development of models for aerodynamic and aeroelastic analyses of long-span bridges.
Computational Fluid Dynamics (CFD) and semi-analytical aerodynamic models are employed to compute the bridge response due to both turbulent and laminar free-stream. For the assessment of these models, a comparative methodology is developed that consists of two steps, a qualitative and a quantitative one. The first, qualitative, step involves an extension
of an existing approach based on Category Theory and its application to the field of bridge aerodynamics. Initially, the approach is extended to consider model comparability and completeness. Then, the complexity of the CFD and twelve semi-analytical models are evaluated based on their mathematical constructions, yielding a diagrammatic representation of model quality.
In the second, quantitative, step of the comparative methodology, the discrepancy of a system response quantity for time-dependent aerodynamic models is quantified using comparison metrics for time-histories. Nine metrics are established on a uniform basis to quantify the discrepancies in local and global signal features that are of interest in bridge aerodynamics. These signal features involve quantities such as phase, time-varying frequency and magnitude content, probability density, non-stationarity, and nonlinearity.
The two-dimensional (2D) Vortex Particle Method is used for the discretization of the Navier-Stokes equations including a Pseudo-three dimensional (Pseudo-3D) extension within an existing CFD solver. The Pseudo-3D Vortex Method considers the 3D structural behavior for aeroelastic analyses by positioning 2D fluid strips along a line-like structure. A novel turbulent Pseudo-3D Vortex Method is developed by combining the laminar Pseudo-3D VPM and a previously developed 2D method for the generation of free-stream turbulence. Using analytical derivations, it is shown that the fluid velocity correlation is maintained between the CFD strips.
Furthermore, a new method is presented for the determination of the complex aerodynamic admittance under deterministic sinusoidal gusts using the Vortex Particle Method. The sinusoidal gusts are simulated by modeling the wakes of flapping airfoils in the CFD domain with inflow vortex particles. Positioning a section downstream yields sinusoidal forces that are used for determining all six components of the complex aerodynamic admittance. A closed-form analytical relation is derived, based on an existing analytical model. With this relation, the inflow particles’ strength can be related with the target gust amplitudes a priori.
The developed methodologies are combined in a synergistic framework, which is applied to both fundamental examples and practical case studies. Where possible, the results are verified and validated. The outcome of this work is intended to shed some light on the complex wind–bridge interaction and suggest appropriate modeling strategies for an enhanced design.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
Matrix-free voxel-based finite element method for materials with heterogeneous microstructures
(2019)
Modern image detection techniques such as micro computer tomography
(μCT), magnetic resonance imaging (MRI) and scanning electron microscopy (SEM) provide us with high resolution images of the microstructure of materials in a non-invasive and convenient way. They form the basis for the geometrical models of high-resolution analysis, so called image-based analysis.
However especially in 3D, discretizations of these models reach easily the size of 100 Mill. degrees of freedoms and require extensive hardware resources in terms of main memory and computing power to solve the numerical model. Consequently, the focus of this work is to combine and adapt numerical solution methods to reduce the memory demand first and then the computation time and therewith enable an execution of the image-based analysis on modern computer desktops. Hence, the numerical model is a straightforward grid discretization of the voxel-based (pixels with a third dimension) geometry which omits the boundary detection algorithms and allows reduced storage of the finite element data structure and a matrix-free solution algorithm.
This in turn reduce the effort of almost all applied grid-based solution techniques and results in memory efficient and numerically stable algorithms for the microstructural models. Two variants of the matrix-free algorithm are presented. The efficient iterative solution method of conjugate gradients is used with matrix-free applicable preconditioners such as the Jacobi and the especially suited multigrid method. The jagged material boundaries of the voxel-based mesh are smoothed through embedded boundary elements which contain different material information at the integration point and are integrated sub-cell wise though without additional boundary detection. The efficiency of the matrix-free methods can be retained.
With the growing importance of the World Wide Web, the major challenges our society faces are also increasingly affecting the digital areas of our lives. Some of the associated problems can be addressed by computer science, and some of these specifically by data-driven research. To do so, however, requires to solve open issues related to archive quality and the large volume and variety of the data contained.
This dissertation contributes data, algorithms, and concepts towards leveraging the big data and temporal provenance capabilities of web archives to tackle societal challenges. We selected three such challenges that highlight the central issues of archive quality, data volume, and data variety, respectively:
(1) For the preservation of digital culture, this thesis investigates and improves the automatic quality assurance of the web page archiving process, as well as the further processing of the resulting archive data for automatic analysis.
(2) For the critical assessment of information, this thesis examines large datasets of Wikipedia and news articles and presents new methods for automatically determining quality and bias.
(3) For digital security and privacy, this thesis exploits the variety of content on the web to quantify the security of mnemonic passwords and analyzes the privacy-aware re-finding of the various seen content through private web archives.
Lettenkeuper- und Schilfsandsteine sind in Thüringen weit verbreitet und wurden häufig als Werk- und Bildhauersandsteine verwendet. Die überwiegend tonig-ferritisch gebundenen Steine sind stark witterungsanfällig. Inzwischen droht ein unwiederbringlicher Substanzverlust an vielen denkmalpflegerisch wertvollen Gebäuden und an plastischen Bildwerken. Die Dissertation gibt einen Überblick über die Vorkommen, Eigenschaften und Schadbilder dieser Sandsteine in Thüringen. Konservierungsmaßnahmen, die in Thüringen in den vergangenen 20 Jahren an Lettenkeuper- und Schilfsandsteinen vorgenommen wurden, werden ausgewertet und neue Erkenntnisse zur Konservierung dieser Sandsteine vorgestellt.
Die vorliegende Dissertation zeigt am Beispiel der Entwicklung eines modernen geriatrischen Zentrums, dass Architektur einen eigenständigen Beitrag dazu leisten kann, die Probleme des Alters in der heutigen Gesellschaft anzunehmen und zu bewältigen. Die Arbeit setzt zum einen an stadtplanerischen Defiziten der vergangenen Jahrzehnte an und verdeutlicht, wie ein bedürfnisgerechtes, innerstädtisches geriatrisches Zentrum dem Leitbild der „humanen Stadt“ zu entsprechen vermag, um damit die Stadt wieder zu einem multifunktionalen Erlebnisraum für alle Bevölkerungsgruppen werden zu lassen. Zum anderen greift sie die aktuelle gesundheitspolitische Debatte auf und weist nach, dass ein solches Zentrum als integrierte Verbundlösung, die alle Versorgungsstrukturen unter einem Dach anbietet, ideal dazu geeignet ist, die Anforderungen unserer Zeit auf geriatrischem und pflegerischem Gebiet zu erfüllen. Die Anforderungen an eine derartige Einrichtung sind umfangreich und differenziert. Sie werden unter Heranziehung aktueller Forschungsergebnisse aus stadtsoziologischer, psychologischer, gerontologischer und sozialökologischer Sicht hergeleitet und in praktische architektonische bzw. baukonstruktive Handlungsanweisungen umgesetzt. Als zentrale, übergeordnete Anforderungen neben optimaler medizinischer und pflegerischer Betreuung werden herausgearbeitet: 1. Erhöhung der Lebenszufriedenheit der Bewohner 2. Stärkung der Autonomie und Selbstständigkeit der älteren Menschen 3. Befolgung des Grundsatzes >Prävention vor Rehabilitation, Rehabilitation vor Pflege< 4. Förderung eines selbstbestimmten Lebens in vertrauter Umgebung bis ins hohe Alter 5. Gewährung von Geborgenheits- und Heimatgefühlen 6. Gemeinwesenorientierung und enge Anbindung an die Strukturen des Quartiers 7. Erhaltung bzw. Stärkung der sozialen Integration der älteren und kranken Menschen 8. Förderung eines hohen Aktivitätsniveaus und einer anspruchsvollen Freizeitgestaltung 9. Bereitstellung einer anregenden sowie sicheren, weil Orientierung gebenden Umgebung Das vorgestellte geriatrische Zentrum bildet die architektonische Entsprechung zum gesellschaftlichen Strukturwandel des Alters und zu den gesundheits- und pflegepolitischen Entwicklungen unserer Zeit und leistet damit einen eigenständigen Beitrag, die gesundheitlichen und sozialen Probleme alter Menschen in unserer Gesellschaft zu lindern, in dem nutzerorientierte Gebäudestrukturen geschaffen werden, die einem integrativen Netzwerk aus Wohn-, Therapie- und Pflegeformen Raum geben. Damit steht das geriatrische Zentrum beispielhaft für eine Architektur, die stets von den Bedürfnissen der Menschen ausgeht und mit baulichen Lösungen auf die sozialen Herausforderungen unserer Zeit reagiert.
In der vorliegenden Arbeit werden Manifestäußerungen des Design- und Architekturdiskurses im situativen, medialen, institutionellen und historischen Kontext untersucht. Auf Grundlage einer Analyse der Etymologie und der Ideengeschichte des Manifestes wird anhand ausgewählter Beispiele die These belegt, dass das Medium vor allem der gezielten Rezeptionssteuerung im Diskurs dient. Darüber hinaus wird die Fähigkeit und Bedeutung des Manifestes als Spiegel vergangener und gegenwärtiger, aber auch als Wegbereiter zukünftiger Diskurse analysiert und Entwicklungen des Manifestes hinsichtlich Stilistik, Inhalt, Funktion und Bedeutung im Design- und Architekturdiskurs dargestellt.
In der vorliegenden Arbeit werden Manifestäußerungen des Design- und Architekturdiskurses im situativen, medialen, institutionellen und historischen Kontext untersucht. Auf Grundlage einer Analyse der Etymologie und der Ideengeschichte des Manifestes wird anhand ausgewählter Beispiele die These belegt, dass das Medium vor allem der gezielten Rezeptionssteuerung im Diskurs dient. Darüber hinaus wird die Fähigkeit und Bedeutung des Manifestes als Spiegel vergangener und gegenwärtiger, aber auch als Wegbereiter zukünftiger Diskurse analysiert und Entwicklungen des Manifestes hinsichtlich Stilistik, Inhalt, Funktion und Bedeutung im Design- und Architekturdiskurs dargestellt.
Container sind nicht nur das bei weitem wichtigste Transportmittel für die allermeisten Waren, mit denen wir tagtäglich zu tun haben. Container sind, vielleicht wegen ihrer schlichten, klaren Ausdruckskraft, zu dem Symbol der Globalisierung geworden und vieler Phänomene, die man mit dieser Entwicklung in Zusammenhang bringt. Dabei handelt es sich um ein durch und durch ambivalentes Symbol. Container stehen genauso für die beeindruckende Dynamik des modernen Kapitalismus und den ihm trotz aller Krisen zugrunde liegenden Optimismus wie für die Ängste und Einwände dagegen; gegen die Indifferenz eines rein auf Optimierung ausgelegten logistischen Organisationshandelns und gegen die zwangsweise Annäherung und Angleichung ehedem entfernter Weltgegenden durch die exponentielle Vermehrung der Transport- und Kommunikationsvorgänge. Der Schwerpunkt der Arbeit liegt im 20. Jahrhundert. Sie untersucht die (Vor)Geschichte und Theorie des Containers als moderner Kulturtechnik und zentralem Bestandteil eines weltumspannenden logistischen Systems. Und sie zeigt ihn als Element eines Denkens und Organisationshandelns in modularen, beweglichen Raumeinheiten, das sich auch auf viele andere Bereiche außerhalb des Warentransports übertragen lässt. Dafür beschreibt und analysiert sie "Containersituationen" in so unterschiedlichen Feldern wie Handel und Transport, Architektur, Wissenschaften, Kunst und den sozialen Realitäten von Migranten und Seeleuten.
Im rechnergestützten Bauplanungsprozess arbeiten verschiedene Fachplaner an der gemeinsamen Aufgabe, ein Bauwerk zu planen, zusammen. Verfügbare Kooperationsansätze beschäftigen sich mit versionierten und verteilten Bauwerksmodellen, die auf Basis der Objektorientierung virtuelle Bauwerkszustände beschreiben. Die in diesen zustandsorientierten Modellen unberücksichtigten Zustandsänderungen führen zu derzeitigen Problemen beim Austausch, beim Vergleich und bei der Zusammenführung von versionierten Bauwerksinformationen. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines verarbeitungsorientierten Ansatzes zur ganzheitlichen Betrachtung der Bauwerksmodellierung. Neben der zustandsorientierten Beschreibung eines virtuellen Bauwerks werden zusätzlich änderungsorientierte Informationen in Form von Modellieroperationen in der Modellbildung berücksichtigt. Es wird eine Modellierungssprache definiert, um Operationen formal zu beschreiben. Modellieroperationen bilden eine Verarbeitungsschnittstelle für Objektmodelle, repräsentieren Entwurfsabsichten, reichern bestehende Bauwerksmodelle mit Änderungssemantik an und tragen zur Konsistenzsicherung in diesen Modellen bei. Neuartige Kooperationskonzepte für den Austausch, den Vergleich und das Zusammenführen von versionierten Bauwerksinformationen werden auf Grundlage des vorgeschlagenen Ansatzes entwickelt. Sowohl das Modell als auch die Sprache werden unabhängig von aktuellen Technologien formal beschrieben. Die prinzipielle Anwendbarkeit des vorgeschlagenen Ansatzes wird im Rahmen einer Pilotimplementierung auf Basis eines Open-Source-Systems im Bauwesen nachgewiesen.
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen.
This thesis explores how architecture aids in the performance of open-ended narratives by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architecture old and new stems from specific cultural and social forms, and is dictated by processes of remembering and forgetting. It is through interaction (between inhabitant and object) that architecture is given innate meanings within an urban environment that makes its role in the interplay one of investigative interest.
To enable the study of this performance, I develop a framework based on various theoretical paradigms to investigate three broad questions: 1) How does one study the performance of memory and forgetting through architecture in dynamic urban landscapes? 2) Is there a way to identify markers and elements within the urban environment that enable such a study? 3) What is the role that urban form plays within this framework and does the transformation of urban form imply the transformation of memory and forgetting?
The developed framework is applied to a macro (an urban level study of Bangalore, India) and micro level study (a singular or object level study of Stari Most/ Old Bridge, Mostar, BiH), to analyse the performance of remembering and forgetting in various urban spheres through interaction with architecture and form. By means of observations, archival research, qualitative mapping, drawings and narrative interviews, the study demonstrates that certain sites and characteristics of architecture enable the performance of remembering and the questioning of forgetting by embodying features that support this act.
Combining theory and empirical studies this thesis is an attempt to elucidate on the processes through which remembering and forgetting is initiated and experienced through architectural forms. The thesis argues for recognising the potential of architecture as one that embodies and supports the performance of memory and forgetting, by acting as an auratic contact zone.
In einer systematischen Interpretation von Vilém Flussers Werk schlägt die Arbeit vor, Flussers Ansatz als einen medienphilosophischen zu verstehen, insofern er das „wie“ der medienphilosophischen Fragestellung in den Mittelpunkt rückt. Medien werden nicht erst dann zu einem wesentlichen Bestandteil von Flussers Philosophie, wenn er sie explizit zum Gegenstand seiner Untersuchungen der gegenwärtigen Kultur und Gesellschaft oder historischer Rückblicke macht; Denken vollzieht sich immer in Medien oder medialen Praktiken, es wird nicht nur von ihnen (mit) geprägt – ohne Medien gäbe es kein Denken und umgekehrt verändert sich Philosophie mit den (jeweils) neuen Medien. Ausgehend von Begriffen oder eher Denkfiguren, die neben dem „was“ des jeweils verhandelten Themas auch das „wie“ der Reflexion selbst adressieren, wird der „Umbruch in der Struktur des Denkens“ zugleich als Beschreibung von Medienumbrüchen verstanden – mit dem Fluchtpunkt des Sprungs in das Universum der Komputation – und als Vollzug der gegenwärtigen Veränderung der „Methode des Denkens“. Flussers (Ver)Suche einer Reflexion, die nicht mehr durch das Medium Schrift strukturiert ist, sondern sowohl alten Medien wie dem Bild – bzw. Praktiken des Abbildens, Darstellens, Einbildens usw. – als auch neuen Medien – dem Komputieren – Geltung verschafft, laufen auf eine widersprüchliche Diagnose des neuen Universums der Komputation (anders: der technischen Bilder) hinaus : eine kybermetisch inspirierte Vision der frei modellierbaren Wirklichkeit(en) einerseits und die Dystopie einer Welt, in der Apparaten Denken, Wahrnehmen und Handeln beherrschen andererseits. Die Arbeit zeigt auf, wie Flusser zu dieser Aporie der Medienreflexion – die weit über Flussers Werk hinaus virulent bleibt – gelangt und wie sie, ausgehend von seiner Figur der Geste, im Sinne einer performativen Medienreflexion gelöst werden könnte.
Baustreitigkeiten werden in Deutschland in nicht ausreichender Form von den Vertragsparteien selbst gelöst. Die unterschiedliche Auslegung der vertraglich geschuldeten Bauleistung zwischen den Parteien wird immer häufiger zum Inhalt von vor Gericht ausgetragenen Streitigkeiten. Die Anzahl und die Komplexität der Streitfälle führt zu einer Überlastung der Gerichte mit der Folge von meist mehrjährigen Verfahrensdauern, die in einzelnen Fällen mehr als ein Jahrzehnt andauern können. Die hieraus resultierenden Rechts- und Finanzunsicherheiten können für die Prozessbeteiligten weitreichende Konsequenzen bis hin zur Insolvenz mit sich führen. Die in Deutschland übliche Projektstruktur Auftraggeber – Generalunternehmer – Nachunternehmer führt schon in dieser einfachen Konstellation dazu, dass parallele Rechtsstreitigkeiten in ein und derselben Sache auftreten können. Unterschiedliche Gerichtsstandsklauseln in den einzelnen Vertragsebenen bewirken, dass aufgrund unterschiedlicher Beteiligter derselbe Streitfall an verschiedenen Gerichtsständen behandelt werden muss. Die Ergebnisse der einzelnen Verfahren können dabei unterschiedlich ausfallen. Auf Basis dieser Randbedingungen wird der Wunsch vieler Baubeteiligter nach einer schnelleren, effektiven Streitbeilegung für das deutsche Bauwesen immer größer. Im Rahmen der vorliegenden Arbeit wird den Vertragsbeteiligten ein Weg aufgezeigt, der die Häufigkeit von langwierigen und risikobehafteten Gerichtsprozessen reduziert. Auf Basis der maßgeblichen Streitbeilegungsverfahren wird hierzu ein auf die Anforderungen des Bauwesens angepasstes Streitbeilegungsmodell entwickelt. Im deutschen Bauvertragswesen sind die Inhalte der außergerichtlichen Streitbeilegung nicht oder nur rudimentär implementiert. Internationale Bauvertragsmuster greifen einzelne Elemente der außergerichtlichen Streitbeilegung auf, lassen aber ein ganzheitliches Modell vermissen. Zur Streitbeilegung existieren Verfahren zur Verhandlung, Schlichtung, Mediation und Entscheidung, die entweder konsensual oder kontradiktorisch wirken. Ein Modell, das die gegebenen Möglichkeiten der außergerichtlichen Streitbeilegung in vollem Umfang nutzt, wurde bisher nicht passend für die deutschen Rahmenbedingungen entwickelt. Eine Anpassung von Streitbeilegungsverfahren auf die jeweiligen Aufbauorganisationen der am Bau beteiligten Unternehmen wurde bisher nicht vorgenommen. In der Arbeit werden in einem ersten Schritt die Leitlinien der geschäftlichen Beziehungen im Bauwesen betrachtet und hinsichtlich ihrer Wirkung auf Streitbeilegungsmechanismen bewertet. In einem zweiten Schritt werden die international gebräuchlichen Verfahren zur Streitbeilegung vorgestellt, analysiert und bewertet. Unter Anwendung der Analogie- und Variationsmethodik werden bestehende und bewährte Ansätze zur Streitbeilegung aufgenommen, kombiniert und zu einem verbesserten Streitbeilegungsmodell weiterentwickelt. Zur Implementierung des modular aufgebauten Modells wird unter Berücksichtigung der unterschiedlichen Größen der im Bauwesen tätigen Unternehmen eine Anpassung des Systems vorgenommen. In einem weiteren Verfahrensschritt werden Wege zur Vereinbarung geeigneter Streitbeilegungsmechanismen zwischen den Vertragsbeteiligten aufgezeigt. Im Rahmen der Validierung des Modells wird durch die Anwendung auf extreme Systemkonfrontationen aufgezeigt, dass das Streitbeilegungsmodell auch unter besonderen Randbedingungen einsetzbar ist. Der Stand der Wissenschaft wird im Bereich der Streitbeilegung umfassend aufbereitet. Es wird ein Verfahren entwickelt, das erstmalig die Vorteile der Verhandlung, Schlichtung, Mediation und Entscheidung vollständig in ein Modell zur Streitbeilegung im Bauwesen implementiert. Durch definierte Verfahrensabläufe wird den Vertragsparteien eine strukturierte, zielorientierte Vorgehensweise zur Beilegung von Streitigkeiten vorgegeben. Die systematisierte Aufbereitung begünstigt und beschleunigt die außergerichtliche Streitbeilegung und reduziert im Ergebnis die Anzahl von vor Gerichten auszutragenden Streitfällen. Der modulare Aufbau des Streitbeilegungsmodells ermöglicht flexible Reaktionen auf unterschiedliche Anforderungen. Die Berücksichtigung der Unternehmensgrößen durch Variation der zu verwendenden Module ermöglicht eine große Einsatzbreite des Modells. Gleichzeitig wird auch durch die Definition des Moduls „Experten-Entscheidung“ als Wahloption die Verwendung des Streitbeilegungsmodells den Parteien ermöglicht, die sich einer Experten-Entscheidung nicht beugen wollen oder dürfen. Den Vertragsparteien werden Wege zur Vereinbarung des Modells aufgezeigt und ein Auswahlverfahren zur Bestimmung des externen Expertengremiums vorgegeben. Zur Vereinfachung der Implementierung des Streitbeilegungsmodells werden Änderungsvorschläge zur Anpassung der VOB/A und VOB/B unterbreitet.
Großsiedlungen sind nicht nur ein Erbe der Moderne, sondern seit über drei Jahrzehnten Gegenstand der Stadterneuerung. Dieses Buch erörtert, was eine heute „normale“ Großsiedlung stadtplanerisch benötigt und welche stadtentwicklungs- als auch wohnungspolitisch gesteuerten Ressourcen in einer integrierten Planungssteuerung gebündelt werden sollten. Dabei wird das grundsätzliche Planungsinstrument des Quartiersmanagements aktualisiert – über den Gegenstand Großsiedlungen hinaus.
Metamorphosen des Organizismus : zur Formensprache der Lebendigen Architektur von Imre Makovecz
(1999)
Die vorliegende Arbeit begann als Studie des ungarischen ”organischen” Architekten Imre Makovecz und entwickelte sich zu einer Untersuchung der Metamorphosen des Organizismus in der Kunst- und Architekturtheorie des 20. Jahrhunderts. Die Essenz der organischen Architektur wird oft im Konzept der organischen Form gesehen. Architekturhistoriker konstruieren häufig Genealogien, die Frank Lloyd Wright mit Emerson verbinden oder Makovecz mit Rudolf Steiner und sehen den Organizismus in der Architektur als Indikator für den Bruch mit der klassischen Tradition an. Faßt man den Organizismus als ein Konzept auf, das die Natur zum Vorbild nimmt, so gibt es keine Idee in der westlichen Kunst- und Architekturtheorie, die fundamentaler oder weiter verbreitet wäre. Die Studie thematisiert, inwiefern sich die verschiedenen Varianten des ars imitatur naturam auf das Werk von Imre Makovecz und auf die Tradition der organischen Architektur im 20. Jahrhundert beziehen. Aus architekturtheoretischer Sicht erfolgt eine philosophische Skizzierung des Diskurses der Organizismustheorie, wobei die Person Imre Makovez als Ausgangspunkt der Untersuchung gewählt wurde.
Es werden sowohl analytische als auch numerische Verfahren zur Berechnung der Wärmeverluste von Verglasungen vorgestellt, wobei alle am Energietransport beteiligten Prozesse, die Wärmeleitung, die thermisch getriebenen Konvektionsströmungen und die infrarote Strahlungswechselwirkung, korrekt und vollständig berücksichtigt werden. Mit Hilfe numerischer Strömungssimulation werden Verglasungen systematisch hinsichtlich der Füllgasart, der Infrarotverspiegelung, der Einbaulage und des Scheibenabstandes sowie der Anzahl der Gaszwischenräume (Zwei-, Drei- und Vierscheiben-Verglasung) untersucht und verglichen. Die Abhängigkeit des k-Wertes von den Temperaturen der angrenzenden Klimate (Atmosphäre und Innenraum) wird dargestellt.
This thesis suggests cooperation as a design paradigm for human-computer interaction. The basic idea is that the synergistic co-operation of interfaces through concurrent user activities enables increased interaction fluency and expressiveness. This applies to bimanual interaction and multi-finger input, e.g., touch typing, as well as the collaboration of multiple users. Cooperative user interfaces offer more interaction
flexibility and expressivity for single and multiple users.
Part I of this thesis analyzes the state of the art in user interface design. It explores limitations of common approaches and reveals the crucial role of cooperative action in several established user interfaces and research prototypes. A review of related research in psychology and human-computer interaction offers insights to the cognitive, behavioral, and ergonomic foundations of cooperative user interfaces. Moreover, this thesis suggests a broad applicability of generic cooperation patterns and contributes three high-level design principles.
Part II presents three experiments towards cooperative user interfaces in detail. A study on desktop-based 3D input devices, explores fundamental benefits of cooperative bimanual input and the impact of interface design on bimanual cooperative behavior. A novel interaction technique for multitouch devices is presented that follows the paradigm of cooperative user interfaces and demonstrates advantages over the status quo. Finally, this thesis introduces a fundamentally new display technology that provides up to six users with their individual perspectives of a shared 3D environment. The system creates new possibilities for the cooperative interaction of
multiple users.
Part III of this thesis builds on the research results described in Part II, in particular, the multi-user 3D display system. A series of case studies in the field of collaborative virtual reality provides exemplary evidence for the relevance and applicability of the suggested design principles.
Multi-user projection systems provide a coherent 3D interaction space for multiple co-located users that facilitates mutual awareness, full-body interaction, and the coordination of activities. The users perceive the shared scene from their respective viewpoints and can directly interact with the 3D content.
This thesis reports on novel interaction patterns for collaborative 3D interaction for local and distributed user groups based on such multi-user projection environments. A particular focus of our developments lies in the provision of multiple independent interaction territories in our workspaces and their tight integration into collaborative workflows. The motivation for such multi-focus workspaces is grounded in research on social cooperation patterns, specifically in the requirement for supporting phases of loose and tight collaboration and the emergence of dedicated orking territories for private usage and public exchange. We realized independent interaction territories in the form of handheld virtual viewing windows and multiple co-located hardware displays in a joint workspace. They provide independent views of a shared virtual environment and serve as access points for the exploration and manipulation of the 3D content. Their tight integration into our workspace supports fluent transitions between individual work and joint user engagement. The different affordances of various displays in an exemplary workspace consisting of a large 3D wall, a 3D tabletop, and handheld virtual viewing windows, promote different usage scenarios, for instance for views from an egocentric perspective, miniature scene representations, close-up views, or storage and transfer areas. This work shows that this versatile workspace can make the cooperation of multiple people in joint tasks more effective, e.g. by parallelizing activities, distributing subtasks, and providing mutual support.
In order to create, manage, and share virtual viewing windows, this thesis presents the interaction technique of Photoportals, a tangible interface based on the metaphor of digital photography. They serve as configurable viewing territories and enable the individual examination of scene details as well as the immediate sharing of the prepared views. Photoportals are specifically designed to complement other interface facets and provide extended functionality for scene navigation, object manipulation, and for the creation of temporal recordings of activities in the virtual scene.
A further objective of this work is the realization of a coherent interaction space for direct 3D input across the independent interaction territories in multi-display setups. This requires the simultaneous consideration of user input in several potential interaction windows as well as configurable disambiguation schemes for the implicit selection of distinct interaction contexts. We generalized the required implementation structures into a high-level software pattern and demonstrated its versatility by means of various multi-context 3D interaction tools.
Additionally, this work tackles specific problems related to group navigation in multiuser projection systems. Joint navigation of a collocated group of users can lead to unintentional collisions when passing narrow scene sections. In this context, we suggest various solutions that prevent individual collisions during group navigation and discuss their effect on the perceived integrity of the travel group and the 3D scene. For collaboration scenarios involving distributed user groups, we furthermore explored different configurations for joint and individual travel.
Last but not least, this thesis provides detailed information and implementation templates for the realization of the proposed interaction techniques and collaborative workspaces in scenegraph-based VR systems. These contributions to the abstraction of specific interaction patterns, such as group navigation and multi-window interaction, facilitate their reuse in other virtual reality systems and their adaptation to further collaborative scenarios.
Stapelprobleme treten in der Praxis in vielfältiger Form auf. So finden sich Stapelprobleme in einer großen Fülle von Variationen im Logistikbereich, aber auch im Bauwesen. Zunächst wird das klassische Turm von Hanoi Problem kurz vorgestellt. Dieses Problem wird als Stapelproblem formuliert. Weiterhin werden verzweigte Stapelproblem untersucht: Ein gegebener Stapel -- bestehend aus den Elementen v der Menge V -- soll an anderer Stelle in einer vorgeschriebenen, veränderten Struktur wieder aufgebaut werden. Dazu stehen Hilfsstapelplätze zur Verfügung. Die Optimierung dieses Problems hinsichtlich der Anzahl der benötigten Hilfsstapelplätze ist NP-vollständig. Es werden Erfahrungen mit einem Branch-and-Bound Algorithmus zur Lösung des Problems vorgestellt sowie ein heuristischer Algorithmus diskutiert. Schließlich werden verzweigte Stapelprobleme betrachtet, bei denen keine eineindeutige Zuordnung mehr von Elementen des Ausgangsstapels zu verfügbaren Positionen im Zielstapel existiert. Hier ist schon die Bestimmung einer günstigsten Zuordnung in bezug auf die Anzahl benötigter Hilfsstapelplätze NP-schwer.
Zwei Poelzigschüler in der Emigration: Rudolf Hamburger und Richard Paulick zwischen Shanghai und Ost-Berlin (1930–1955) (Hamburger _ China, Polen, Schweiz, Iran, UdSSR) (Paulick _ China) Diese Dissertation befasst sich mit dem Leben und Wirken der beiden Architekten Rudolf Hamburger (1903–1980) und Richard Paulick (1903–1979) während ihrer Emigration zwischen 1930 und 1955. Die Arbeit ist in zwölf Kapitel gegliedert und beinhaltet einen Prolog und Epilog. Im Anhang sind Originaltexte sowohl von Hamburger wie von Paulick, Mitarbeiterlisten der von Paulick betriebenen Firmen in Shanghai, eine Liste der Bühnenbilder von Paulick in Shanghai, die Projektlisten beider Architekten in der Emigration sowie die Literaturliste veröffentlicht. Der Prolog beleuchtet die Situation in der DDR nach der Rückkehr von Paulick und Hamburger aus der Emigration. Unter dem Druck der Partei (SED) mussten beide ihre Biographie erweitern und säubern. Der starke ideologische Hintergrund verhinderte in der DDR zwischen 1950 bis zum Ende 1989 eine ehrliche Aufarbeitung der Emigration und im Falle von Hamburger einen unverstellten Blick auf seine Tortur in den Arbeitslagern (Gulag) der Sowjetunion. Das ersten Kapitel beleuchtet die Herkunft und Ausbildung der beiden, als Studenten bei Hans Poelzig und Hermann Jansen; im Falle von Paulick seine Kooperation mit Georg Muche und seinen Mitarbeit im Büro von Walter Gropius; im Falle von Hamburger seine Mitarbeit als Meisterschüler bei Hans Poelzig und anderen. Auch die Mitgliedschaft der beiden in der 'Gruppe Junger Architekten' (GIA) wird beleuchtet. Rudolf Hamburger kam 1930 als Arbeitsemigrant nach Shanghai und konnte wegen seiner jüdischen Wurzeln nach der Machtübernahme durch die Nationalsozialisten 1933 nicht nach Deutschland zurückkehren. Er half Paulick 1933 bei der Flucht nach Shanghai, als dieser aus politischen Gründen Deutschland verlassen musste. Die weitere Karriere und das Privatleben bei beiden wurden durch diese Umstände bestimmt. Die Dissertation beleuchtet den sozialen und politischen Hintergrund während ihrer Zeit in der Emigration. Rudolf Hamburger wurde als Architekt für das Shanghai Municipal Council zwischen 1930 und 1937 zu einem wichtigen Protagonisten für die Entwicklung der modernen Architektur in Shanghai, der hier erstmals vorgestellt wird. Neben dieser Arbeit gründete er 1932 die Firma THE MODERN HOME, die 1934 in die Firma MODERN HOME überführt wurde und die zwischen 1937 und 1949 von Richard Paulick unter dem Namen MODERN HOMES weitergeführt wurde. Richard Paulick war auch als Bühnenbildner zwischen 1936 und 1949 an unterschiedlichen Theatern in Shanghai aktiv. Als Professor für Stadtplanung lehrte er zwischen 1943 und 1949 an der St. John’s Universität zum ersten Mal die Prinzipien der Moderne in diesem Feld in China. Er spielte auch eine Schlüsselrolle bei der Stadtplanung für Groß-Shanghai zwischen 1945 und 1949, die nach den Prinzipien der organischen Dezentralisation erfolgte. Die Schwierigkeiten seiner Weiteremigration in die USA oder der Rückkehr nach Deutschland zwischen 1947 und 1949, bis zu seiner Heimkehr in die DDR 1950, bilden den letzten Abschnitt in seinem Fall. Bei Rudolf Hamburger kommt hinzu, dass er in den dreißiger Jahren für den Geheimdienst der sowjetischen Armee (GRU) aktiv wurde. Die Tätigkeit als Architekt nutzte er in der Folge lediglich zur Deckung seiner anderen Aktivitäten. Die Emigration nach Polen, die Schweiz, erneut China, die Sowjetunion und in den Iran (1936–1943) sind immer den Zielen der geheimdienstlichen Tätigkeit untergeordnet. Mit dubiosen Vorwürfen wurde Hamburger 1943 in Moskau konfrontiert und in ein Arbeitslager deportiert, wo er nach Folter und schwierigen Haftbedingungen erst 1952 frei gelassen wurde. Bis 1955 lebte er in der Verbannung in der Ukraine und konnte dann mit der Hilfe seines Freundes Richard Paulick in die DDR einreisen.
Die Dissertation analysiert und bewertet die Kindergartenarchitektur des 20.Jhd.'s im Spektrum von individueller Planung und Baukastensystemen. Den Ausgangspunkt bildet ein Defizit an Betreuungsplätzen in Deutschland am Ende des 20.Jhd.'s. Dieses resultiert aus dem gesetzlich garantierten Rechtsanspruch auf einen Kindergartenplatz und der rezessiven Wirtschaftslage. Der dringende Handlungsbedarf der Kommunen führte zu einer primär ökonomisch ausgerichteten Baukultur. Anhand eines Kriterienkataloges wird u.a. bewertet, wie eine ökonomische Architektur im Kindergartenbau ohne Qualitätsminderung erzielt werden kann. Zukunftsweisende Kindergartenplanungen für das 21.Jhd. werden analysiert. Ein eigenes weiterführendes, integriertes Planungskonzept wird u.a. hinsichtlich seiner Mehrfach- und Umnutzungspotentiale überprüft. Nur ein ganzheitlicher Architekturansatz kann die vielfältigen Anforderungen an Kindergärten realisieren und zukunftsweisende Überlegungen sinnvoll integrieren.
Bei der Untersuchung der Tageslichtnutzung in den Tropen werden zunächst die geschichtliche Entwicklung der Architektur in Rio de Janeiro und ihre klimatische Anpassung, die Tageslichtsituation vor Ort und die Bedingungen für den visuellen Komfort an Bildschirmarbeitsplätzen in Bürogebäuden analysiert. In einem zweiten Schritt werden Auslegungskriterien für Tageslichtkontrollsysteme festgelegt und ein Auslegungskonzept erarbeitet. Auf dieser Grundlage wird über Simulationen mit Siview/Radiance das Potential 12 verschiedener Tageslichtkontrollsysteme für verschiedene Himmelszustände ermittelt. Über eine neu entwickelte Methodik wird die Tageslichtautonomie für verschiedene Fassadenorientierungen unter Einsatz der entwickelten Tageslichtkontrollsysteme für den Standort Rio de Janeiro ermittelt. Der Einfluss der Möblierung wird beispielhaft untersucht. Abschließend wird eine energetische Bilanz, die sowohl die Kunstlichteinsparung als auch die Kühllast durch Kunst- und Tageslicht berücksichtigt, an zwei Systemen beispielhaft erstellt.
Markennetze
(2003)
Die Arbeit zeigt, dass Markenallianzen oder -netzwerke aus ökonomischer Perspektive analog zu Allianzen in anderen Bereichen des Unternehmens oder strategischen Partner-schaften kompletter Unternehmen betrachtet und analysiert werden können. Auch auf Marken wirken Herausforderungen ein, die sich aus der Globalisierung und Deregulierung von Märkten und verändertem Konsumentenverhalten ergeben. Dies führt dazu, dass eine alleinstehende Marktbearbeitung häufig nicht mehr erfolgversprechend scheint. Marken als Gegenstand von interorganisationalen Kooperationsbeziehungen weisen Be-sonderheiten im Vergleich zu sonstigen Vermögensgegenständen und Unternehmensbereichen auf. Marken übernehmen in Wirtschaft und Gesellschaft wesentlich weitrei-chendere Funktionen als nur das Garantieren von Produktqualität. Eine Marke kann als symbolisch generalisiertes Kommunikationsmedium im Sinne von LUHMANN bzw. als so-ziales Interaktionsmedium im! Sinne von PARSONS definiert werden. Diese Sichtweise er-möglicht es, unterschiedliche Funktionen der Marke für unterschiedliche Nutzer oder Ei-gentümer auch in verschiedenen Märkten und Lebensbereichen in einem schlüssigen Ge-samtzusammenhang darzustellen. Weiterhin wird es durch die ganzheitliche Betrachtung der Marke als Medium möglich, bisher nebeneinander stehende Perspektiven und Defini-tionen von Marken zu integrieren. Die Darstellung der Marke als Medium und die Analyse der medialen Ebenen führt zu einem neuen Dispositiv der Markenführung. So müssen Marken für den Konsumenten mehr Raum zur eigenen Aufladung mit Bedeutung lassen, die symbolische Bedeutung lässt sich nicht direkt und umfassend von Seiten des markenführenden Unternehmens planen. Weiterhin sollten Marken mit unterschiedlichen symbolischen Funktionen unter-schiedlich geführt werden. Bisherige Konzepte der Markenführung differenzieren ihre Empfehlungen jedoch nicht systematisch nach verschiedenen symb! olischen Funktionen der Marke. Dies gilt auch für die Füh! rung von Markennetzen: Je nach den Eigenschaften der beteilig-ten Marken müssen hierfür unterschiedliche Koordinationsmechanismen Anwendung finden. Für die Führung von Markennetzen lassen sich aus den Überlegungen zur Koordi-nation von Unternehmensnetzwerken Empfehlungen ableiten, welche bisherige Leitfäden zur Gestaltung von Markenallianzen nicht nur theoretisch fundieren und wesentlich er-gänzen können, sondern insbesondere auch eine vorwärts gerichtete Analyse anstelle einer simplen Beschreibung der verschiedenen Erscheinungsformen ermöglichen. Diese Arbeit konzeptionalisiert Markennetze als ein Netzwerk von vielschichtigen Principal-Agent-Beziehungen. Die Ausgestaltung von Markennetzen ist folglich ein komplexer Pro-zess. Zudem existieren aufgrund unterschiedlicher Zielsetzungen und Ausgangssituationen der Marken nicht für sämtliche Formen von Markennetzen identische, allgemein gültige Handlungsempfehlungen. Zur Entwicklung des Handlungsrahmens wurde ein Ansatz aus d! er Netzwerktheorie über-nommen, welcher die Koordination von Netzwerken in vier Schritte unterteilt, die „vier basalen Funktionen des Managements“. Diese Funktionen sind die Selektion der Partner, die Allokation von Ressourcen, die Regulation der Beziehungen und schließlich die Evalua-tion der Zusammenarbeit. Die vorliegende Arbeit entwickelt ausgehend von diesen vier Funktionen einen kompletten Bezugsrahmen zur Ausgestaltung von Markennetzen.
The main objective of the present work is to establish a link between the scientific fields of engineering seismology and structural engineering. Substantially it deals with the application and enhancements of methods coming from engineering seismology as well as their junctions to the fields of structural engineering respectively earthquake engineering. Based on real occurred earthquake damage inflicted to multistoried reinforced-concrete frame buildings, the influence of local site effects on the grade of structural damage is worked out. This relying on comprehensive investigations conducted during numerous field missions of German TaskForce after damaging earthquakes in Venezuela and Türkiye. Instrumental investigations on both the structure and its local subsoil in order to identify the damage potential of seismic ground motion take center stage of the thesis. Thereby it is examined whether or not an estimated seismic demand representative in amplitude level and frequency characteristics is able to cause structural damage considering the vulnerability of the structure itself as well as the local site and subsoil conditions. Investigations are concentrated on selected RC frame structures with or without masonry infill walls.
Seit ihren Anfängen im ausgehenden 19. Jh. ist der brandenburgischen Hausforschung ein Phänomen in der Entwicklung des ländlichen Wohnhauses bekannt, das in der vorliegenden Arbeit als Typenwandel bezeichnet wird: Zahlreiche Landschaften der ehemaligen Kurmark Brandenburg wurden bis in das 18. Jh. hinein von einem giebelständigen Haustyp - dem sogenannten Märkischen Mittelflurhaus - geprägt. Im Verlauf des 18. und 19. jh. wurde dieser von einem traufständigen Haustyp - dem sogenannten Mitteldeutschen Ernhaus - >verdrängt<. Dieser Typenwandel ist wie jeder Wandel einer tradierten Hausform auf einen Komplex verschiedener Faktoren und Einflussgrößen zurückzuführen. Über diese Faktoren und Einflussgrößen bestehen in der bisherigen regionalen Hausforschung folgende Thesen: Zum einen wird angenommen, dass das Vorbild der im Rahmen der friderizianischen Kolonisation seit der Mitte des 18. Jh. zahlreich erbauten, traufständigen Kolonistenhäuser diesen Typenwandel beeinflusst oder ausgelöst habe. Zum anderen seien die baupolizeilichen Vorschriften und der Einfluss der preußischen Landbauschule - vertreten durch das Oberbaudepartement - ein auslösender oder beschleunigender Faktor gewesen. Aufgabe der Untersuchung ist es, diese Thesen anhand eines geeigneten Untersuchungsgebietes zu diskutieren. Als solches eignete sich das Oderbruch insbesondere, weil es das größte zusammenhängende Siedlungsgebiet auf deutscher Seite darstellt, das unter der Regentschaft Friedrichs des Großen kolonisiert wurde, und seine allmähliche Trockenlegung seit der Mitte des 18. Jh. von intensiven obrigkeitlichen Eingriffen begleitet war. Mit der zusätzlichen Abgrenzung der untersuchten Hausformen auf diejenigen der ländlichen Mittelschicht, d.h. auf die Häuser der Bauern, Fischer und Kossäten, basiert die zentrale stratigrafische Untersuchung des Wandlungsprozesses einerseits auf durch die Autorin selbst erarbeiteter Bauforschung am rezenten Hausbestand und andererseits auf der Auswertung umfangreichen Archivmaterials. Der durch zahlreiche Übergangsformen nachweisbare Prozess der Herausbildung des jüngeren Haustyps aus dem älteren Haustyp heraus widerlegt die bisherige Annahme, dass der Typenwandel lediglich eine Grenzverschiebung zwischen den geografischen Verbreitungsgebieten zweier frühneuzeitlicher Haustypen gewesen sei. Die archivalische Überlieferung zur friderizianischen Kolonisation, zum ländlichen Baugeschehen im ausgehenden 18. und beginnenden 19. Jh. sowie zur obrigkeitlichen Reglementierung des >Unterthanenbauwesens< erbringt den eindeutigen Nachweis, dass weder das Vorbild der Kolonistenhäuser noch irgendeine Form der obrigkeitlichen Einflussnahme für den Wandel vom giebelständigen zum traufständigen Haustyp von Bedeutung waren. Vielmehr erweisen sich die Auswirkungen der Agrarreformen auf die bäuerlichen Betriebe als der ausschlaggebende Faktor für den Typenwandel. Die bisher angewandten Begriffe zur Bezeichnung der Haustypen stellen sich im Ergebnis der Untersuchung nicht nur als irreführend sondern falsch heraus. Die Arbeit eröffnet deshalb eine Debatte zur Neudefinition der Typenbegriffe innerhalb der regionalen Hausforschung.
The main objective of this thesis is to investigate the characteristics of rice husk ash RHA) and then its behaviour in self-compacting high performance concrete (SCHPC) with respects to rheological properties, hydration and microstructure development and alkali silica reaction, in comparison with silica fume (SF). The main results show that the RHA is a macro-mesoporous amorphous siliceous material with a very high silica content comparable with SF. The pore size distribution is the most important parameter of RHA besides amorphous silica content. This parameter affects pore volume, specific surface area, and thus the water demand and the pozzolanic reactivity of RHA and its behaviour in SCHPC. The incorporation of RHA decreases filling and passing abilities, but significantly increases plastic viscosity and segregation resistance of SCHPC. Therefore, RHA can be used as a viscosity modifying admixture for SCHPC. The incorporation of RHA increases the superplasticizer adsorption, the superplasticizer saturation dosage, yield stress and plastic viscosity of mortar. Fresh mortar formulated from SCHPC is a shear-thickening material. The incorporation of RHA/SF ecreases the shearthickening degree. The incorporation of RHA/SF increases the degree of cement hydration. SF appears more effective at 3 days possibly due to the better nucleation site effect, whereas RHA dominates at the later ages possibly due to the internal water curing effect. The incorporation of RHA/SF increases the degree of C3S hydration, particularly the C3S hydration rate from 3 to 14 days. The pozzolanic reaction takes place outside and inside RHA particles.
The internal pozzolanic eaction products consolidate the pores inside RHA particles rather than contribute to the pore refinement in the cement matrix. In the presence of the high alkali concentration, RHA particles act as microreactive aggregates and react with alkali hydroxide to generate the expansive alkali silica reaction products. Increasing the particle size and temperature increases the alkali silica reactivity of RHA. The mechanism for the successive pozzolanic and alkali silica reactions of RHA is theorized. Additionally, a new simple
mix design method is proposed for SCHPC containing various supplementary cementitious materials, i.e. RHA, SF, fly ash and limestone powder.
Space is a social product and a social producer. The main aim of this thesis is to reveal ‘the process of totalitarian city making in Pyongyang’, especially in the light of the interaction between the power and urban space.
The totalitarian city of Pyongyang was born out of modernization in the process of masses formation. During the growth of colonial capitalism and Christian liberal ideas, Pyongyang was modernized and displayed the characteristics of a modern city with industrialization and urbanization. During the introduction of Japanese colonial capitalism, peasants, women, and slaves became the first masses and urban poor, and they later transformed into the mob; their violence was finally demonstrated during the Anti-Chinese Riot.
After the 1945 independence, Kim’s regime formed the one-party state with a cry for revolution. They produced an atmosphere of imminent war to instill fear and hatred into the psyche of Pyongyang citizens. The regime eliminated all political opponents in 1967 and finally declared the totalitarian ideology in 1974. During this process, Pyongyang demonstrated two main characteristics of a totalitarian city: the space of terror and of ideology. The space of terror produces the fear of death and the space of ideology controls the thought and life of citizens.
After entry to the market, to keep Kim’s controlling power, the regime used the strategy of location exchange. The camp, market, and Foreign Currency Shop were effective tools to prepare for executives’ gifts. However, the market also produces the desire not only for consumption but also for freedom and truth; it is tearing down the foundation of the totalitarian city of Pyongyang.
This research focuses primarily on the interaction between political power and urban space. In the process of making a totalitarian city, the power produced urban space and it influenced the psyche of Pyongyang citizens. Even though this spatial transition has created the totalitarian city and helped maintain political power, it also led and produced intended or unintended social variation in Pyongyang society.
Die vorliegende Arbeit hat die Absicht, den Bedarf der Umsetzung der Planungsidee ‚kinder- und jugendfreundliche Stadtentwicklung’ in Korea zu erforschen und Vorschläge für die Umsetzung zu machen. Darüber hinaus will sie herausfinden, warum man sich bezüglich der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung zunächst auf die Schulen und deren Umgebungen konzentrieren soll.
Deshalb widmet sich die Dissertation zuerst der Literaturrecherche, sowohl was den Begriff der kinder- und jugendfreundlichen Stadtentwicklung angeht als auch der Literatur bezüglich des Beitrags der Schulen zur Realisierung der kinder- und jugendfreundlichen Stadtentwicklung. Danach wird untersucht, ob das deutsche Instrument ‚Spielleitplanung‘ sich als Leitfaden für die gesamte Konzeption der koreanischen kinder- und jugendfreundlichen Stadtentwicklung eignet. Darüber hinaus werden Interviews mit koreanischen Experten aus Stadtplanung und Architektur, Pädagogik und öffentlicher Verwaltung als Forschungsmethode verwendet, um in Bezug auf die kinder- jungendfreundliche Stadtentwicklung den koreanischen Zustand zu analysieren. Zuletzt werden anhand der Untersuchungsergebnisse Handlungs-empfehlungen für die Durchführung der koreanischen kinder- und jugend-freundlichen Stadtentwicklung formuliert.
Anhand dieser Forschung kann konstatiert werden, dass die kinder- und jugendfreundliche Stadtentwicklung eine wichtige Planungsidee ist, weil dadurch Stadtplanerinnen und Stadtplaner sowohl zum körperlichen und geistigen gesunden Aufwachsen von Kindern und Jugendlichen als auch zur Entwicklung ihrer sozialen Kompetenzen erheblich beitragen können. Vor allem soll man die koreanische kinder- und jugendfreundliche Stadtentwicklung zunächst auf den Schulen und den schulischen Umgebungen umsetzen. Denn dadurch lassen sich vielseitige eventuelle Hindernisse bei der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung vermeiden. Ein weiterer Grund ist, dass die Schulen in Korea nicht nur in der Gesellschaft eine zentrale Rolle spielen, sondern auch im Rahmen der Stadtplanung. Auffällig ist, dass die kinder- und jugendfreundliche Stadtentwicklung sowohl auf die räumlichen Gestaltungen als auch auf die Beteiligung von Kindern und Jugendlichen in der städtischen Planung fokussiert ist. Allerdings werden bei der Stadtentwicklung die Kinder und Jugendliche in Korea noch nicht als wichtige Akteure angesehen. Darum soll man die Spielleitplanung in Korea einbeziehen, weil sie als Leitbild bei einer Konzeption der koreanischen kinder- und jugendlichen Stadtentwicklung fungieren kann. Jedoch müssen dabei die kulturellen Unterschiede zwischen Deutschland und Korea berücksichtigt werden.
Weiterhin wurde durch die Interviews festgestellt, dass das Interesse und der Wille von Experten aus der Stadtplanung an Kinder- und Jugendfreundlichkeit die wichtigsten Voraussetzungen sind, um die kinder- und jugendfreundliche Stadtentwicklung in Korea zu verankern und zu verbreiten.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
The refurbishment of old buildings often goes hand in hand with an increase in both the dead and live loads. The latter, combined with the higher safety factors, often make the reinforcement of the old structures necessary. Most reinforcement methods involve transforming a structural timber member into a composite beam. Composite sections have a long tradition in timber construction. In the early days, multiple timber beams were connected with interlocking tooth and wooden shear connecters, which resulted in an elastic connection. Although historical timber structures are frequently upgraded, no method has yet been established and fully accepted by all stakeholders such as owners, builders, architects, engineers and cultural heritage organisations. Carbon fibre-reinforced polymers (CFRP) have already shown their efficiency in structural reinforcement especially in concrete structures. Moreover, previous studies have shown that CFRP has the potential to meet the expectations of all parties involved.
In order to reach the service-limit state, a high amount of carbon fibres has to be used, or considering the cost of reinforcement, prestress has to be applied. However, prestressing often goes hand-in-hand with delaminating issues. The camber method presented here offers an efficient solution for prestressing timber bending members and overcoming the known obstacles.
In the method proposed, the timber beam is cambered using an adjustable prop at midspan during the bonding of the CRFP-lamella to the lower side of the bending member. After curing the adhesive, the prop is removed and the prestressed composite beam is ready to be used. The prestress introduced in the system is not constant, but has a triangular shape and peaks at midspan, where it is used the most. The prestress force, which declines towards the end of the beam, leads to a constant shear stress over the whole length of the reinforcement,avoiding a concentrated anchorage zone.
An analytical calculation model has been developed to calculate and design prestressed timber-
bending members using the camber method. Numerical modelling, using a multi-surface plasticity model for timber, confirmed the results from the analytical model, and clearly reduced delaminating issues, comparing very favourably to traditional prestressing methods. The experimental parametric study, including the determination of the short-term loadbearing capacity of structural-sized beams, showed agreement with the analytical and numerical calculation. The prestressed reinforcement showed a benefit of nearly 50% towards the ultimate-limit state and up to 70% towards the service-limit state. Calculations revealed that the use of high modulus CFRP allows even higher benefits, depending on the configurations and requirements. The long-term design of the prestressed composite beam was investigated by extending the analytical model. The creep of the timber leads to a load transfer from the timber towards the CFRP, and therefore increases the benefit towards the ultimatelimit design. Applying high modulus CFRP-lamellas allows for a complete utilisation of the
design capacity of timber and carbon fibre-reinforced polymer.
The thorough investigation conducted demonstrated that the camber method is an efficient technique for prestressing and reinforcing timber-bending members. Furthermore, the calculation model presented allows for a safe design and estimation of long-term behaviour.
Zur Verbindung des flächigen Bauteils Brettstapelelement mit mineralischer Deckschicht sind bisher kaum geeignete einfachste Fugenausbildungen untersucht. Bei dieser biegebeanspruchten hybriden Verbundkombination bietet das zugbeanspruchte Holz und die druckbeanspruchte mineralische Deckschicht im Verbund ein günstigeres Biegetragverhalten und verbessert im Vergleich zum reinen Brettstapeldeckenelement dessen Eigenschaften. Für die Steifigkeit und die Tragfähigkeit der Verbundkonstruktion ist die Ausbildung der Verbundfuge, die effektive Übertragung der Schubkraft ausschlaggebend. Die vom Verfasser der Arbeit durchgeführten Versuche haben gezeigt, dass der Einsatz alternativer Verbundfugenausführungen grundsätzlich möglich ist. Mit diesem Wissen scheint neben dem Einsatz nachgiebiger Verbindungsmittel auch die Heranziehung, Erfassung und Optimierung des Flächen- sowie Reibungsverbundes zwischen flächigen Holzelementen und mineralischen Deckschichten eine effiziente und sichere Fugenausbildung darzustellen. Für weiterreichende und genauere Aussagen, sind neben der versuchstechnischen Abklärung der Wirksamkeit möglicher chemischer als auch mechanischer Modifikationen der Holzoberfläche in der Verbundfuge computergestützte Kurzzeit- sowie auch Langzeituntersuchungen zur Abschätzung der Möglichkeiten und Zuverlässigkeit des Flächenverbundes zwischen Brettstapelelement und mineralischer Deckschicht unabdingbar gewesen. Als Deckschichtvarianten kamen Normalbeton, Zementestrich, Anhydritestrich und Geopolymerbeton zur Anwendung. Es konnte durch eine statistische Auswertung im Resultat ein Gesamtüberblick über das Tragverhalten von hybriden Verbundelementen mit mineralischen Deckschichten und spezieller Oberflächenbehandlung des Holzes gegeben werden. Dabei wirkten sich die Vorteile bei der Nutzung des Flächenverbundes vor allem auf den Gebrauchszustand des Bauteils aus. Die Steifigkeit des Verbundbauteils wurde durch den Flächenverbund erhöht und es wurden damit günstigere Voraussetzungen für den Nachweis der Gebrauchstauglichkeit vor allem bei Spannweiten über 5,0 m erzielt. Die Untersuchungen zeigen die grundlegende Anwendbarkeit für Brettstapel im Flächenverbund mit mineralischen Baustoffen.
In der täglichen Ingenieurpraxis werden in zunehmenden Maße numerische Analysen im Rahmen der Finite-Elemente-Methode auch zur Untersuchung stabilitätsgefährdeter Strukturen eingesetzt. Für die aktuelle Praxis, insbesondere im konstruktiven Stahlbau, ist jedoch festzustellen, dass zwischen der fortgeschrittenen Theorie und dem Niveau der praktischen Anwendung numerischer Stabilitätsanalysen eine große Kluft besteht. Aus praktischer Sicht erscheint es unumgänglich, die weiter wachsende Diskrepanz zwischen den umfangreichen theoretischen Möglichkeiten und der gegenwärtigen Praxis abzubauen. Damit steht der praktisch tätige Ingenieur vor der Aufgabe, sein Wissen auf dem Gebiet numerischer Stabilitätsanalysen zu vertiefen und bereits vorhandene FE-Programme um Berechnungsalgorithmen für umfassende numerische Stabilitätsanalysen zu erweitern. Dafür werden in der Arbeit die Grundlagen einer FEM- orientierten modernen Stabilitätstheorie einheitlich und aus Sicht einer praktischen Anwendung aufbereitet. Die Darstellung von realisierten programmtechnischen Umsetzungen für erweiterte Analysenmethoden wie Nachbeulanalysen, Pfadwechsel und Approximationen imperfekter Pfade ermöglicht eine Erweiterung des Methodenvorrates. Die innerhalb der Arbeit untersuchten Beispiele zeigen, dass durch die Anwendung der behandelten Verfahren das Tragverhalten einer stabilitätsgefährdeten Struktur wesentlich besser eingeschätzt werden kann als bei Beschränkung auf die herkömmlichen Analysemethoden.
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
Auf dem Gebiete der neuen Bundesländer wurden bis 1990 ca. 2,18 Millionen Wohnungen in Fertigteilbauweise gebaut. In verschiedenen Gebäudetypen wurden asbesthaltige Materialien sowohl im Wohnungsinneren als auch im Außenwandbereich eingesetzt. Vor dem Rückbau bzw. Abriss oder der Sanierung der betroffenen Gebäude muss hier generell eine Asbestentsorgung durchgeführt werden. Im Falle schwach gebundener Asbestprodukte im Innenbereich ist die Erfassung von Gefährdungspotential und Sanierungsdringlichkeit rechtlich und technisch geregelt. Hier liegen bereits zuverlässige Sanierungslösungen unter besonderer Berücksichtigung des Arbeitsschutzes sowie des Schutzes angrenzender Bereiche auch für den bewohnten Zustand vor. Für den Außenwandbereich gibt es diesbezüglich ein Defizit. Von den heute ein Gefährdungspotential in der Bausubstanz darstellenden Asbestprodukten kommt dem asbesthaltigen, polymergebundenen Fugendichtstoff Morinol eine besondere Bedeutung zu. Der Fugendichtstoff Morinol wurde sowohl im Außenbereich als auch im Innenbereich der Wohngebäude verwendet. Definitionsgemäß ist nach der Gefahrstoffverordnung und den Technischen Regeln für Gefahrstoffe der in Plattenbauten eingebaute Morinol-Fugendichtstoff ein Gefahrstoff, so dass beim bautechnischen Umgang mit diesem Material vom Ausbau bis zur Entsorgung hohe Anforderungen an den Arbeits- und Gesundheitsschutz sowie den Umweltschutz zu erfüllen sind. Derzeit erfolgt der Gefahrstoffausbau durch verschiedene, in höchstem Maß kostenintensive und ergonomisch unbefriedigende sowie technisch unzureichende Verfahren. Ein besonderes Defizit besteht beim Ausbau des Fugendichtstoffes bei Fugen mit einer geringen Breite, Fugen mit konischem Fugenverlauf, Fugen mit tief in den Fugenraum reichenden Dichtstoffmassen, in Kreuzungsbereichen von Horizontal- und Vertikalfugen und in Eckbereichen. Bei diesen Fugentypen muss bisher zum Ausbau des Fugendichtstoffes der Beton beidseitig der Fugenflanke abgestemmt werden. Der Beton wird zusammen mit dem anhaftenden Fugendichtstoff als Gefahrstoff beseitig. Die Zielstellung der Arbeit besteht in der systematischen Entwicklung technischer Lösungen zum Ausbau von Fugendichtstoffen am Beispiel der asbesthaltigen Fugendichtstoffe in Plattenbauten. An die Verfahrenslösung werden die Anforderungen verbesserter Arbeits-, Gesundheits- und Umweltschutz, optimierte Technologie und höhere Wirtschaftlichkeit gestellt. Bestandteile dieser Entwicklung sind die Untersuchung der Schwerpunkte Fugenarten, Merkmale asbesthaltiger Fugendichtungen, betroffene Bausubstanz und die Analyse der rechtlichen und arbeitsschutzrechtlichen Rahmenbedingungen für den Umgang mit asbesthaltigen Fugendichtstoffen. Die Untersuchung der gegenwärtig verfügbaren Arbeitsverfahren und die Darstellung der Defizite dieser Lösungen ist eine grundlegende Vorraussetzung für weitere Entwicklungsarbeiten. Basierend auf den gewonnenen Ergebnissen wird ein Konzept für die Entwicklung neuer Verfahrenslösungen aufgestellt. Thermische und mechanische Verfahren werden erstmalig systematisch untersucht. Durch die Bewertung der verschiedenen Verfahren wird eine Lösung ermittelt und abschließend hinsichtlich Wirtschaftlichkeit, Ergonomie, Faser- und Staubemission, Lärmemission und Vibration bewertet.
Entwicklung und Untersuchung von alternativen Dicalciumsilicat-Bindern auf der Basis von alpha-C2SH
(2018)
Um den Klimawandel zu begrenzen, müssen die CO2-Emissionen drastisch gesenkt werden [100]. Bis 2050 soll bei der Herstellung von Zement eine Einsparung um 51–60 % auf 0,425–0,350 tCO2/tZement erfolgen [7]. Um dieses Ziel zu erreichen, sind alternative Bindemittelkonzepte notwendig [70].
Diese Arbeit widmet sich alternativen, hochreaktiven Dicalciumsilicat-Bindemitteln, die durch die thermische Aktivierung von α-Dicalcium-Silicat-Hydrat (α-C2SH) erzeugt werden. Das α-C2SH ist eine kristalline C S H-Phase, die im hydrothermalen Prozess, beispielsweise aus Branntkalk und Quarz, herstellbar ist. Die thermische Aktivierung kann bei sehr niedrigen Temperaturen erfolgen (>420 °C) und führt zu einem Multiphasen-C2S-Binder. Als besonders reaktive Bestandteile können x-C2S und röntgenamorphe Anteile enthalten sein. Weiterhin können β C2S, γ C2S und Dellait (Ca6(SiO4)(Si2O7)(OH)2) entstehen.
Im Rahmen der Arbeit wird zunächst der Stand des Wissens zur Polymorphie und Hydratation von C2S zusammengefasst. Es werden bekannte C2S-basierte Bindemittelkonzepte vorgestellt und bewertet.
Die Herstellung von C2S-Bindern wird experimentell im Labormaßstab untersucht. Dabei kommen unterschiedliche Autoklaven und ein Muffelofen zum Einsatz. Die Herstellungsparameter werden hinsichtlich Phasenbestand und Reaktivität optimiert. Die Bindemittel werden durch quantitative Röntgen-Phasenanalyse (QXRD), Rasterelektronenmikroskopie (REM), N2-Adsorption (BET-Methode), Heliumpycnometer, Thermoanalyse (TGA/DSC) und 29Si-MAS- sowie 29Si-1H-CP/MAS-NMR-Spektroskopie charakterisiert. Das Hydratationsverhalten der Bindemittel wird vorrangig mithilfe von Wärmeflusskalorimetrie untersucht. Weiterhin werden in situ und ex situ XRD-, TGA/DSC- und REM-Untersuchungen durchgeführt. Anhand von zwei Bindemitteln wird die Fähigkeit zur Erzielung hoher Festigkeiten demonstriert. Abschließend erfolgt eine Abschätzung zu Energiebedarf und CO2-Emissionen für die Herstellung der untersuchten C2S-Binder.
Die Ergebnisse zeigen, dass für eine hohe Reaktivität der Binder eine niedrige Brenntemperatur und ein geringer Wasserdampfpartialdruck während der thermischen Aktivierung entscheidend sind. Weiterhin muss das hydrothermal hergestellte α-C2SH eine möglichst hohe spezifische Oberfläche aufweisen. Diese Parameter beeinflussen den Phasenbestand und die phasenspezifische Reaktivität. Brenntemperaturen von ca. 420–500 °C führen zu hochreaktiven Bindern, die im Rahmen dieser Arbeit als Niedertemperatur-C2S-Binder bezeichnet werden. Temperaturen von ca. 600–800 °C führen zu Bindern mit geringerer Reaktivität, die im Rahmen dieser Arbeit als Hochtemperatur-C2S bezeichnet werden. Höhere Brenntemperaturen (1000 °C) führen zu Bindemitteln, die innerhalb der ersten drei Tage keine hydraulische Aktivität zeigen.
Die untersuchten Bindemittel können sehr hohe Reaktionsgeschwindigkeiten erreichen. Die Wärmeflusskalorimetrie deutet bei einigen Bindemitteln einen nahezu vollständigen Umsatz innerhalb von drei Tagen an. Durch XRD wurde für einen Binder der vollständige Verbrauch von x-C2S innerhalb von drei Tagen nachgewiesen. Für einen mittels in-situ-XRD und Wärmeflusskalorimetrie untersuchten Binder wurde gezeigt, dass die Phasen vorrangig in der Reihenfolge röntgenamorph > x-C2S > β-C2S > γ-C2S hydratisieren. Hydratationsprodukte sind nadelige C S H-Phasen und Portlandit.
Die Herstellung durch thermische Aktivierung von α-C2SH führt zu tafeligen Bindemittelpartikeln, die teilweise Zwickelräume und Poren zwischen den einzelnen Partikeln einschließen. Um eine verarbeitbare Bindemittelpaste zu erzeugen, sind daher sehr hohe Wasser/Bindemittel-Werte (z. B. 1,4) erforderlich. Der Wasseranspruch kann durch Mahlung etwa auf das Niveau von Zement gesenkt werden.
Die Druckfestigkeitsentwicklung wurde an zwei Niedertemperatur-C2S-Kompositbindern mit 40 % Kalksteinmehl bzw. 40 % Hüttensand untersucht. Aufgrund von theoretischen Betrachtungen zur Porosität in Abhängigkeit des w/b-Wertes wurde dieser auf 0,3 festgelegt. Durch Zugabe von PCE-Fließmittel wurde ein verarbeitbarer Mörtel erhalten. Die Festigkeitsentwicklung ist sehr schnell. Der Kalksteinmehl-Binder erreichte nach zwei Tagen 46 N/mm². Bis Tag 28 trat keine weitere Festigkeitssteigerung ein. Der Hüttensand-Binder erreichte nach zwei Tagen 62 N/mm². Durch die Hüttensandreaktion stieg die Festigkeit bis auf 85 N/mm² nach 28 Tagen an.
Für den Herstellungsprozess von Niedertemperatur-C2S-Binder wurden Energieverbräuche und CO2-Emissionen abgeschätzt. Es deutet sich an, dass, bezogen auf die Bindemittelmenge, keine wesentlichen Einsparungen im Vergleich zur Portlandzementherstellung möglich sind. Für die tatsächlichen Emissionen muss jedoch zusätzlich die Leistungsfähigkeit der Bindemittel berücksichtigt werden. Die Leistungsfähigkeit kann als erforderliche Bindemittelmenge betrachtet werden, die je m³ Beton eingesetzt werden muss, um bestimmte Festigkeits-, Dauerhaftigkeits- und Verarbeitungseigenschaften zu erreichen.
Aus verschiedenen Veröffentlichungen [94, 201, 206] wurde die These abgeleitet, dass die Leistungsfähigkeit eines Bindemittels maßgeblich von der C-S-H-Menge bestimmt wird, die während der Hydratation gebildet wird. Daher wird für NT-C2S-Binder eine außergewöhnlich hohe Leistungsfähigkeit erwartet.
Auf Basis der Leistungsfähigkeitsthese verringern sich die abgeschätzten CO2-Emissionen von NT-C2S-Bindern, sodass gegenüber Portlandzement ein mögliches Einsparpotenzial von 42 % ermittelt wurde.
In meiner theoretisch_praktischen Arbeit befasse ich mich mit der verletzenden Kraft von Sprache jenseits direkter Adressierung.
Es wird der Frage nachgegangen, ob und wie auch da Verletzung durch Sprache stattfindet, wo keine offensichtliche Diskriminierung erfolgt, sondern subtilere Wirkmächte der Performativität am Werk sind. Sprachliche Benenn- und Beweisbarkeit verletzenden Sprechens werden dabei in Frage gestellt und einem Wahrnehmen und Begegnen Vorrang gegeben.
Sowohl im eher theoretischen Teil, dem „Fragment I: 943 Fragen zur sprachlichen Gewalt“, als auch im vorwiegend praktischen Teil, dem „Fragment II: Untersuchungen und Zwischennutzungen“, wird eine Perspektive auf kritische Handlungsfähigkeit in Bezug auf Sprache und Gewalt eröffnet. Es wird ein Verständnis von Verantwortung als ein Affekt und zugleich Ort der Kritik zur Diskussion gestellt und befragt. Dabei versuche ich, über die dichotome Verfestigung von „Wir und die Anderen“ hinauszugelangen und dabei ein WIR, das nicht vom IHR getrennt ist, als WIHR in den Blick zu nehmen. Dieses WIHR muss notwendigerweise offen und flexibel bleiben. Es soll eine Art Möglichkeitsraum schaffen, der nicht neu geordnet, sondern im beständigen Fragen einer abschließenden Antwort entzogen wird.
Eine Annäherung in vor allem zeichnerischen und auditiven Untersuchungen sowie 943 Fragen.
In der vorliegenden Arbeit wird eine kraftschlüssige Verbindungstechnik für modulare, schalenartige Faserverbundbauteile vorgestellt. Die Verbindung basiert auf der Verklebung mit lokal begrenzten Stahlblechen. Aus dem Verbindungsansatz wird die Verklebung zwischen Stahl und Faserverbundkunststoff vertiefend betrachtet. Ziel sind die Wahl von technologischen Randbedingungen, die Erarbeitung eines Vorschlages zur numerischen Berechnung und Bemessung und die Formulierung konstruktiver Empfehlungen zum Entwurf von Verklebungen. Mechanische Kennwerte werden in Zugversuchen ermittelt und direkt auf die nichtlinearen Berechnungen übertragen. Technologische Einflüsse und die Streuungen aus realen Verklebungen werden über die Nachrechnung von Zugscherversuchen in die Bemessung integriert. Es wird gezeigt, dass die Verklebungen ausreichende Festigkeiten und ein zufriedenstellendes Bruchverhalten aufweisen. Die Kombination aus einer Werkstattverklebung und einer baustellengerechten Montage ermöglicht eine materialgerechte und effiziente Verbindungen für Faserverbundkonstruktionen unter den Randbedingungen des Bauwesens.
Text classification deals with discovering knowledge in texts and is used for extracting, filtering, or retrieving information in streams and collections. The discovery of knowledge is operationalized by modeling text classification tasks, which is mainly a human-driven engineering process. The outcome of this process, a text classification model, is used to inductively learn a text classification solution from a priori classified examples. The building blocks of modeling text classification tasks cover four aspects: (1) the way examples are represented, (2) the way examples are selected, (3) the way classifiers learn from examples, and (4) the way models are selected.
This thesis proposes methods that improve the prediction quality of text classification solutions for unseen examples, especially for non-standard tasks where standard models do not fit. The original contributions are related to the aforementioned building blocks: (1) Several topic-orthogonal text representations are studied in the context of non-standard tasks and a new representation, namely co-stems, is introduced. (2) A new active learning strategy that goes beyond standard sampling is examined. (3) A new one-class ensemble for improving the effectiveness of one-class classification is proposed. (4) A new model selection framework to cope with subclass distribution shifts that occur in dynamic environments is introduced.
Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding.
The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes.
In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources.
The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES.
The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack.
Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features.
The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext.
From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption.
In recent years, lightweight materials, such as polymer composite materials (PNCs) have been studied and developed due to their excellent physical and chemical properties. Structures composed of these composite materials are widely used in aerospace engineering structures, automotive components, and electrical devices. The excellent and outstanding mechanical, thermal, and electrical properties of Carbon nanotube (CNT) make it an ideal filler to strengthen polymer materials’ comparable properties. The heat transfer of composite materials has very promising engineering applications in many fields, especially in electronic devices and energy storage equipment. It is essential in high-energy density systems since electronic components need heat dissipation functionality. Or in other words, in electronic devices the generated heat should ideally be dissipated by light and small heat sinks.
Polymeric composites consist of fillers embedded in a polymer matrix, the first ones will significantly affect the overall (macroscopic) performance of the material. There are many common carbon-based fillers such as single-walled carbon nanotubes (SWCNT), multi-walled carbon nanotubes (MWCNT), carbon nanobuds (CNB), fullerene, and graphene. Additives inside the matrix have become a popular subject for researchers. Some extraordinary characters, such as high-performance load, lightweight design, excellent chemical resistance, easy processing, and heat transfer, make the design of polymeric nanotube composites (PNCs) flexible. Due to the reinforcing effects with different fillers on composite materials, it has a higher degree of freedom and can be designed for the structure according to specific applications’ needs. As already stated, our research focus will be on SWCNT enhanced PNCs. Since experiments are timeconsuming, sometimes expensive and cannot shed light into phenomena taking place for instance at the interfaces/interphases of composites, they are often complemented through theoretical and computational analysis.
While most studies are based on deterministic approaches, there is a comparatively lower number of stochastic methods accounting for uncertainties in the input parameters. In deterministic models, the output of the model is fully determined by the parameter values and the initial conditions. However, uncertainties in the input parameters such as aspect ratio, volume fraction, thermal properties of fiber and matrix need to be taken into account for reliable predictions. In this research, a stochastic multiscale method is provided to study the influence of numerous uncertain input parameters on the thermal conductivity of the composite. Therefore, a hierarchical multi-scale method based on computational homogenization is presented in to predict the macroscopic thermal conductivity based on the fine-scale structure. In order to study the inner mechanism, we use the finite element method and employ surrogate models to conduct a Global Sensitivity Analysis (GSA). The SA is performed in order to quantify the influence of the conductivity of the fiber, matrix, Kapitza resistance, volume fraction and aspect ratio on the macroscopic conductivity. Therefore, we compute first-order and total-effect sensitivity indices with different surrogate models.
As stochastic multiscale models are computational expensive, surrogate approaches are commonly exploited. With the emergence of high performance computing and artificial intelligence, machine learning has become a popular modeling tool for numerous applications. Machine learning (ML) is commonly used in regression and maps data through specific rules with algorithms to build input and output models. They are particularly useful for nonlinear input-output relationships when sufficient data is available. ML has also been used in the design of new materials and multiscale analysis. For instance, Artificial neural networks and integrated learning seem to be ideally for such a task. They can theoretically simulate any non-linear relationship through the connection of neurons. Mapping relationships are employed to carry out data-driven simulations of inputs and outputs in stochastic modeling.
This research aims to develop a stochastic multi-scale computational models of PNCs in heat transfer. Multi-scale stochastic modeling with uncertainty analysis and machine learning methods consist of the following components:
-Uncertainty Analysis. A surrogate based global sensitivity analysis is coupled with a hierarchical multi-scale method employing computational homogenization. The effect of the conductivity of the fibers and the matrix, the Kapitza resistance, volume fraction and aspect ratio on the ’macroscopic’ conductivity of the composite is systematically studied. All selected surrogate models yield consistently the conclusions that the most influential input parameters are the aspect ratio followed by the volume fraction. The Kapitza Resistance has no significant effect on the thermal conductivity of the PNCs. The most accurate surrogate model in terms of the R2 value is the moving least square (MLS).
-Hybrid Machine Learning Algorithms. A combination of artificial neural network (ANN) and particle swarm optimization (PSO) is applied to estimate the relationship between variable input and output parameters. The ANN is used for modeling the composite while PSO improves the prediction performance through an optimized global minimum search. The thermal conductivity of the fibers and the matrix, the kapitza resistance, volume fraction and aspect ratio are selected as input parameters. The output is the macroscopic (homogenized) thermal conductivity of the composite. The results show that the PSO significantly improves the predictive ability of this hybrid intelligent algorithm, which outperforms traditional neural networks.
-Stochastic Integrated Machine Learning. A stochastic integrated machine learning based multiscale approach for the prediction of the macroscopic thermal conductivity in PNCs is developed. Seven types of machine learning models are exploited in this research, namely Multivariate Adaptive Regression Splines (MARS), Support Vector Machine (SVM), Regression Tree (RT), Bagging Tree (Bag), Random Forest (RF), Gradient Boosting Machine (GBM) and Cubist. They are used as components of stochastic modeling to construct the relationship between the variable of the inputs’ uncertainty and the macroscopic thermal conductivity of PNCs. Particle Swarm Optimization (PSO) is used for hyper-parameter tuning to find the global optimal values leading to a significant reduction in the computational cost. The advantages and disadvantages of various methods are also analyzed in terms of computing time and model complexity to finally give a recommendation for the applicability of different models.
The main hypothesis of this research is that civil society’s participation is able to improve the planning results in the Chinese city of Qingdao in the contemporary age. Qingdao is a young city developed from a German colony in eastern China. Apart from the powers of the government and the market, the 'third power', including mainly the power of volunteer citizens and the citizens’ organisations, also positively promoted the spatial development in Qingdao’s history. Since 1978’s reform, Qingdao’s great progress in urban housing, historic preservation, public space and urban traffic results mainly from the increasing strength of both the government and the market, while the government has always been the dominant promoter for urban construction. The actual planning mechanism – the government formulates 'what to do' itself and decides 'how to do it' with the market – has much limit in reacting to the rapidly changing situation, serving diversified social interests, and raising sufficient funds for the city’s urgent demands in Qingdao. Searching for new development strategies based on the understanding of civil society in the Chinese context can provide a promising perspective on the urban studies of Qingdao. Chinese civil society can be understood as the intermediate sphere of individuals, families, citizen’s organisations, social movements, public communication, and of the non-governmental body’s non-for-profit involvement for the provision of public services between the state and the market. China has its own cultural tradition of civil society, and the modern civil society in China is showing its great potential in improving social integration and urban life. The Chinese government has started to advocate for civil society’s participation in urban construction, and encouraging the 'bottom-up' mechanism in the planning-related issues through political statements and legislative approaches since the last two decades. The existing planning practice in China is able to demonstrate that civil society’s participation helps improve the quality of Chinese urban planning realistically under present conditions, and that moderation of planning experts and the push of the authority are the key factors for successfully integrating the strength of civil society in planning. However, the power of civil society is not yet sufficiently discovered in Qingdao’s planning. For better planning results, the city of Qingdao needs more initiatives to mobilize civil society in the planning practice, as well as more support to enrich the related studies. This thesis recommends that Qingdao establishes the 'Foundation for Collaborative Urban Solutions' through the joint efforts of the authority and civil initiatives, which aims at moderating and facilitating the strength of civil society. The suggested pilot projects include: a. The Community-based Housing Workshop for regenerating the living environment of the run-down communities, where the residents are willing to collaborate with the foundation with own efforts. b. The Heritage Preservation Workshop for suggesting an efficient supervision mechanism involving civil society which protects the historic heritage from being destroyed in the urban construction. c. The Public Space Forum for improving accessibility, quantity and ecologic function in the development of Qingdao’s urban public space with the knowledge and creativity of both the government and the citizens. d. The Mass Transport Forum for a realistic strategy for funding the rail-based traffic system in Qingdao through enabling the civil society - especially the individual citizens and their households to invest. The 'Foundation of Collaborative Urban Solutions' is able to improve Qingdao’s planning to cope with the urban problems the city are facing in its contemporary development, as well as to provide valuable reference for the further research of civil society’s participation in Chinese urban planning.
Die Ph.D.-Arbeit Soziales Grafikdesign – eine Frage der Haltung hinterfragt den Einfluss und die Wirkungsmacht, den visuelle Kommunikationsgestaltung auf den Betrachter und im weiteren Sinne auf die Gesellschaft im Ganzen haben können. Aufbauend auf den Erkenntnissen über die Wirkungsmacht wird untersucht, wie eine bewusste und sozial verantwortliche Haltung im Grafikdesign aussehen könnte.
Viele Grafikdesigner sind in der Werbebranche tätig und haben den Auftrag, ganz bewusst manipulativ und wirkungsstark Informationen visuell zu übersetzen, um den Betrachter zu einer Handlungsfolge zu animieren. Die bewusste Reflexion der eigenen Rolle als Designer in diesem Prozess führt immer wieder zu den Fragen nach der Verantwortlichkeit des Gestalters und auch dazu, wie der Gestalter die Potenziale der Kommunikationsgestaltung in anderen Bereichen, wie z. B. in städtischen Problemsituationen, für ein soziales Miteinander einsetzen kann.
This dissertation attempts to describe, analyze and evaluate how the settlement spaces of Chinese clans in rural areas were shaped by local clan lives in ancient times and transformed along with the transition of those clan organizations in modern China. In approaching this subject, two major questions are raised: what was the role of ancient Chinese rural clans in the spatial formation of their settlements and, nowadays, do they still play the same role as before?
To approach these answers, this dissertation sets out to draw on systematically interdisciplinary research from the perspectives of socio-culture and architecture- planning to have an overall understanding of a Chinese clan organization and clan settlement. Then, the basic characteristics of traditional Chinese clans and their importance to the Chinese people are discussed by tracing the history and evolution of Chinese clan organizations in the dissertation.
Two old villages, Furong and Cangpo in now Wenzhou, Zhejiang Province, are selected for case study research. And the research reveals that it was the clans that took charge of planning and managing the various construction activities, especially those of communal buildings and facilities, within their own settlements, and the clan lives exerted a decisive impact on shaping the settlement spaces, branding the characteristics of the clan lives clearly and deeply on the spaces. Following that, in the dissertation is described the transformation process of traditional Chinese clans in modern and contemporary China. The clan lives in rural areas have been reshaped and this exerts a great impact on clan settlement spaces. It is shown in the case studies of Furong and Cangpo.
Die Stadt Weimar nimmt in der deutschen Geschichte und in deren Rezeption eine besondere Stellung ein. Sie steht als Metapher für verschiedene kulturhistorische Epochen. Seit der Jahrhundertwende avancierte sie zum komprimierten Spiegelbild deutscher Befindlichkeiten. Für die Nationalsozialisten stellte Weimar eine wesentliche Station für ihren Aufstieg von München nach Berlin, einen erfolgreichen "Kampf- und Experimentierort" dar. Doch auch von 1932-1945 konnten sie in der Stadt außerordentlich aktiv werden. Beispielhaft äußerte sich das in den zeitgenössischen Bauprojekten, in der zeitgenössischen Baupolitik. Die Dissertation behandelt die gesamte Spannbreite der baulichen und planerischen Aktivitäten in und um Weimar in der Zeit des Nationalsozialismus. Sie thematisiert sowohl die repräsentativen Projekte, als auch die Baulichkeiten des Komplexes zum Konzentrationslager Weimar-Buchenwald, ebenso die Wohn- und Kulturbauten, die Kasernenarchitekturen, die Industrie-, Verkehrs- und Behelfsbauten sowie städtebauliche Planungen. Die Gebäude und Komplexe werden im kulturpolitischen Kontext betrachtet, planungs- und baugeschichtlich untersucht, umfassend architektonisch-gestalterisch und städtebaulich-gestalterisch analysiert, dokumentiert, in ihrer gegenseitigen Beeinflussung dargestellt, verglichen und gewertet. Gegebenenfalls werden Querbeziehungen zu anderen Objekten in Deutschland, außerdem zu zeitgleichen nichtbaulichen Ereignissen in Weimar bzw. Deutschland aufgezeigt. Ein Gesamtbild zur Bauplanung und zum Bauschaffen im Dritten Reich in einer Stadt, beispielhaft in der symbolbeladenen Stadt Weimar wird erstellt; ein Stück verdrängter Kulturgeschichte der Stadt Weimar wird rekonstruiert.
Abstract
This doctoral thesis defines the relationship between the urban and rural in the 21st century, and focuses on food as a key component. The fact that food is, for the most part, produced in the countryside and then transported to the city has a significant influence on this very unbalanced relationship today. The main goal was to show that it is necessary to bring agriculture, urban gardening, the breeding of domestic farm animals, and beekeeping back to the city, which would have a positive affect on both the city and the countryside. All of this is already taking place at the local level, within the neighbourhoods of our cities and through the work of self-organised activities and initiatives, which have been taken up by city residents themselves. One example of this is the community garden, a new model of gardening which offers fertile ground for growing vegetables and to test various forms of co-existence, different ways of designing spaces, the creation of alternative values, and a positive vision for the future of city residents.
In 2010, I co-created the community urban garden Beyond a Construction Site, which is the central part of this artistic research. Throughout the entire four-year process of creating this community garden, theory and artistic practice were intertwined, and informed one another. This community garden is an example of a self-organised and self-managed community space located in a residential neighbourhood in the centre of the city of Ljubljana, and as such is a typical example of urbanism from the bottom up. I placed the creation and development of our community garden in a dialogue with the formal way of arranging urban gardening in Ljubljana, a top-down approach, which the city has been carrying out intensively since 2007. I compared the solutions being proposed by the city of Ljubljana for organising urban gardening with the way it is organised in other European cities, the UK, and the USA. I also researched the recent rapid growth of self-organised initiatives which are focused on the local production of food and seek to find more economic and ecologically friendly models to visibly influence the future of cities and the countryside. Here, community gardens play an important role, as in addition to the production of food they are also spaces for the criticism of existing urban policies, a self-organised revitalisation of neglected spaces, and places of resilience, because they differ from that which real estate agencies, large financial companies, and city authorities desire them to be.
The community garden Beyond a Construction Site has become living proof that, through a group action, the residents of a neighbourhood can influence existing city policies and the future of both their own neighbourhood and that of the entire city. The initiators of this garden are artists and architects, and we began this community garden in the context of an art festival, which also shows that art can influence the processes of everyday life and help to create much needed spaces within cities to serve various purposes. Our community garden has also shown itself to be an important platform for the exchange of knowledge on organic gardening, ecology in everyday life, and critical architecture, as well as serving to connect related initiatives. Together with these other initiatives we are stronger, and are influencing structural changes within city politics, thereby also co-creating the future of Ljubljana. This community garden is helping us to redefine our relationship with the city and re-awaken the desires and actions of residents connected with realising their fundamental right, the right to the city.
My other artworks, which I am presenting in the context of this doctoral thesis, show an optimistic vision for the future of cities. The video animations Back to the City (2011) and The Right Balance (2013), as well as the accompanying collages, visualise a city of the future where urban and rural practices live together side-by-side. This vision is being realised by city residents themselves, with their active participation in the creation of community gardens, growing their own vegetables, urban beekeeping, and by having egg-laying hens in their gardens. My desire was also to present the theoretical concept and scientific research to a non-academic public, and to people without specialised training. Using the method of storytelling I included knowledge from the research into the video animations and collages. In this way my artistic work, with an intentional playfulness, challenges today’s faith in science and theoretical concepts, as well as directing attention to working with common sense, with one’s own hands, and with the earth. This can contribute to a change in the still dominant anthropocentric view of nature, which is an urgently needed change for our future.
Keywords: rural, urban agriculture, community gardens, urban beekeeping, the bottom-up approach to urban planning, alternative spaces
The numerical simulation of damage using phenomenological models on the macroscale was state of the art for many decades. However, such models are not able to capture the complex nature of damage, which simultaneously proceeds on multiple length scales. Furthermore, these phenomenological models usually contain damage parameters, which are physically not interpretable. Consequently, a reasonable experimental determination of these parameters is often impossible. In the last twenty years, the ongoing advance in computational capacities provided new opportunities for more and more detailed studies of the microstructural damage behavior. Today, multiphase models with several million degrees of freedom enable for the numerical simulation of micro-damage phenomena in naturally heterogeneous materials. Therewith, the application of multiscale concepts for the numerical investigation of the complex nature of damage can be realized. The presented thesis contributes to a hierarchical multiscale strategy for the simulation of brittle intergranular damage in polycrystalline materials, for example aluminum. The numerical investigation of physical damage phenomena on an atomistic microscale and the integration of these physically based information into damage models on the continuum meso- and macroscale is intended. Therefore, numerical methods for the damage analysis on the micro- and mesoscale including the scale transfer are presented and the transition to the macroscale is discussed. The investigation of brittle intergranular damage on the microscale is realized by the application of the nonlocal Quasicontinuum method, which fully describes the material behavior by atomistic potential functions, but reduces the number of atomic degrees of freedom by introducing kinematic couplings. Since this promising method is applied only by a limited group of researchers for special problems, necessary improvements have been realized in an own parallelized implementation of the 3D nonlocal Quasicontinuum method. The aim of this implementation was to develop and combine robust and efficient algorithms for a general use of the Quasicontinuum method, and therewith to allow for the atomistic damage analysis in arbitrary grain boundary configurations. The implementation is applied in analyses of brittle intergranular damage in ideal and nonideal grain boundary models of FCC aluminum, considering arbitrary misorientations. From the microscale simulations traction separation laws are derived, which describe grain boundary decohesion on the mesoscale. Traction separation laws are part of cohesive zone models to simulate the brittle interface decohesion in heterogeneous polycrystal structures. 2D and 3D mesoscale models are presented, which are able to reproduce crack initiation and propagation along cohesive interfaces in polycrystals. An improved Voronoi algorithm is developed in 2D to generate polycrystal material structures based on arbitrary distribution functions of grain size. The new model is more flexible in representing realistic grain size distributions. Further improvements of the 2D model are realized by the implementation and application of an orthotropic material model with Hill plasticity criterion to grains. The 2D and 3D polycrystal models are applied to analyze crack initiation and propagation in statically loaded samples of aluminum on the mesoscale without the necessity of initial damage definition.
Interactive scientific visualizations are widely used for the visual exploration and examination of physical data resulting from measurements or simulations. Driven by technical advancements of data acquisition and simulation technologies, especially in the geo-scientific domain, large amounts of highly detailed subsurface data are generated. The oil and gas industry is particularly pushing such developments as hydrocarbon reservoirs are increasingly difficult to discover and exploit. Suitable visualization techniques are vital for the discovery of the reservoirs as well as their development and production. However, the ever-growing scale and complexity of geo-scientific data sets result in an expanding disparity between the size of the data and the capabilities of current computer systems with regard to limited memory and computing resources.
In this thesis we present a unified out-of-core data-virtualization system supporting geo-scientific data sets consisting of multiple large seismic volumes and height-field surfaces, wherein each data set may exceed the size of the graphics memory or possibly even the main memory. Current data sets fall within the range of hundreds of gigabytes up to terabytes in size. Through the mutual utilization of memory and bandwidth resources by multiple data sets, our data-management system is able to share and balance limited system resources among different data sets. We employ multi-resolution methods based on hierarchical octree and quadtree data structures to generate level-of-detail working sets of the data stored in main memory and graphics memory for rendering. The working set generation in our system is based on a common feedback mechanism with inherent support for translucent geometric and volumetric data sets. This feedback mechanism collects information about required levels of detail during the rendering process and is capable of directly resolving data visibility without the application of any costly occlusion culling approaches. A central goal of the proposed out-of-core data management system is an effective virtualization of large data sets. Through an abstraction of the level-of-detail working sets, our system allows developers to work with extremely large data sets independent of their complex internal data representations and physical memory layouts.
Based on this out-of-core data virtualization infrastructure, we present distinct rendering approaches for specific visualization problems of large geo-scientific data sets. We demonstrate the application of our data virtualization system and show how multi-resolution data can be treated exactly the same way as regular data sets during the rendering process. An efficient volume ray casting system is presented for the rendering of multiple arbitrarily overlapping multi-resolution volume data sets. Binary space-partitioning volume decomposition of the bounding boxes of the cube-shaped volumes is used to identify the overlapping and non-overlapping volume regions in order to optimize the rendering process. We further propose a ray casting-based rendering system for the visualization of geological subsurface models consisting of multiple very detailed height fields. The rendering of an entire stack of height-field surfaces is accomplished in a single rendering pass using a two-level acceleration structure, which combines a minimum-maximum quadtree for empty-space skipping and sorted lists of depth intervals to restrict ray intersection searches to relevant height fields and depth ranges. Ultimately, we present a unified rendering system for the visualization of entire geological models consisting of highly detailed stacked horizon surfaces and massive volume data. We demonstrate a single-pass ray casting approach facilitating correct visual interaction between distinct translucent model components, while increasing the rendering efficiency by reducing processing overhead of potentially invisible parts of the model. The combination of image-order rendering approaches and the level-of-detail feedback mechanism used by our out-of-core data-management system inherently accounts for occlusions of different data types without the application of costly culling techniques.
The unified out-of-core data-management and virtualization infrastructure considerably facilitates the implementation of complex visualization systems. We demonstrate its applicability for the visualization of large geo-scientific data sets using output-sensitive rendering techniques. As a result, the magnitude and multitude of data sets that can be interactively visualized is significantly increased compared to existing approaches.
The Finite Element Method (FEM) is widely used in engineering for solving Partial Differential Equations (PDEs) over complex geometries. To this end, it is required to provide the FEM software with a geometric model that is typically constructed in a Computer-Aided Design (CAD) software. However, FEM and CAD use different approaches for the mathematical description of the geometry. Thus, it is required to generate a mesh, which is suitable for FEM, based on the CAD model. Nonetheless, this procedure is not a trivial task and it can be time consuming. This issue becomes more significant for solving shape and topology optimization problems, which consist in evolving the geometry iteratively. Therefore, the computational cost associated to the mesh generation process is increased exponentially for this type of applications.
The main goal of this work is to investigate the integration of CAD and CAE in shape and topology optimization. To this end, numerical tools that close the gap between design and analysis are presented. The specific objectives of this work are listed below:
• Automatize the sensitivity analysis in an isogeometric framework for applications in shape optimization. Applications for linear elasticity are considered.
• A methodology is developed for providing a direct link between the CAD model and the analysis mesh. In consequence, the sensitivity analysis can be performed in terms of the design variables located in the design model.
• The last objective is to develop an isogeometric method for shape and topological optimization. This method should take advantage of using Non-Uniform Rational B-Splines (NURBS) with higher continuity as basis functions.
Isogeometric Analysis (IGA) is a framework designed to integrate the design and analysis in engineering problems. The fundamental idea of IGA is to use the same basis functions for modeling the geometry, usually NURBS, for the approximation of the solution fields. The advantage of integrating design and analysis is two-fold. First, the analysis stage is more accurate since the system of PDEs is not solved using an approximated geometry, but the exact CAD model. Moreover, providing a direct link between the design and analysis discretizations makes possible the implementation of efficient sensitivity analysis methods. Second, the computational time is significantly reduced because the mesh generation process can be avoided.
Sensitivity analysis is essential for solving optimization problems when gradient-based optimization algorithms are employed. Automatic differentiation can compute exact gradients, automatically by tracking the algebraic operations performed on the design variables. For the automation of the sensitivity analysis, an isogeometric framework is used. Here, the analysis mesh is obtained after carrying out successive refinements, while retaining the coarse geometry for the domain design. An automatic differentiation (AD) toolbox is used to perform the sensitivity analysis. The AD toolbox takes the code for computing the objective and constraint functions as input. Then, using a source code transformation approach, it outputs a code for computing the objective and constraint functions, and their sensitivities as well. The sensitivities obtained from the sensitivity propagation method are compared with analytical sensitivities, which are computed using a full isogeometric approach.
The computational efficiency of AD is comparable to that of analytical sensitivities. However, the memory requirements are larger for AD. Therefore, AD is preferable if the memory requirements are satisfied. Automatic sensitivity analysis demonstrates its practicality since it simplifies the work of engineers and designers.
Complex geometries with sharp edges and/or holes cannot easily be described with NURBS. One solution is the use of unstructured meshes. Simplex-elements (triangles and tetrahedra for two and three dimensions respectively) are particularly useful since they can automatically parameterize a wide variety of domains. In this regard, unstructured Bézier elements, commonly used in CAD, can be employed for the exact modelling of CAD boundary representations. In two dimensions, the domain enclosed by NURBS curves is parameterized with Bézier triangles. To describe exactly the boundary of a two-dimensional CAD model, the continuity of a NURBS boundary representation is reduced to C^0. Then, the control points are used to generate a triangulation such that the boundary of the domain is identical to the initial CAD boundary representation. Thus, a direct link between the design and analysis discretizations is provided and the sensitivities can be propagated to the design domain.
In three dimensions, the initial CAD boundary representation is given as a collection of NURBS surfaces that enclose a volume. Using a mesh generator (Gmsh), a tetrahedral mesh is obtained. The original surface is reconstructed by modifying the location of the control points of the tetrahedral mesh using Bézier tetrahedral elements and a point inversion algorithm. This method offers the possibility of computing the sensitivity analysis using the analysis mesh. Then, the sensitivities can be propagated into the design discretization. To reuse the mesh originally generated, a moving Bézier tetrahedral mesh approach was implemented.
A gradient-based optimization algorithm is employed together with a sensitivity propagation procedure for the shape optimization cases. The proposed shape optimization approaches are used to solve some standard benchmark problems in structural mechanics. The results obtained show that the proposed approach can compute accurate gradients and evolve the geometry towards optimal solutions. In three dimensions, the moving mesh approach results in faster convergence in terms of computational time and avoids remeshing at each optimization step.
For considering topological changes in a CAD-based framework, an isogeometric phase-field based shape and topology optimization is developed. In this case, the diffuse interface of a phase-field variable over a design domain implicitly describes the boundaries of the geometry. The design variables are the local values of the phase-field variable. The descent direction to minimize the objective function is found by using the sensitivities of the objective function with respect to the design variables. The evolution of the phase-field is determined by solving the time dependent Allen-Cahn equation.
Especially for topology optimization problems that require C^1 continuity, such as for flexoelectric structures, the isogeometric phase field method is of great advantage. NURBS can achieve the desired continuity more efficiently than the traditional employed functions. The robustness of the method is demonstrated when applied to different geometries, boundary conditions, and material configurations. The applications illustrate that compared to piezoelectricity, the electrical performance of flexoelectric microbeams is larger under bending. In contrast, the electrical power for a structure under compression becomes larger with piezoelectricity.
Die Bauaufgaben der Zukunft liegen in der Auseinandersetzung mit bestehender Architektur. Die planerische Herausforderung besteht im Verzicht auf den Neubau durch die Umnutzung und den Umbau existenter Gebäude. Umnutzung und Umbau sind Werterhaltungsstrategien, die den Lebenszyklus eines Gebäudes als integralen Bestandteil der Planung betrachten und deren Ziel es ist, ungenutzte Bestandsgebäude durch keine oder wenige bauliche Eingriffe so zu verändern, dass sie einer Weiternutzung zugeführt werden können. Die Umnutzung unterliegt der Prämisse, dass an den Gebäuden keine baulichen Veränderungen vorgenommen werden, wohingegen der Umbau bauliche Eingriffe gestattet. Als Alternative zum Neubau ist der Erfolg beider Strategien entscheidend davon abhängig, dass der Architekt schon zu Beginn der Planung zu der Entscheidung gelangt, ob sich ein Gebäude unter Anwendung einer der beiden Strategien weiternutzen lässt. Diese Entscheidung wird vom Architekten in der Praxis durch einen Vergleich des Soll-Zustands (Raumprogramm) mit dem Ist-Zustand (Bestandsgrundriss) des Gebäudes getroffen. Die Analyse und Bewertung des Bestandes erfolgt in dieser frühen Phase der Planung in Form von Vorentwurfsskizzen, welche die organisatorischen oder baulichen Veränderungen der Gebäudegrundrisse im Falle einer Weiternutzung darstellen. In dieser Arbeit wird die Hypothese aufgestellt, dass der Vergleich des Raumprogramms mit dem Gebäudegrundriss im Wesentlichen eine kombinatorische Problemstellung darstellt. Unter dieser Annahme wird untersucht, ob durch den Einsatz von Optimierungsverfahren in der Grundrissplanung Lösungen für Umbau- und Umnutzungsaufgaben automatisiert erzeugt werden können. Ziel ist es, durch den computergestützten Einsatz dieser Verfahren zu plausiblen Planungslösungen, die dem Architekten als Grundlage für die weitere Bearbeitung der Planung dienen, zu gelangen.
In the history of 'villages' in Shenzhen, rich traditional cultural resources that are directly related to the folk life in urban corporate community still exist today, synchronously agricultural economy of urban corporate community is transformed into joint-stock economy, and natural villages are transformed into 'heterogeneous' space of city. The most significant fact in the modern social transition is that modern societies have surpassed traditional societies, and cities have surpassed the country. Weber, Durkheim, Tönnies, Simmel and others devoted themselves to cultivating the essence of social transition. The most influential theory to observe and analyze it is the two-tiered approach of ideal type. Tönnies made distinction between 'Gemeinschaft and Gesellschaft', Durkheim distinguished 'mechanical solidarity and organic solidarity', and Redfield analyzed 'folk society and urban society'. In those classical theories, the former transit to the later is considered to be a general rule of transition from traditional society to modern society, and from traditional community to modern community. However, ever since Redfield used the dependent relationship and interactive framework of 'great tradition' and 'little tradition' to explain various complicated phenomena in the transition from tradition to modern in 1950s, he suggested that a folk-urban continuum can be formed in the transition from folk society to urban society. 'Both terms, ‘city’ and ‘country’, are not and have never been limited or restricted to their obvious denotations: ‘city’ is not and has never been only urban. As a category it always encompasses (includes, embodies, embraces) itself and its opposite, the country' (Hassenpflug 2002, 46). Generally, social groups and culture characterized by weak 'potential' will take their own 'little tradition' as 'bridge' and agency, in order to enter or melt themselves into a 'great tradition' that embodies great 'potential' to seek for space to live and develop. There are many different types of transitions that villagers enter and get melt into 'great tradition' through their individual 'little tradition'. There are exploration and development of traditional resources in 'segmentation', such as the frequent relation between a great flow of peasants to cities and the network of kinship, and of earthbound relations; alternatively, there are assistances and utilization of resources of a whole corporate network, such as the traditional corporate community’s organization of local resources during the process of non-agriculturization of villages; and 'villages' in Shenzhen is of the latter situation. The following conclusion can be made based on the above analyses: urban corporate community formed in the process of non-agricultural development and urbanization is an organizing dependency on which villagers melt into city and adapt to urban life. The unique inner-structure and function determine that comparing with other organizations, it has a better performance, efficiency and more humanity care. Firstly, corporate community which is re-organized in the non-agricultural process currently is the only and the most effective organizational resources that can be utilized and has significant meanings in protecting villagers’ interest and benefit; secondly, in the short term, other approaches do not have the advantage and the effect as urban corporate community has on the focusing degree of public affairs in the comprehensive urbanization process; thirdly, the 'new' key connotation of urban corporate community, including its community management functions, is the main reason for which such community has the rationality of being; fourthly, urban corporate community will inevitably face many problems in the urbanization due to its inner fixed characteristics (lack of external support), but to a certain degree it has the ability to self-repair and problem solving under the precondition that, the government and society have a fair, impersonal view of 'villages', and base on this view providing multi-supports, especially providing rational system arrangement and policy supports. Consequently, in order to preserve and protect social system and cultural heritage within the 'villages', and gradually make the coordinative development of 'great tradition' represented by cities and of 'little tradition' represented by 'villages', 'soft reconstruction' rather than 'hard reconstruction' should be adopted by the government, during the recent reconstruction of 'villages' in Shenzhen.
Bisherige Untersuchungen zum hydraulischen Grundbruch im bindigen Baugrund haben gezeigt, dass der Versagensmechanismus durch hydraulisch induzierte Risse ausgelöst wird. Um umströmte Bauwerke im Grundwasser sicher zu dimensionieren, ist daher ein Nachweis gegen hydraulisch induzierte Rissentstehung unerlässlich. Ein solcher existiert bisher jedoch nicht, da die Rissentstehung in bindigen Böden äußerst komplex ist und die zahlreichen Einflussgrößen nicht ausreichend untersucht sind. Aus diesem Grund wurde im Rahmen dieser Dissertation eine Laborstudie zu hydraulisch induzierter Rissbildung in verschiedenen feinkörnigen Böden in einem neuartigen Triaxialversuch durchgeführt. Aus den zahlreichen Versuchsvarianten lassen sich die wichtigsten Einflussgrößen auf den Widerstand des Bodens gegen Rissentstehung ermitteln. Die experimentelle Arbeit wird durch eine numerische Analyse der Versuchsvariationen ergänzt. Daraus lässt sich eine Hypothese zur Rissentstehung in bindigen Böden ableiten, die in Einklang mit der klassischen Bruchmechanik steht.
Der junge Beton ist durch thermische und hygrische Einwirkungen sowie die Entwicklung der Festigkeitseigenschaften und die Relaxation der Zwangsspannungen gekennzeichnet. Ziel der Arbeit ist es, ausgehend vom Materialverhalten eine Strategie zur wirlichkeitsnahen Berechnung von Spannungen in jungen Betonbauteilen infolge von Temperaturfeldern zu entwickeln. Die Berechnungsergebnisse wurden für die Temperatur mit Versuchen im Labor und in situ verifiziert; für die Spannung wurde die Überprüfung der Berechnung mit Hilfe von Versuchen im Labor durchgeführt. Am Beispiel eines Hochofenfundamentes wurde zur Minimierung der Beanspruchungen der Einfluss der Betonrezeptur und der Herstellungstechnologie auf die Temperatur und Spannung des Bauteils untersucht. Anschließend wurde daraus der Einfluss der Erhärtung auf die Materialfelder im Querschnitt beurteilt. Die vorliegende Arbeit leistet einen Beitrag zur rechnerischen Lösung von therm! ischen und mechanischen Problemen des jungen Betons.
Kampf gegen die Sonne
(2013)
Kampf gegen die Sonne,
Extrakt (Abdulbari Madi genannt Hakim Madi):
Wenn wir unsere Vergangenheit betrachten, schauen wir auch in das Gesicht unserer Gegenwart und Zukunft. Wir müssen danach streben, unser kulturelles Erbe und unsere traditionellen Wurzeln zu bewahren, um gleichzeitig von den Erfahrungen der Vergangenheit in den verschiedenen Bereichen des Lebens zu profitieren und sie mit unserer heutigen Umwelt und Kultur in Einklang zu bringen. Die von der UNESCO geschützte alte Stadt Ghadames mitten in der Wüste von Libyen ist ein solcher Ort, an dem mehr als 2.000 Jahre Geschichte spürbar zu greifen sind.
Die Arbeit beschäftige sich zum einen mit dem baulichen Erbe der Stadt Ghadames als kulturelle Errungenschaft im Wandel aktueller Besiedlungsformen unter besonderer Berücksichtigung des Phänomens „Licht und Schatten“. Die einzigartigen Licht- und Schatten-Effekte in Ghadames sind aber, verbunden mit einem Seitenblick auf die theoretischen Beschäftigung damit, Anlass für eine praktische künstlerische Auseinandersetzung mit diesem Aspekt auf photographischer Ebene. So ist als fester Bestandteil dieser Arbeit eine Fotoserie entstanden.
Titel der Arbeit ist „Kampf gegen die Sonne“. Er hat seine Berechtigung, denn der Sonne sind die Bewohner der Wüstenstadt Ghadames schon seit jeher ausgesetzt und haben daher verschiedene Strategien entwickelt, sich vor der sengenden Sonne zu schützen. Das spiegelt sich vor allem in der Architektur, aber auch in der speziellen Palmenbepflanzung.
Gebauter Schatten – ans Klima angepasste Architektur
Architektur sollte idealerweise mit den Bedingungen ihres Umfelds in Einklang stehen. Die arabische Welt ist besonders von ihren klimatischen Bedingungen und der Weite der Wüste geprägt, wobei die Sonneneinstrahlung eine wichtige Rolle spielt. Diese Naturelemente bestimmen die arabische Architektur tiefgreifend.
Architektur, die wie in Ghadames über viele Jahrhunderte als Reaktion auf ein heißes, trockenes Klima entstanden ist, ist gerade heute in Zeiten des sich bereits vollziehenden Klimawandels von besonderem Interesse. Auch in den gemäßigten Klimazonen Europas wird die Sonneneinstrahlung kontinuierlich intensiver und damit wird die Nachfrage nach einer den neuen klimatischen Bedingungen angepassten Bauweise zukünftig zunehmen. An dieser Stelle kann man sicher von den architektonischen Errungenschaften und der langen Erfahrung mit Architektur als gebauter Schatten, wie sie in der Altstadt von Ghadames praktiziert wird, profitieren. Gerade im Vergleich mit der Neustadt von Ghadames, bei der man eben nicht traditionelle Bauweisen und Materialien der Wüstenstadt berücksichtigt hat, sondern eine standardisierte Architektur unabhängig von klimatischen Besonderheiten eingesetzt wurde, wird deutlich, wie groß der Unterschied in der Lebensqualität ist.
Die Stadtplaner der Altstadt von Ghadames dagegen haben auf Klima und Wüstenlage Rücksicht genommen. Die Arbeit analysiert Punkt für Punkt, wie sich die Anpassung in Bauform und Material traditionell vollzieht: So wurden Gebäude mit geeigneten und vor Ort vorhandenen Baustoffen errichtet, die eine angemessene Klimatisierung erlauben. Eine spezielle Lehmbauweise passte sich den Bedingungen der Sahara mit glühender Hitze während des Tages und mit bitterer Kälte in der Nacht optimal an. Gebäude wurden mit sehr dicken Wänden errichtet und so konstruiert, dass durch winkelartige Aufbauten an den Außenwänden, Schatten auf die Oberflächen fallen und damit eine gewisse Feuchtigkeit entsteht, die Wärme absorbiert. Ausdehnung und Kontraktion der Baumaterialien konnten so kompensiert werden.
Diese Art der Lehmbauweise findet man bei verschiedenen Stämmen und Kulturen im weitläufigen Saharagebiet wie z.B. in Mali. Aber einzigartig in Ghadames ist, dass nicht einzelne Bauwerke, sondern eine komplette Stadt wie aus einem Guss gestaltet wurde. Nicht nur Häuser und Moscheen, sondern auch Straßen und Verbindungswege sind überdacht, so dass Ghadames bis auf einige wenige Lichthöfe als ein komplett gegen die Sonne nach oben abgeschirmtes Labyrinth bezeichnet werden kann. Manchmal wird Ghadames auch als unterirdische Stadt betitelt, was zwar gut den atmosphärischen Eindruck, der an einen Keller erinnert, beschreibt, aber sachlich falsch ist, da sie überirdisch erbaut ist. Die ganze Architektur ist ein Bollwerk gegen das sengende Sonnenlicht. Dabei geht es nicht darum, es vollständig abzuwehren, sondern es zu mildern.
Licht- und Schatten-Spiel
Dabei entstehen einzigartige Lichteffekte, die photographisch äußerst reizvoll sind. Dabei ist der Schatten wie allgemein bekannt ist, ein flüchtiges Phänomen, verändert sich je nach geographischer Lage und mit dem täglichen Lauf der Sonne. Die Bewegung der Schatten ist für die Entwicklung und Gestaltung von Räumen und Architektur von weitreichender Bedeutung. Am Baukörper zeigt sich das Wechselspiel von Körper und modellierendem Licht.
In der Stadt Ghadames gab es bis vor kurzem nur eine natürliche Beleuchtung, die über kleinere, verschließbare Öffnungen in der Decke erfolgte. Diese Straßenbeleuchtung hat so ihre eigene Ästhetik im Rhythmus von Licht und Schatten, dass in den Straßen selbst exzeptionelle Lichtkunstwerke sichtbar werden. Ähnliches gilt für die Wohnräume, bei denen das von oben einfallende Licht zusätzlich durch zahlreiche Spiegel vervielfacht und entsprechend den jeweiligen Bedürfnissen umgelenkt wurde.
Auch auf den Dächern zeigen sich architektonische Elemente, die nicht allein aus der Ästhetik erwachsen, sondern gleichzeitig praktischen Nutzen besitzen. Die Oberstadt war allein den Frauen vorbehalten, die sich hier unter sich frei bewegen konnten, aber selbstverständlich auch hier die Schattenplätze bevorzugten. Die Ecken der Häuser sind daher segelförmig ausgewölbt, so dass sich darunter bequem Schatten finden ließ. Sie verleihen der Stadt Ghadames ihre typische, von weitem sichtbare Zackenform.
Die Identität stiftende Rolle von Ghadames für Libyen
Es wird zunächst herausgearbeitet, welche Identität stiftende Rolle Ghadames für Libyen spielt und wie sich die für Ghadames typische eigene Kultur und Lebensform entwickeln konnte. Dabei werden die Bedingungen der Anpassung der Bewohner von Ghadames, geprägt durch verschiedene Einwanderungswellen, an Land und Umgebung, untersucht.
Die Arbeit bestätigt durch eine Analyse der aktuellen Photoszene, wobei sowohl traditionelle als auch moderne Photographien von Ghadames exemplarisch untersucht werden, die Vermutung, dass Ghadames Kristallisationspunkt des Umschwungs innerhalb der libyschen Photographie ist.
Ein weiteres Ziel der Arbeit war, anhand von eigenen künstlerischen Photos die Besonderheit von Licht und Schatten in der Stadt Ghadames aufzuzeigen. Dabei wird der Blick geöffnet für die außergewöhnlichen Perspektiven, die durch die Anwendung unterschiedlicher Phototechniken entstehen, und die dadurch hervorgerufenen künstlerischen Verfremdungseffekte.
Geschichte und Kultur von Ghadames
Dargestellt wird, wie sich diese Entwicklung im Laufe der Zeit verändert hat, wie Urbanisierung und Zivilisation der Menschen in der Vergangenheit auf die Gewohnheiten der Menschen in der Gegenwart eingewirkt haben und noch immer weiter einwirken. Dazu wird eine ausführliche Klimabeschreibung geliefert, sowie ein Abriss der verschiedenen historischen Epochen in Ghadames.
Rezeptionsgeschichte von Ghadames in der Photographie
Daran schließt sich ein Teil an, bei dem gezeigt werden konnte, dass Ghadames schon bei den Afrikaforschern im 19. Jh z.B. bei den Briten Gordon Leng und James Richardson sowie bei dem Deutsche Gerhard Rohlfs von besonderem Interesse war. Berichte bebilderte man zunächst mit Zeichnungen, wenig später dann mit Fotografien. Der erste Afrikareisende mit Fotodokumenten war Victor Langeau gegen Ende des 19.Jh. Daran schließt sich eine Betrachtung der Rezeption von Ghadames in der historischen Fotografie von Marcel und Roselyne Hongrois an, deren Photomaterial die Basis für die Betrachtung der zeitgenössischen Fotografie in Libyen bildet.
Dabei wird aufgezeigt welche Entwicklungsstufen die Photographie in Libyen durchlaufen hat. Repräsentative professionelle Auftragsarbeiten stehen am Anfang, dann folgt eine Phase stereotyper Familienphotos. Überschattes wird beides von der Propagandarolle der Fotografie, die nicht nur alle offiziellen Fotos bestimmt, sondern auch ein freies Photographieren aufgrund der strengen Zensur behindert. Daher entwickelt sich, trotz technischer Voraussetzungen erst verhältnismäßig spät die freie künstlerische Photographie. Da aber internationale Vorbilder in Form von Büchern, Seminaren, Ausstellungen oder andere Informationsquellen fehlen, gibt es kaum Anregungen und wenig eigene Themen.
Dieser Mangel an eigenen Ideen in Libyen ist der wichtigste Grund, diesbezüglich zu forschen und aktiv zu werden. „Licht und Schatten am Beispiel von Ghadames“ ist aber ein Thema, das auch für andere Photographen in Libyen hilfreich sein kann. Es eröffnet den Dialog und unterstützt die im Aufschwung befindliche Photographie in Libyen. Diese Arbeit ist als ein Beitrag zur wissenschaftlichen Forschung im Bereich Photographie gedacht, die in libyschen Bibliotheken und Archiven fehlt. Sie soll Anstoß geben, dass libysche Photographen in den internationalen Dialog einsteigen und immer wieder darüber nachdenken, was ist die Bedeutung und das Ziel der eigenen photographischen Arbeit ist.
Das Phänomen „Licht und Schatten“ in der Photographie und Malerei
Die Arbeit zeigt, dass das Spiel von Licht und Schatten auch in der eigenen Photoarbeit nicht nur rein ästhetisches Phänomen ist, sondern sich darin für Libyen so charakteristische Lichtverhältnisse spiegeln. Durch die geographische Lage ist die Sonneneinstrahlung intensiver, die Kontraste sind härter, die Schatten tiefer als in eher gemäßigten Zonen wie Europa oder Nordamerika. Die Sonne ist daher auch bedeutungsmäßig anders aufgeladen.
In der Malerei und Photographie spielen Licht und Schatten als Gestaltungsmittel eine bedeutende Rolle. Ein Überblick über einige der wichtigsten Vertreter in der Malerei und in der Photographie macht das im Rahmen der Arbeit deutlich. Dabei gilt es einen grundlegenden Unterschied zwischen den Gattungen zu beachten: Der Maler kann verschiedene Licht- und Farbeffekte für seine Bilder erfinden, der Photograph dagegen geht mit der Wirklichkeit um, er muss sich die Farben und die Beleuchtung suchen. Natürlich gibt es jetzt Photoshop, man kann damit manipulieren, aber entscheidend ist das gewünschte Resultat. Wenn man dokumentarisch arbeitet, dann muss man versuchen, das Bild so aufzunehmen, dass alles darauf ist, was man zeigen will. Und wenn man verblüffen will, etwa expressive Wirkungen haben will, muss man die entsprechenden Mittel einsetzen.
Mein eigener photographischer Ansatz
Mein photographischer Ansatz unterscheidet sich grundlegend von diesen Beispielen und entsteht aus einer Mittlerposition zwischen der europäischen und der arabischen Kultur. In meinen freien Arbeiten versuche ich mit einer nahezu abstrakten Bildauffassung, dem für Ghadames typischen Phänomen von Licht und Schatten näher zu kommen. Ghadames entstand als architektonische Gesamtkomposition, als gebauter Schattenfänger über einer Quelle mitten in der von der Sonne beherrschten Wüste. Schatten wird hier anders als in der europäischen Tradition als positiver, Leben spendender Zustand im Gegensatz zur sengenden und alles verbrennenden Sonne aufgefasst. Die Architektur der Stadt ist in idealer und einzigartiger Weise an die klimatischen Bedingungen und an den Lauf der Sonne angepasst. Diese gebaute Schattenskulptur ist mehr als Kulisse und Motiv für meine Photographie, denn in meiner Arbeit spiegeln sich Licht und Schatten auch als grundlegendes Thema der Photographie, bei der Hell- und Dunkelwerte das Lichtbild erschaffen. Photographie ist auf enge Weise mit dem Thema Licht und Schatten verbunden. Die Malerei versucht, die Dreidimensionalität mittels abgestufter Helligkeitswerte der einzelnen Farbtöne darzustellen und ist darin ziemlich frei, in der Photographie aber wird das Bild allein aus dem Licht geboren. Das Motiv wird aus Licht und Schatten moduliert. Wenn Licht auf einen dreidimensionalen Körper trifft, werden verschiedene Schattenformen wie Schlagschatten, Eigenschatten und Schattierungen erzeugt. Der Schatten spiegelt die Form eines Lebewesens oder Gegenstandes, der von Licht getroffen wird. Wo Schatten ist, ist auch Licht. Er ist zeitabhängig, vergänglich und wechselhaft.
Für mich als Photograph ist daher dieser Aspekt von Licht und Schatten in der Stadt Ghadames außerordentlich interessant. Im Arabischen steht der Begriff „Gamalyate“ für Schönheit. Das Hauptziel dieser Arbeit besteht für mich darin, die herausragende Schönheit und Ästhetik des Lichts über die physikalisch-technischen Gegebenheiten hinaus durch meine künstlerische Photographie erfahrbar werden zu lassen,
Kontrastausgleich - Aufnahmen mit HDR
Die Malerei, insbesondere die Freilichtmalerei der Impressionisten, hat schon immer mit dem Problem gekämpft, die unterschiedlichen Lichtqualitäten von Außen- und Innenraum in einem Bild zu integrieren. Das ist ihnen mit malerischen Mitteln einfacher gelungen, weil sie sich vom Gegenstand insofern entfernen konnten, als sie einen Kontrastausgleich innerhalb ihrer Malerei vornahmen. Fensteransichten waren ein beliebtes Motiv, wobei man sowohl das Drinnen als auch das Draußen erkennt. Das Problem des Kontrastausgleiches habe ich bei meiner photographischen Arbeit gelöst, indem ich ein spezielles digitales Verfahren angewendet habe. Die Technik heißt HDR. Diese Technik lässt Modulationen in den Schattenbereichen zu und gleichzeitig moderiert sie auch die intensiven Lichter. Deshalb komme ich hier in diesen Ansichten zu einem dem natürlichen Seheindruck recht nahen Abbild, so wie die Besucher die Gänge erleben, weil das menschliche Auge von Natur aus in der Lage ist, den Kontrastumfang in einer viel besseren Art und Weise auszugleichen als es das Filmmaterial oder auch das digitale Material kann.
Die erwähnte HDR Technik führt mich zu Bildern, die fast ein wenig wie Zebras aussehen.
Schwarz und Weiß wechseln sich ab, gefolgt von Graunuancen. Diese Farbigkeit ist für mich neben diesen anderen beiden Werkgruppen der Gänge sehr interessant, weil dadurch auch die Darstellung der Verschachtelung und auch der Perspektiven in meinen Bildern gelingt. Besonders deutlich wird das, wenn man Aufnahmen des gleichen Motivs zu verschiedenen Tageszeiten, einmal mit weichem, einmal mit hartem Licht aufgenommen, gegenüberstellt.
Structural vibration control of high-speed railway bridges using tuned mass dampers, semi-active tuned mass dampers, fluid viscous dampers and magnetorheological dampers to reduce resonant structural vibrations is studied. In this work, the addressed main issues include modeling of the dynamic interaction of the structures, optimization of the parameters of the dampers and comparison of their efficiency.
A new approach to optimize multiple tuned mass damper systems on an uncertain model is proposed based on the H-infinity optimization criteria and the DK iteration procedure with norm-bounded uncertainties in frequency domain. The parameters of tuned mass dampers are optimized directly and simultaneously on different modes contributing significantly to the multi-resonant peaks to explore the different possible combinations of parameters. The effectiveness of the present method is also evaluated through comparison with a previous method.
In the case of semi-active tuned mass dampers, an optimization algorithm is derived to control the magnetorheological damper in these semi-active damping systems. The use of the proposed algorithm can generate various combinations of control gains and state variables. This can lead to the improvement of the ability of MR dampers to track the desired control forces. An uncertain model to reduce detuning effects is also considered in this work.
Next, for fluid viscous dampers, in order to tune the optimal parameters of fluid viscous dampers to the vicinity of the exact values, analytical formulae which can include structural damping are developed based on the perturbation method. The proposed formulae can also be considered as an improvement of the previous analytical formulae, especially for bridge beams with large structural damping.
Finally, a new combination of magnetorheological dampers and a double-beam system to improve the performance of the primary structure vibration is proposed. An algorithm to control magnetorheological dampers in this system is developed by using standard linear matrix inequality techniques. Weight functions as a loop shaping procedure are also introduced in the feedback controllers to improve the tracking ability of magnetorheological damping forces. To this end, the effectiveness of magnetorheological dampers controlled by the proposed scheme, along with the effects of the uncertain and time-delay parameters on the models, are evaluated through numerical simulations.
Additionally, a comparison of the dampers based on their performance is also considered in this work.
Numerical simulation of physical phenomena, like electro-magnetics, structural and fluid mechanics is essential for the cost- and time-efficient development of mechanical products at high quality. It allows to investigate the behavior of a product or a system far before the first prototype of a product is manufactured.
This thesis addresses the simulation of contact mechanics. Mechanical contacts appear in nearly every product of mechanical engineering. Gearboxes, roller bearings, valves and pumps are only some examples. Simulating these systems not only for the maximal/minimal stresses and strains but for the stress-distribution in case of tribo-contacts is a challenging task from a numerical point of view.
Classical procedures like the Finite Element Method suffer from the nonsmooth representation of contact surfaces with discrete Lagrange elements. On the one hand, an error due to the approximate description of the surface is introduced. On the other hand it is difficult to attain a robust contact search because surface normals can not be described in a unique form at element edges.
This thesis introduces therefore a novel approach, the adaptive isogeometric contact formulation based on polynomial Splines over hierarchical T-meshes (PHT-Splines), for the approximate solution of the non-linear contact problem. It provides a more accurate, robust and efficient solution compared to conventional methods. During the development of this method the focus was laid on the solution of static contact problems without friction in 2D and 3D in which the structures undergo small deformations.
The mathematical description of the problem entails a system of partial differential equations and boundary conditions which model the linear elastic behaviour of continua. Additionally, it comprises side conditions, the Karush-Kuhn-Tuckerconditions, to prevent the contacting structures from non-physical penetration. The mathematical model must be transformed into its integral form for approximation of the solution. Employing a penalty method, contact constraints are incorporated by adding the resulting equations in weak form to the overall set of equations. For an efficient space discretization of the bulk and especially the contact boundary of the structures, the principle of Isogeometric Analysis (IGA) is applied. Isogeometric Finite Element Methods provide several advantages over conventional Finite Element discretization. Surface approximation with Non-Uniform Rational B-Splines (NURBS) allow a robust numerical solution of the contact problem with high accuracy in terms of an exact geometry description including the surface smoothness.
The numerical evaluation of the contact integral is challenging due to generally non-conforming meshes of the contacting structures. In this work the highly accurate Mortar Method is applied in the isogeometric setting for the evaluation of contact contributions. This leads to an algebraic system of equations that is linearized and solved in sequential steps. This procedure is known as the Newton Raphson Method. Based on numerical examples, the advantages of the isogeometric approach
with classical refinement strategies, like the p- and h-refinement, are shown and the influence of relevant algorithmic parameters on the approximate solution of the contact problem is verified. One drawback of the Spline approximations of stresses though is that they lack accuracy at the contact edge where the structures change their boundary from contact to no contact and where the solution features a kink. The approximation with smooth Spline functions yields numerical artefacts in the form of non-physical oscillations.
This property of the numerical solution is not only a drawback for the
simulation of e.g. tribological contacts, it also influences the convergence properties of iterative solution procedures negatively. Hence, the NURBS discretized geometries are transformed to Polynomial Splines over Hierarchical T-meshes (PHT-Splines), for the local refinement along contact edges to reduce the artefact of pressure oscillations. NURBS have a tensor product structure which does not allow to refine only certain parts of the geometrical domain while leaving other parts unchanged. Due to the Bézier Extraction, lying behind the transformation from NURBS to PHT-Splines, the connected mesh structure is broken up into separate elements. This allows an efficient local refinement along the contact edge.
Before single elements are refined in a hierarchical form with cross-insertion, existing basis functions must be modified or eliminated. This process of truncation assures local and global linear independence of the refined basis which is needed for a unique approximate solution. The contact boundary is a priori unknown. Local refinement along the contact edge, especially for 3D problems, is for this reason not straight forward. In this work the use of an a posteriori error estimation procedure, the Super Convergent Recovery Solution Based Error Estimation Scheme, together with the Dörfler Marking Method is suggested for the spatial search of the contact edge.
Numerical examples show that the developed method improves the quality of solutions along the contact edge significantly compared to NURBS based approximate solutions. Also, the error in maximum contact pressures, which correlates with the pressure artefacts, is minimized by the adaptive local refinement.
In a final step the practicability of the developed solution algorithm is verified by an industrial application: The highly loaded mechanical contact between roller and cam in the drive train of a high-pressure fuel pump is considered.
Im Rahmen dieser Arbeit wurden über verschiedene Herstellungsverfahren 48 Gelproben erzeugt und auf ihr Quellverhalten untersucht. Dabei wurde eine Wiederholbarkeit der Messungen mit anderen Bearbeitern überprüft und nachgewiesen. Es zeigt sich in den Quellversuchen, dass hohe Alkaligehalte in den Gelproben bei einer niedrigen Löslichkeit (durch geringe Mengen Calcium in der Probe hervorgerufen) hohe Quelldrücke erzeugen. Ein Einfluss des Natrium-Kalium-Verhältnisses (Alkaliverhältnis) auf das Quellverhalten der Gelproben ist nicht zu erkennen. Der Einfluss des Calciums im Gel zeichnet sich deutlich ab, ohne Calcium bauen die Proben keine Quelldrücke auf, bei zu hohen Calciumgehalten entstehen nicht quellfähige Alkali-Calcium-Silikat-Hydrate. Ein quellfähiger Bereich kann von ca. 5 % bis zu ca. 30 % Calciumanteil im Gel angegeben werden. Neben dem Einfluss des Calciumgehaltes auf das Quellverhalten der Gele ist auch ein Einfluss des Alkali-Silika-Verhältnisses in den Proben nachweisbar. Wird dieses Verhältnis in den Proben stark Richtung Kieselsäure verschoben, d. h. niedrige Alkalianteile im Gel, kommt es zu keinen Quellerscheinungen. Somit kann die Wirkung von AKR-vermeidenden Zusätzen (FA, Silika usw.) mit diesen Messungen bestätigt werden. Es kann gezeigt werden, dass die ermittelten Quelldrücke eines Alkalikiesel-Gels ein Gesteinskorn oder/und die umgebende Matrix zerstören können. Aus diesen oben genannten Erkenntnissen wird ein Bereich einer quellfähigen Zusammensetzung eines Gels in einem Dreistoffdiagramm angegeben und es können folgende Schlussfolgerungen gezogen werden: •Ein Quelldruck kann in einem AK-Gel nur bei einer bestimmten Menge an eingebautem Calcium aufgebaut werden. •Diese Quelldrücke können deutlich Werte über 10 N/mm² erreichen. •Die im Beton verwendeten Gesteinskörnungen und auch die sie umschließende Mörtelmatrix können mit Quelldrücken in den hier bestimmten Größenordnungen zerstört werden. •Die bekannten Modelle zur Alkali-Kieselsäure-Reaktion müssen um den Einbau des Calciums in ein entstandenes AK-Gel erweitert werden.
The objective of this thesis was to understand the 20th-century history of informal urbanisation in Europe and its origins in Madrid and Paris. The concept of informal urbanisation was employed to refer to the process of developing shacks and precarious single-family housing areas that were not planned by the public powers and were considered to be substandard because of their below-average materials and social characteristics. Our main hypothesis was that despite being a phenomenon with ancient roots, informal urbanisation emerged as a public problem and was subsequently prohibited in connection with another historical process occurred: the birth of contemporary urban planning. Therefore, its transformation into a deviant and illegal urban growth mechanism would have been a pan-European process occurring at the same pace that urban planning developed during the first decades of the 20th century.
Analysing the 20th-century history of informal urbanisation in Europe was an ambitious task that required using a large number of sources. To contend with this issue, this thesis combined two main methods: historiographical research about informal urbanisation in Europe and archival research of two case studies, Madrid and Paris, to make the account more precise by analysing primary sources of the subject.
Our research of these informal areas, which were produced mainly through poor private allotments and housing developed on land squats, revealed two key moments of explosive growth across Europe: the 1920s and 1960s. The near disappearance of informal urbanisation throughout the continent seemed to be a consequence not of the historical development of urban planning—which was commonly transgressed and bypassed—but of the exacerbation of global economic inequalities, permitting the development of a geography of privilege in Europe.
Concerning the cases of Paris and Madrid, the origins of informal urbanisation—that is, the moment the issue started to be problematised—seemed to occur in the second half of the 19th century, when a number of hygienic norms and surveillance devices began to control housing characteristics. From that moment onwards, informal urbanisation areas formed peripheral belts in both cities. This growth became the object of an illegalisation process of which we have identified three phases: (i) the unregulated development of the phenomenon during the second half of the 20th century, (ii) the institutional production of “exception regulations” to permit a controlled development of substandard housing in the peripheral fringes of both cities, and (iii) the synchronic prohibition of informal urbanisation in the 1920s and its illegal reproduction.
Die Verbreitung mobiler Smartphones und besonders deren allgegenwärtige Lokalisierungstechnologien verändern das Navigationsverhalten im Raum nachhaltig. Parallel zur schnell voranschreitenden Entwicklung alltäglicher Geräte, die mitgeführt werden, setzt der Übergang der bereits länger dauernden Entwicklung von Virtual-Reality-Technik in eine erweiterte und augmentierte Mixed Reality ein. In diesem Spannungsfeld untersucht die vorliegende Arbeit, inwieweit richtungsgebundene und binaural wiedergegebene Stereofonie die menschliche Bewegung im Raum beeinflussen kann und versucht zu erörtern, welche Potenziale in der Wiederentdeckung einer relativ lange bekannten Technik liegen. Der Autor hat im Rahmen dieser Arbeit eine binaurale mobile Applikation für richtungsgebundene Stereofonie entwickelt, mit der virtuelle bewegte oder statische Audio-Hotspots im Raum platziert werden können. So kann links, rechts oder 30 Meter vor einer Person ein virtueller oder tatsächlicher Klang im Raum verortet sein. Durch die in Echtzeit berechnete binaurale Wiedergabe der Klangquellen mit einem Stereo-Kopfhörer können diese räumlich verorteten Klänge mit zwei Ohren dreidimensional wahrgenommen werden, ähnlich dem räumlichen Sehen mit zwei Augen. Durch den Einsatz mehrerer lokalisierter Klangquellen als Soundscape entsteht eine augmentierte auditive Realität, die die physische Realität erweitert. Die Position und Navigation des Nutzers wird durch binaurale Lautstärkenmodulation (die Lautstärke nimmt bei abnehmender Distanz zur Quelle zu) und Stereopanning mit Laufzeitmodulation (die Richtung wird über ein Stereosignal auf beiden Ohren räumlich links-rechts-vorne verortet) interaktiv und kybernetisch beeinflusst. Die Nutzer navigieren — durch ihr Interesse an den hörbaren virtuellen Klangquellen geleitet — durch einen dynamisch erzeugten, dreidimensionalen akustischen Raum, der gleichzeitig ein virtueller und kybernetischer Raum ist, da die Repräsentation der Klänge an die Bewegung und Ausrichtung der Nutzer im Raum angepasst wird. Diese Arbeit untersucht, ob die Bewegung von Menschen durch (virtuelle) Klänge beeinflusst werden kann und wie groß oder messbar dieser Einfluss ist. Dabei können nicht alle künstlerischen, architektonischen und philosophischen Fragen im Rahmen der vorliegenden Schrift erörtert werden, obwohl sie dennoch als raumtheoretische Fragestellung von Interesse sind. Hauptgegenstand der vorliegenden Arbeit liegt in der Erforschung, ob richtungsgebundene Stereofonie einen relevanten Beitrag zur menschlichen Navigation, hauptsächlich zu Fuß, in urbanen Gebieten — vorwiegend im Außenraum — leisten kann. Der erste Teil gliedert sich in »Raum und Klang«, es werden raumtheoretische Überlegungen zur menschlichen Bewegung im Raum, Raumvorstellungen, räumliche Klänge und Klangwahrnehmung sowie die Entwicklung stereofoner Apparaturen und Aspekte der Augmented Audio Reality besprochen. Im zweiten Teil werden drei Demonstratoren als Anwendungsszenarien und drei Evaluierungen im Außenraum vorgestellt. Die Tests untersuchen, ob sich das Verfahren zur Navigation für Fußgänger eignet und inwieweit eine Einflussnahme auf das Bewegungsverhalten von Nutzern getroffen werden kann. Die Auswertungen der Tests zeigen, dass sich stereofone Klänge grundsätzlich als Navigationssystem eignen, da eine große Mehrzahl der Teilnehmer die akustisch markierten Ziele leicht gefunden hat. Ebenso zeigt sich ein klarer Einfluss auf die Bewegungsmuster, allerdings ist dieser abhängig von individuellen Interessen und Vorlieben. Abschließend werden die Ergebnisse der Untersuchungen im Kontext der vorgestellten Theorien diskutiert und die Potenziale stereofoner Anwendungen in einem Ausblick behandelt. Bei der Gestaltung, Erzeugung und Anwendung mobiler Systeme sind unterschiedliche mentale und räumliche Modelle und Vorstellungen der Entwickler und Anwender zu beachten. Da eine umfassende transdisziplinäre Betrachtung klare Begrifflichkeiten erfordert, werden Argumente für ein raumtheoretisches Vokabular diskutiert. Diese sind für einen gestalterischen Einsatz von richtungsgebundener Stereofonie — besonders im Kontext mobiler Navigation durch akustisch augmentierte Räume — äußerst relevant.
In der praktischen Anwendung werden den Calciumsulfatbindemitteln Kombinationen verschiedenster Zusätze beigegeben. Ein Verständnis für die Wirkungsweise der verschiedenen Zusätze wird folglich mit steigender Komplexität moderner Bindemittelrezepturen zunehmend wichtiger. In der vorliegenden Arbeit werden die Auswirkungen von Alkalisalzen und Fließmitteln auf die verschiedenen Phasen der Hydratation von Calciumsulfathalbhydrat systematisch analysiert und anschließend diskutiert.
Im ersten Teil der Arbeit wird gezeigt, dass Alkalisulfate und Alkalichloride die Hydratation von Calciumsulfathalbhydrat in unterschiedlicher Weise beeinflussen. Die Beschleunigungswirkung der gleichionigen Zusätzen K2SO4 und Na2SO4 wird sowohl durch eine verbesserte Keimbildung als auch durch einen Anstieg der Kristallwachstumsgeschwindigkeit verursacht. Während Alkalisulfate die Dihydratkeimbildung begünstigen, wird diese bei Zugabe von KCl und NaCl verzögert. Ein Beschleunigungseffekt setzt erst später in der Phase des Kristallwachstums ein. Die Wirkung der zugegebenen Ionen lässt sich entsprechend der Hofmeister-Serie einordnen.
Der zweite Teil der vorliegenden Arbeit präsentiert eine systematische Betrachtung der Wirkungsweise dreier Fließmittelgruppen im Calciumsulfatsystem (Polykondensat, Polycarboxylatether, Kammpolymer mit Phosphatgruppen). Untersuchungen zur Verflüssigungswirkung der Fließmittel zeigen, dass diese in der Reihenfolge Polykondensat < Polycarboxylatether < Kammpolymer mit Phosphatgruppen zunimmt. Eine direkte Korrelation zwischen Verflüssigungswirkung und Adsorptionsneigung besteht nicht. Neben den gewünschten Effekten weisen Fließmittel häufig auch eine Verzögerung der Hydratation des Bindemittels als unerwünschte Nebenwirkung auf. Ursächlich für diese fließmittelinduzierte Verzögerung ist eine Behinderung der Keimbildung und des Kristallwachstums. Untersuchungen zur Auflösung von Calciumsulfathalbhydrat zeigen eine Behinderung des Auflösungsprozesses in Anwesenheit der Fließmittel. Die Ergebnisse lassen eine partielle Belegung der Halbhydratoberflächen mit Fließmittelmolekülen vermuten. Die veränderte Morphologie der Dihydratkristalle verweist auf eine selektive Belegung der Dihydratoberflächen mit Fließmittelmolekülen.
Die wachsende Notwendigkeit zur Energieeinsparung hat in verschiedenen Ländern zur Entwicklung von Prognosemodellen zur Bestimmung des Energiebedarfs im Wohnungssektor geführt. Obwohl Prognosemodelle prinzipiell eine Lösung zur Bestimmung des Energiebedarfs und zur Beurteilung der Auswirkungen von zukünftigen Energieeinsparmaßnahmen darstellen, sind die bestehenden Modelle jedoch mit Unwägbarkeiten in der Modellierung und Mängeln bezüglich der verwendeten Daten und Methodik behaftet.
In dieser Arbeit werden die Übertragbarkeit, Genauigkeit und stochastische Unsicherheit von zwölf Prognosemodellen (MAED-2, FfE-Gebäudemodell, CDEM, REM, CREEM, ECCABS, REEPS, BREHOMES, LEAP, DECM, CHM, BSM) analysiert, wobei Deutschland als Fallbeispiel verwendet wird. Zur Verbesserung der Übertragbarkeit der bestehenden Modelle werden Anpassungen vorgeschlagen. Außerdem wird für jedes Modell eine Bestimmung der einflussreichsten Parameter auf den simulierten Endenergiebedarf mit Hilfe einer Sensitivitätsanalyse vorgenommen. Es konnte gezeigt werden, dass Modelle mit einem hohen Detaillierungsgrad nicht zwangsläufig genauere Ergebnisse für den Endenergiebedarf garantieren. Dennoch wurde festgestellt, dass Modelle mit einem niedrigen Detaillierungsgrad Ergebnisse mit größeren Unsicherheiten liefern als Modelle mit einem höheren Detaillierungsgrad. Es wurde weiterhin festgestellt, dass die einflussreichsten Parameter zur Bestimmung des Endenergiebedarfs im Wohnungssektor Innenraumtemperatur, Außentemperatur (Gradtagzahl), Bevölkerungsentwicklung und Anzahl der Gebäude/Wohnungen sind.
Auf der Grundlage der Erkenntnisse zur Bewertung bestehender Modelle und der Bestimmung der einflussreichsten Parameter wurde ein optimiertes Prognosemodell (Transferable Residential Energy Model, TREM) entwickelt. Mit dessen Hilfe wurde die Entwicklung des Endenergiebedarfs im deutschen Wohnungssektor sowie in anderen Ländern (Vereinigtes Königsreich und Chile) prognostiziert. Diese Ergebnisse wurden anschließend mit statistischen Daten verglichen. Das TREM-Modell bestimmt den Endenergiebedarf auf der Grundlage der wahrscheinlichsten Variationen der einflussreichsten Eingangsparameter mit Hilfe einer Monte-Carlo-Simulation. Im Gegensatz zu bestehenden Modellierungsansätzen liefert das Modell damit auch einen Bereich mit Wahrscheinlichkeitsbändern für den zukünftigen Endenergiebedarf. Die Ergebnisse des TREM-Modells zeigen, dass das Modell genauere Ergebnisse liefern kann als derzeitige Modelle mit einem Mittelwert der prozentualen Differenz niedriger als 5% und einem Korrelationskoeffizienten r höher als 0,35 und darüber hinaus dazu geeignet ist, ohne Anpassungen eine Prognose der Entwicklung des zukünftigen Endenergiebedarfs im Wohnungssektor für unterschiedliche Länder zu erstellen.
Ausgehend von den klassischen Variationsprinzipien der Mechanik werden kinematische und gemischte Extremalprinzipe abgeleitet, die zur Beschreibung geometrisch und physikalisch nichtlinearen Tragverhaltens geeignet sind. Ein Schwerpunkt der Arbeit besteht in der Anwendung der Prinzipe zur Analyse und Bemessung von Stahlbeton-, Spannbeton- und Verbundquerschnitten. Aus einem einheitlichen Berechnungsmodell wird eine Vielzahl praxisrelevanter Problemstellungen abgeleitet. Ein weiterer Schwerpunkt ist die Anwendung der kinematischen Extremalformulierung für die geometrisch und physikalisch nichtlineare Berechnung von Stabtragwerken.
Die in der Praxis häufig vorkommenden Rahmenecken werden zur Ermittlung ihrer Wölb- und Drehsteifigkeiten untersucht. Die Kontinui- tätsbedingungen dafür werden formuliert. Mit Finite- Schalenelementen werden Gesamthallenrahmen mit unterschiedlichen Abmessungen, Profilen, Dachneigungen, Stabilisierungen und Rahmeneck- formen modelliert. Dadurch werden die Auswirkungen und Einflüsse der Rahmeneckkonstruktion auf die Stabilität des Tragwerkes untersucht. Durch vergleichende Untersuchungen mit dem Ersatzstabverfahren nach der DIN 18800 werden für jede Rahmenecke realitätsnahe ßo- und ßz Werte vorgeschlagen.
Encapsulation-based self-healing concrete has received a lot of attention nowadays in civil engineering field. These capsules are embedded in the cementitious matrix during concrete mixing. When the cracks appear, the embedded capsules which are placed along the path of incoming crack are fractured and then release of healing agents in the vicinity of damage. The materials of capsules need to be designed in a way that they should be able to break with small deformation, so the internal fluid can be released to seal the crack. This study focuses on computational modeling of fracture in encapsulation-based selfhealing concrete. The numerical model of 2D and 3D with randomly packed aggreates and capsules have been developed to analyze fracture mechanism that plays a significant role in the fracture probability of capsules and consequently the self-healing process. The capsules are assumed to be made of Poly Methyl Methacrylate (PMMA) and the potential cracks are represented by pre-inserted cohesive elements with tension and shear softening laws along the element boundaries of the mortar matrix, aggregates, capsules, and at the interfaces between these phases. The effects of volume fraction, core-wall thickness ratio, and mismatch fracture properties of capsules on the load carrying capacity of self-healing concrete and fracture probability of the capsules are investigated. The output of this study will become valuable tool to assist not only the experimentalists but also the manufacturers in designing an appropriate capsule material for self-healing concrete.
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.
In the early 2000s the pre-Columbian, anthropologically produced black soil in the Amazon basin, „Terra Preta de Índio“, received greater scientific attention. Compared to the surrounding poor soils, this very fertile anthrosol contains significantly higher levels of microorganisms and nutrients. The reason for this was determined to be the likewise high levels of charred biomass. This stable carbon, now called biochar, has since been intensively examined as an option to improve soil and to store carbon.
Although the creation of Terra Preta was most likely based on a purposeful utilization of organic residues from households and gardens, biochar plays no role in the current recycling of bio-waste. However, the implementation of biochar could lead to many improvements. Results from agricultural research suggest that not only the yield capacity of soils can be increased but also the process performance of composting and biogas plants.
The latter is especially relevant since currently about 40% of all collected bio-waste in Germany is recycled in an energy-material cascade consisting of anaerobic digestion and composting. The use of biochar in this cascade could then sequentially increase biogas yields, reduce greenhouse gas emissions, and improve compost quality.
To realize the aforementioned advantages, the concept of biochar has to be integrated into the existing bio-waste cascade as practically as possible. This was done by the development of a theoretical scenario that allowed the analysis of energy and material flows to evaluate biochar’s recycling performance. Furthermore, the legal and economic framework were examined to assess the feasibility of the extended cascade and to suggest possible adjustments to the frameworks.
Die Thesis untersucht am Beispiel von Farb-Licht Forschungen (Interaktion dynamischen Lichts mit farbigen Oberflächen) und der Designforschungen am Potenzial der organisch Licht emittierenden Dioden (OLED) integrierende Aspekte des Designs im Kontext dieser Technologien. Des weiteren reflektiert die Thesis am Beispiel dieser Designforschungen das Verhältnis von Designforschung und Innovation für die gestalterischen Disziplinen.
Keine Ahnung? Landschaft!
(2018)
... soll auf den folgenden Seiten eine dritte Richtung angedeutet und vorgezeichnet werden, die ebenso Interesse am Erkenntnisgewinn durch das Thema Landschaft bekundet, dies hingegen aus der Umkehrung heraus erreichen will. Dreht man den Richtungspfeil, stehen wir ihr, der Landschaft, gegenüber. Vom Modus des Aktiven geraten wir in die Passivität. Damit wird eine Korrektur der Fragestellung möglich. Es entsteht eine Perspektive, die die Überlegungen zulässt: Was die Landschaft eigentlich mit uns macht?, welchen Horizont sie uns eröffnet und entstehen lässt, welche Bedeutung und welche Qualität wir dem ›Landschaftlichen‹ zuschreiben können, worin die Notwendigkeit ihres Erhalts und der Nutzen für die gegenwärtige Gesellschaft bestehen kann.
The capitalization of ‘certified’ sustainable building sector will be investigated over the power theory of value approach of Jonathan Nitzan and Shimshon Bichler. The study will be initiated by questioning why the environment problems are one of the first items on the agenda and by sharing the ideas of scholars who approaches the subject skeptically, because the predominant literature underlying the necessity and prominence of the topic is already well-known and adapted by the majority. Over the theory developed by Nitzan and Bichler, the concepts of capitalization, strategic sabotage, power, legitimacy, and obedience will be discussed. The hypothesis of “the absentee owners of the construction sector, holding the whip hand and capitalizing the ecology, control the growth and the creativity of green building production and make it carbon-dependent, in order to increase their profit margin” will be questioned. To strengthen the arguments in the hypothesis, the factors, the institutional arrangements, value measurement methods, which affect directly the net present value, will be investigated both in corporation and in building scale in detail, because net present value/ capitalization is asserted as the most important criteria by Nitzan and Bichler to make the investment decisions in the capitalist economic system. To trace the implications of power and the strategic sabotage that power caused, as the empirical dimension of this dissertation, an interface exploring the correlational ties between the climate responsive architecture and the ever changing political, economical, and social contexts and building economics praxis by decades will be developed and the expert interviews will be conducted with the design teams and the appraisers.
The automotive industry requires realistic virtual reality applications more than other domains to increase the efficiency of product development. Currently, the visual quality of virtual invironments resembles reality, but interaction within these environments is usually far from what is known in everyday life. Several realistic research approaches exist, however they are still not all-encompassing enough to be usable in industrial processes. This thesis realizes lifelike direct multi-hand and multi-finger interaction with arbitrary objects, and proposes algorithmic and technical improvements that also approach lifelike usability. In addition, the thesis proposes methods to measure the effectiveness and usability of such interaction techniques as well as discusses different types of grasping feedback that support the user during interaction. Realistic and reliable interaction is reached through the combination of robust grasping heuristics and plausible pseudophysical object reactions. The easy-to-compute grasping rules use the objects’ surface normals, and mimic human grasping behavior. The novel concept of Normal Proxies increases grasping stability and diminishes challenges induced by adverse normals. The intricate act of picking-up thin and tiny objects remains challenging for some users. These cases are further supported by the consideration of finger pinches, which are measured with a specialized finger tracking device. With regard to typical object constraints, realistic object motion is geometrically calculated as a plausible reaction on user input. The resulting direct finger-based
interaction technique enables realistic and intuitive manipulation of arbitrary objects. The thesis proposes two methods that prove and compare effectiveness and usability. An expert review indicates that experienced users quickly familiarize themselves with the technique. A quantitative and qualitative user study shows that direct finger-based interaction is preferred over indirect interaction in the context of functional car assessments. While controller-based interaction is more robust, the direct finger-based interaction provides greater realism, and becomes nearly as reliable when the pinch-sensitive mechanism is used. At present, the haptic channel is not used in industrial virtual reality applications. That is why it can be used for grasping feedback which improves the users’ understanding of the grasping situation. This thesis realizes a novel pressure-based tactile feedback at the fingertips. As an alternative, vibro-tactile feedback at the same location is realized as well as visual feedback by the coloring of grasp-involved finger segments. The feedback approaches are also compared within the user study, which reveals that grasping feedback is a requirement to judge grasp status and that tactile feedback improves interaction independent of the used display system. The considerably stronger vibrational tactile feedback can quickly become annoying during interaction. The interaction improvements and hardware enhancements make it possible to interact with virtual objects in a realistic and reliable manner. By addressing realism and reliability, this thesis paves the way for the virtual evaluation of human-object interaction, which is necessary for a broader application of virtual environments in the automotive industry and other domains.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
This study deals with design for AI/ML systems, more precisely in the industrial AI context based on case studies from the factory automation field. It therefore touches on core concepts from Human-Centered-Design (HCD), User Experience (UX) and Human Computer Interaction (HCI) on one hand, as well as concepts from Artificial Intelligence (AI), Machine Learning (ML) and the impact of technology on the other. The case studies the research is based on are within the industrial AI domain. However, the final outcomes, the findings, solutions, artifacts and so forth, should be transferable to a wider spectrum of domains. The study’s aim is to examine the role of designers in the age of AI and the factors which are relevant, based on the hypothesis that current AI/ML development lacks the human perspective, which means that there are pitfalls and challenges that design can help resolve. The initial literature review revealed that AI/ML are perceived as a new design material that calls for a new design paradigm. Additional research based on qualitative case study research was conducted to gain an overview of the relevant issues and challenges. From this, 17 themes emerged, which together with explorative expert interviews and a structured literature review, were further analyzed to produce the relevant HCD, UX and HCI themes. It became clear that designers need new processes, methods, and tools in the age of AI/ML in combination with not only design, but also data science and business expertise, which is why the proposed solution in this PhD features process modules for design, data science and business collaboration. There are seven process modules and their related activities and dependencies that serve as guidelines for practitioners who want to design intelligence. A unified framework for collecting use case exemplars was created, based on a workshop with different practitioners and researchers from the area of AI/ML to support and enrich the process modules with concrete projects examples.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Due to the significant number of immigrants in Europe, especially Germany, integration is an ongoing subject of debate. Since the 1970s, with the emergence of the discussions on ‘place,’ it has also been realized that the immigrant experience is associated with location. Nevertheless, due to the challenges in capturing the place and migration relevance, there is a gap in understanding the role of the migrant’s geography of experiences and its outcomes (Phillips & Robinson, 2015).
This research aims to investigate the extent to which both the process of objective integration and the socio-spatial practices of high-skilled Iranian immigrants in Berlin outline and influence their sense of belonging to Berlin as the new “home.” The embedded mixed-method design had employed for this study. The quantitative analysis through Pearson’s correlation technique measured the strength of the association between Iranians’ settlement distribution and the characteristics of Berlins’ districts. The quantitative analysis provides contextual data to get a greater level of understanding of the case study’s interaction with place. The units of place intend to demonstrate the case study’s presence and possible interaction with places around their settlement location that relatively shapes their perception. The qualitative analysis comprises ethnographic fieldwork and semi-structured in-depth interviews with a homogeneous sample of Iranian immigrants in Berlin that provide data on individual and ethnic behaviors and trajectories and analyze the complex interactions between the immigrant’s experience and the role of place.
This research uncovers that Iranian highly skilled immigrants are successful in integrating objectively; However, in regards to their state of belonging, it illustrated the following: The role of socio-ethnic culture of the case study in denotation of home and belonging; Iranian high-skilled immigrants’ efforts towards reaching a level of upward mobility overshadow their attempt to shape social and spatial interaction with Berliners and Berlin itself, which manifests both in their perception and use of urban space; and finally, the identification practice and the boundary-making as an act of reassurance and self-protection against the generalization of adjacent nationalities, demonstrated in the intersection of demographical settlement distribution of Iranians in Berlin and the ethnic diversity, impact the sense of belonging and place-making.
Bei der Produktion von Betonsteinen mit vollautomatischen Steinformmaschinen ist das Füllen der Form mit Betongemenge die erste Phase des Formgebungs- und Verdichtungsprozesses. Trotz langjähriger praktischer Erfahrungen mit Steinformmaschinen wird der Formgebungs- und Verdichtungsprozess nicht ausreichend stabil beherrscht. Im industriellen Routinebetrieb erweist sich insbesondere die Realisierung einer gleichmäßigen Füllung als das primäre Problem. Die in dieser Phase entstehenden Defizite beeinflussen direkt die Qualität der zu erzeugenden Betonsteine. Eine Kompensation dieser Mängel ist mit den nachfolgenden Prozessphasen nicht mehr möglich. Die Zielstellung der vorliegenden Arbeit ist es, ausgehend von einer systematischen Analyse des Formgebungs- und Verdichtungsprozesses im Allgemeinen und der Analyse des Füllvorganges im Besonderen, die tatsächlich an Steinformmaschinen erreichbare Füllungsgüte zu ermitteln, Einflüsse auf die erreichte Füllungsgüte und deren Wechsel-beziehungen zu untersuchen sowie ein Modell zur Beschreibung und Simulation des Füllvorganges zu entwickeln und zu verifizieren. Als wesentliche Voraussetzung für eine systematische Analyse der Füllstufe(n), wird eine Methode zur Berechnung und Bewertung der Füllungsgüte entwickelt. Grundlage der Methode bildet dabei die systematische Erfassung der Steinmassen mi von vollständigen, aufeinander folgend gefertigten Einheiten. Entsprechend der Lage innerhalb der Form und der Folge der gefertigten Einheiten werden die Massen als quantitatives stetiges Merkmal der zu untersuchenden Grundgesamtheit in eine Urliste editiert und für die weitere Auswertung genutzt. Unter Anwendung der entwickelten Methode zur Berechnung und Bewertung der Füllungsgüte wird das tatsächlich im industriellen Routinebetrieb erreichbare Niveau analysiert. Dafür werden in einem erstmals durchgeführten, umfangreichen Feldversuch an elf Steinformmaschinen in Deutschland und der Schweiz die erreichten Füllungsgüten erfasst, die Prozessabläufe dokumentiert und die Wechselbeziehungen zwischen den eingefüllten Massen mi und den Einflussgrößen mit Hilfe der Varianzanalyse nach Variationsursache untersucht. Darüber hinaus werden ausgewählte Festbeton-eigenschaften der Proben bestimmt und deren Korrelation zu den jeweils erreichten Massen mi mit Hilfe der empirischen Regression analysiert. Basierend auf den systematischen Prozessbeobachtungen im industriellen Routinebetrieb wird unter Berücksichtigung der Füllwagenkinematik, des Gemengefüllstandes im Füllwagen und der sukzessiven Übergabe diskreter Massen in die Formzellen ein phänomenologisches Modell zur Beschreibung der ersten Füllstufe entwickelt. Das Bewegungsverhalten des Füllwagens und das Fließverhalten des zu verarbeitenden Betongemenges werden dabei zunächst stark vereinfacht dargestellt. Unter Berücksichtigung der zeilenabhängigen Überdeckungszeit und des Füllstandes im Füllwagen werden koordinatenabhängige Druckprofile im Füllraum, so genannte Zellendruck-Zeit-Funktionen, entwickelt. Als Arbeitshypothese wird formuliert, dass mit diesen Funktionen die unterschiedlichen Bedingungen während des Füllvorgangs im Prozessraum beschrieben werden können und diese Funktionen darüber hinaus mit den im Ergebnis des Vorgangs eingefüllten Massen mi korrelieren. Zur numerischen Nachbildung der ersten Füllstufe bei der Betonsteinherstellung wird die auf der Diskrete-Elemente-Methode basierenden Simulationssoftware Particle Flow Code in 3 Dimensions genutzt. Damit wird es möglich, den Verlauf des Füllprozesses und die sich im Prozessraum ausbildenden Fließprofile durch eine realitätsnahe Computeranimation detailliert und gut einsehbar darzustellen. An Hand der numerisch erzeugten Füllungsgüten wird eine Gegenüberstellung mit den empirischen Ergebnissen möglich. Gleichzeitig erfolgt die Berechnung der Druck-Zeit-Funktionen am Boden aller Formzellen, um kausale Wechselbeziehungen zwischen der Füllaufgabe, der Füllausrüstung und dem Prozessverlauf bzw. dem Prozessergebnis aufzeigen zu können. Zur Verifizierung des der Simulation zu Grunde gelegten Gesamtmodells wird das numerische Experiment an einer speziellen Versuchseinrichtung nachgestellt. Um die Aufnahme der Zellendruck-Zeit-Funktionen während des Füllens vornehmen zu können, ohne dadurch den Füllvorgang zu stören, wird ein eigens für den Verifizierungsversuch entwickelter Drucksensor genutzt. Auf allen Abstraktionsebenen werden die Ergebnisse mit den für den industriellen Routinebetrieb entwickelten Methoden ausgewertet und gegenübergestellt. Mit Hilfe von Varianzanalysen wird die Einflussstärke verschiedener Parameter verglichen. Zur Überprüfung der Arbeitshypothese werden die Zellendruck-Zeit-Funktionen während der numerischen und der realen Experimente aufgenommen und die Korrelationen zu den eingefüllten Massen mi überprüft.
Phase Field Modeling for Fracture with Applications to Homogeneous and Heterogeneous Materials
(2017)
The thesis presents an implementation including different applications of a variational-based approach for gradient type standard dissipative solids. Phase field model for brittle fracture is an application of the variational-based framework for gradient type solids. This model allows the prediction of different crack topologies and states. Of significant concern is the application of theoretical and numerical formulation of the phase field modeling into the commercial finite element software Abaqus in 2D and 3D. The fully coupled incremental variational formulation of phase field method is implemented by using the UEL and UMAT subroutines of Abaqus. The phase field method
considerably reduces the implementation complexity of fracture problems as it removes the need for numerical tracking of discontinuities in the displacement field that are characteristic of discrete crack methods. This is accomplished by replacing the sharp discontinuities with a scalar damage phase field representing the diffuse crack topology wherein the amount of diffusion is controlled by a regularization parameter. The nonlinear coupled system consisting of the linear momentum equation and a diffusion type equation governing the phase field evolution is solved simultaneously via a Newton-
Raphson approach. Post-processing of simulation results to be used as visualization
module is performed via an additional UMAT subroutine implemented in the standard Abaqus viewer.
In the same context, we propose a simple yet effective algorithm to initiate and propagate cracks in 2D geometries which is independent of both particular constitutive laws and specific element technology and dimension. It consists of a localization limiter in the form of the screened Poisson equation with, optionally, local mesh refinement. A staggered scheme for standard equilibrium and screened Cauchy equations is used. The remeshing part of the algorithm consists of a sequence of mesh subdivision and element erosion steps. Element subdivision is based on edge split operations using a
given constitutive quantity (either damage or void fraction). Mesh smoothing makes use of edge contraction as function of a given constitutive quantity such as the principal stress or void fraction. To assess the robustness and accuracy of this algorithm, we use both quasi-brittle benchmarks and ductile tests.
Furthermore, we introduce a computational approach regarding mechanical loading in microscale on an inelastically deforming composite material. The nanocomposites material of fully exfoliated clay/epoxy is shaped to predict macroscopic elastic and fracture related material parameters based on their fine–scale features. Two different configurations of polymer nanocomposites material (PNCs) have been studied. These configurations are fully bonded PNCs and PNCs with an interphase zone formation between the matrix and the clay reinforcement. The representative volume element of PNCs specimens with different clay weight contents, different aspect ratios, and different
interphase zone thicknesses are generated by adopting Python scripting. Different constitutive models are employed for the matrix, the clay platelets, and the interphase zones. The brittle fracture behavior of the epoxy matrix and the interphase zones material are modeled using the phase field approach, whereas the stiff silicate clay platelets of the composite are designated as a linear elastic material. The comprehensive study investigates the elastic and fracture behavior of PNCs composites, in addition to predict Young’s modulus, tensile strength, fracture toughness, surface energy dissipation, and cracks surface area in the composite for different material parameters, geometry, and interphase zones properties and thicknesses.
This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith.
The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers.
The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications.
The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study.
Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Ziel der Arbeit ist die Ermittlung des Einflußes Otto Hetzers auf die Entwicklung des Holzleimbaus. Dabei werden vor allem die ersten Holzleim-Bauwerke in der Zeit bis 1918 umfassend dargestellt. Die Recherchen stützen sich hauptsächlich auf die damaligen Veröffentlichungen, wobei die noch bestehenden Gebäude vom Verfasser vor Ort untersucht und dokumentiert wurden. Karl Friedrich Otto Hetzer entwickelte den Holzleimbau unter Verwendung von Kaseinleim zu industrieller Reife. Nach der Entwicklung von Dachkonsruktionen und Typenhallen gelang auf der Weltausstellung 1910 in Brüssel der technische Durchbruch mit der Ausstellungshalle der Deutschen Reichsbahn, welche mit 43 Meter Spannweite Maßstäbe setze. Nachfolgende Bogenbinderhallen vergrößerten immer mehr die Spannweiten bis über 100m. Als Weiterentwicklung sind vor allem die zeltartigen Konstruktionen zu nennen, die eine ideale Tragwirkung als zugbeanspruchte Konstruktion ermöglichen.
In dieser Untersuchung wird eine Geschichte von Problemen der Gleichzeitigkeit zwischen Sehen und Hören, beziehungsweise der Synchronität von Bild und Ton, bis zur Entstehung des Tonfilms rekonstruiert. Dabei werden Linien gezogen zwischen diskursiven Konfigurationen und medialen Anordnungen, in denen das Verhältnis von Sehen und Hören oder Bild und Ton als zeitliches erscheint – in denen Sehen und Hören, Bild und Ton zwischen Mannigfaltigkeit und Einheit verschmelzen, auseinanderfallen, interagieren, redundant oder spezifisch werden, einander ergänzen, dominieren, verfehlen verdrängen, aufspalten…
Tonfilm ist in der Kinogeschichte eben nicht nur eine Ergänzung. Vielmehr ähnelt er dem Auftritt eines Gespensts, das das Wissen und die Techniken der Trennung der Sinne schon länger, vielleicht schon immer begleitet hatte. Das Auftreten des Tonfilms ist auch überhaupt früher Anlass eines weitreichenden Diskurses darüber, was Audiovision eigentlich sein könnte und sollte. Noch allgemeiner könnte auch davon gesprochen werden, dass Tonfilm eins der ersten großen Projekte der Konvergenz technischer Medien ist, die heute – besonders angesichts des Computers – als entscheidender Aspekt von Mediengeschichte erscheint.
Die Linien der Probleme von Gleichzeitigkeit/Ungleichzeitigkeit an den Schnittstellen von Wissen, Technik und Ästhetik werden insbesondere durch drei Felder hindurch nachgezeichnet:
1) Die Geschichte von Intermodalität in Bezug auf die Frage nach Gleichzeitigkeit und Ungleichzeitigkeit als Problem und Gegenstand von Wissenschaft seit dem 19. Jahrhundert, vornehmlich in zwei Gebieten: Als Fehlerquelle im astronomischen Observatorium bei der Messung, Feststellung und Vereinheitlichung von Raum und Zeit, die auf individuelle Abweichungen Intermodaler Wahrnehmung verweist und als Problem der „persönlichen Gleichung“ weit über die Astronomie hinaus Karriere macht. Als heiße Zone wahrnehmungspsychologischer Experimente und ihrer Apparate seit der Mitte des 19. Jahrhunderts, die mit dem Konzept der „Komplikation“ Fragen nach einer Synthese der Sinneswahrnehmungen und damit letztlich nach der Selbstgegenwart des Menschen stellt.
2) Eine Technikgeschichte des Problems auditive und visuelle Zeitmedien – wie Phonograph und Film – zu koppeln, zu synchronisieren. Darin eskalieren zwei zeitkritische Relationen: Einerseits zwischen diskreter, intermittierender Bewegung des Films und stetiger, kontinuierlicher Bewegung des Phonographen, andererseits in Bezug darauf, an welcher Stelle – wo und wann – audiovisuelle Gegenwart des Kinos ensteht; oder auch verfehlt wird.
3) Eine Geschichte von Filmtheorie und -ästhetik, in der sich mit der Durchsetzung des Tonfilms um 1930 die Frage stellt, was dieses neue Medium sei und was damit zu tun. Diese Verhandlungen spannen sich zwischen dem formulierten Ziel einer spezifischen Illusion oder Präsenz von Tonfilm durch Synchronität auf der einen Seite und der sich aus dem Verdacht des Betrugs durch Synchronität ergebenden Forderung nach „Asynchronismus“ als kritischer Methode auf der anderen Seite auf.
Ausgehend von der These, dass im 19. Jahrhundert die Sinne aufgeteilt werden, dann wird in diesen Anordnungen an irgendeiner Stelle Heterogenes gleichzeitig passieren. An welcher Stelle? Und was bedeuten diese (Un-)Gleichzeitigkeiten? Was dabei - sehr allgemein gesprochen - auf dem Spiel steht, sind Möglichkeiten einer audiovisuell geteilten – getrennten oder gemeinsamen - Welt und Gegenwart.
The reduction of the cement clinker content is an important prerequisite for the improvement of the CO2-footprint of concrete. Nevertheless, the durability of such concretes must be sufficient to guarantee a satisfactory service life of structures. Salt frost scaling resistance is a critical factor in this regard, as it is often diminished at increased clinker substitution rates. Furthermore, only insufficient long-term experience for such concretes exists. A high salt frost scaling resistance thus cannot be achieved by applying only descriptive criteria, such as the concrete composition. It is therefore to be expected, that in the long term a performance based service life prediction will replace the descriptive concept.
To achieve the important goal of clinker reduction for concretes also in cold and temperate climates it is important to understand the underlying mechanisms for salt frost scaling. However, conflicting damage theories dominate the current State of the Art. It was consequently derived as the goal of this thesis to evaluate existing damage theories and to examine them experimentally. It was found that only two theories have the potential to describe the salt frost attack satisfactorily – the glue spall theory and the cryogenic suction theory.
The glue spall theory attributes the surface scaling to the interaction of an external ice layer with the concrete surface. Only when moderate amounts of deicing salt are present in the test solution the resulting mechanical properties of the ice can cause scaling. However, the results in this thesis indicate that severe scaling also occurs at deicing salt levels, at which the ice is much too soft to damage concrete. Thus, the inability of the glue spall theory to account for all aspects of salt frost scaling was shown.
The cryogenic suction theory is based on the eutectic behavior of salt solutions, which consist of two phases – water ice and liquid brine – between the freezing point and the eutectic temperature. The liquid brine acts as an additional moisture reservoir, which facilitates the growth of ice lenses in the surface layer of the concrete. The experiments in this thesis confirmed, that the ice formation in hardened cement paste increases due to the suction of brine at sub-zero temperatures. The extent of additional ice formation was influenced mainly by the porosity and by the chloride binding capacity of the hardened cement paste.
Consequently, the cryogenic suction theory plausibly describes the actual generation of scaling, but it has to be expanded by some crucial aspects to represent the salt frost scaling attack completely. The most important aspect is the intensive saturation process, which is ascribed to the so-called micro ice lens pump. Therefore a combined damage theory was proposed, which considers multiple saturation processes. Important aspects of this combined theory were confirmed experimentally.
As a result, the combined damage theory constitutes a good basis to understand the salt frost scaling attack on concrete on a fundamental level. Furthermore, a new approach was identified, to account for the reduced salt frost scaling resistance of concretes with reduced clinker content.
Für die Verminderung der betonspezifischen CO2-Emissionen wird ein verstärkter Einsatz klinkerreduzierter Zemente bzw. Betone angestrebt. Die Reduzierung des Klinkergehaltes darf jedoch nicht zu einer lebensdauerrelevanten Beeinträchtigung der Betondauerhaftigkeit führen. In diesem Zusammenhang stellt der Frost-Tausalz-Widerstand eine kritische Größe dar, da er bei höheren Klinkersubstitutionsraten häufig negativ beeinflusst wird. Erschwerend kommt hinzu, dass für klinkerreduzierte Betone nur ein unzureichender Erfahrungsschatz vorliegt. Ein hoher Frost-Tausalz-Widerstand kann daher nicht ausschließlich anhand deskriptiver Vorgaben gewährleistet werden. Demgemäß sollte perspektivisch auch für frost-tausalzbeanspruchte Bauteile eine performancebasierte Lebensdauerbetrachtung erfolgen.
Eine unverzichtbare Grundlage für das Erreichen dieser Ziele ist ein Verständnis für die Schadensvorgänge beim Frost-Tausalz-Angriff. Der Forschungsstand ist jedoch geprägt von widersprüchlichen Schadenstheorien. Somit wurde als Zielstellung für diese Arbeit abgeleitet, die existierenden Schadenstheorien unter Berücksichtigung des aktuellen Wissensstandes zu bewerten und mit eigenen Untersuchungen zu prüfen und einzuordnen. Die Sichtung des Forschungsstandes zeigte, dass nur zwei Theorien das Potential haben, den Frost-Tausalz-Angriff umfassend abzubilden – die Glue Spall Theorie und die Cryogenic Suction Theorie.
Die Glue Spall Theorie führt die Entstehung von Abwitterungen auf die mechanische Schädigung der Betonoberfläche durch eine anhaftende Eisschicht zurück. Dabei sollen nur bei moderaten Tausalzkonzentrationen in der einwirkenden Lösung kritische Spannungszustände in der Eisschicht auftreten, die eine Schädigung der Betonoberfläche hervorrufen können. In dieser Arbeit konnte jedoch nachgewiesen werden, dass starke Abwitterungen auch bei Tausalz¬konzentrationen auftreten, bei denen eine mechanische Schädigung des Betons durch das Eis auszuschließen ist. Damit wurde die fehlende Eignung der Glue Spall Theorie aufgezeigt.
Die Cryogenic Suction Theorie fußt auf den eutektischen Eigenschaften von Tausalz-lösungen, die im gefrorenen Zustand immer als Mischung auf festem Wassereis und flüssiger, hochkonzentrierter Salzlösung bestehen, solange ihre Eutektikumstemperatur nicht unter¬schritten wird. Die flüssige Phase im salzhaltigen Eis stellt für gefrorenen Beton ein bisher nicht berücksichtigtes Flüssigkeitsreservoir dar, welches trotz der hohen Salzkonzentration die Eisbildung in der Betonrandzone verstärken und so die Entstehung von Abwitterungen verursachen soll. In dieser Arbeit wurde bestätigt, dass die Eisbildung im Zementstein beim Gefrieren in hochkonzentrierter Tausalzlösung tatsächlich verstärkt wird. Das Ausmaß der zusätzlichen Eisbildung wurde dabei auch von der Fähigkeit des Zementsteins zur Bindung von Chloridionen aus der Tausalzlösung beeinflusst.
Zusammenfassend wurde festgestellt, dass die Cryogenic Suction Theorie eine gute Beschreibung des Frost-Tausalz-Angriffes darstellt, aber um weitere Aspekte ergänzt werden muss. Die Berücksichtigung der intensiven Sättigung von Beton durch den Prozess der Mikroeislinsenpumpe stellt hier die wichtigste Erweiterung dar. Basierend auf dieser Überlegung wurde eine kombinierte Schadenstheorie aufgestellt. Wichtige Annahmen dieser Theorie konnten experimentell bestätigt werden. Im Ergebnis wurde so die Grundlage für ein tiefergehendes Verständnis des Frost-Tausalz-Angriffes geschaffen. Zudem wurde ein neuer Ansatz identifiziert, um die (potentielle) Verringerung des Frost-Tausalz-Widerstandes klinkerreduzierter Betone zu erklären.
Piezoelectric materials are used in several applications as sensors and actuators where they experience high stress and electric field concentrations as a result of which they may fail due to fracture. Though there are many analytical and experimental works on piezoelectric fracture mechanics. There are very few studies about damage detection, which is an interesting way to prevent the failure of these ceramics.
An iterative method to treat the inverse problem of detecting cracks and voids in piezoelectric structures is proposed. Extended finite element method (XFEM) is employed for solving the inverse problem as it allows the use of a single regular mesh for large number of iterations with different flaw geometries.
Firstly, minimization of cost function is performed by Multilevel Coordinate Search (MCS) method. The XFEM-MCS methodology is applied to two dimensional electromechanical problems where flaws considered are straight cracks and elliptical voids. Then a numerical method based on combination of classical shape derivative and level set method for front propagation used in structural optimization is utilized to minimize the cost function. The results obtained show that the XFEM-level set methodology is effectively able to determine the number of voids in a piezoelectric structure and its corresponding locations.
The XFEM-level set methodology is improved to solve the inverse problem of detecting inclusion interfaces in a piezoelectric structure. The material interfaces are implicitly represented by level sets which are identified by applying regularisation using total variation penalty terms. The formulation is presented for three dimensional structures and inclusions made of different materials are detected by using multiple level sets. The results obtained prove that the iterative procedure proposed can determine the location and approximate shape of material subdomains in the presence of higher noise levels.
Piezoelectric nanostructures exhibit size dependent properties because of surface elasticity and surface piezoelectricity. Initially a study to understand the influence of surface elasticity on optimization of nano elastic beams is performed. The boundary of the nano structure is implicitly represented by a level set function, which is considered as the design variable in the optimization process. Two objective functions, minimizing the total potential energy of a nanostructure subjected to a material volume constraint and minimizing the least square error compared to a target
displacement, are chosen for the numerical examples. The numerical examples demonstrate the importance of size and aspect ratio in determining how surface effects impact the optimized topology of nanobeams.
Finally a conventional cantilever energy harvester with a piezoelectric nano layer is analysed. The presence of surface piezoelectricity in nano beams and nano plates leads to increase in electromechanical coupling coefficient. Topology optimization of these piezoelectric structures in an energy harvesting device to further increase energy conversion using appropriately modified XFEM-level set algorithm is performed .
The main categories of wind effects on long span bridge decks are buffeting, flutter, vortex-induced vibrations (VIV) which are often critical for the safety and serviceability of the structure. With the rapid increase of bridge spans, research on controlling wind-induced vibrations of long span bridges has been a problem of great concern.The developments of vibration control theories have led to the wide use of tuned mass dampers (TMDs) which has been proven to be effective for suppressing these vibrations both analytically and experimentally. Fire incidents are also of special interest in the stability and safety of long span bridges due to significant role of the complex phenomenon through triple interaction between the deck with the incoming wind flow and the thermal boundary of the surrounding air.
This work begins with analyzing the buffeting response and flutter instability of three dimensional computational structural dynamics (CSD) models of a cable stayed bridge due to strong wind excitations using ABAQUS finite element commercial software. Optimization and global sensitivity analysis are utilized to target the vertical and torsional vibrations of the segmental deck through considering three aerodynamic parameters (wind attack angle, deck streamlined length and viscous damping of the stay cables). The numerical simulations results in conjunction with the frequency analysis results emphasized the existence of these vibrations and further theoretical studies are possible with a high level of accuracy. Model validation is performed by comparing the results of lift and moment coefficients between the created CSD models and two benchmarks from the literature (flat plate theory) and flat plate by (Xavier and co-authors) which resulted in very good agreements between them. Optimum values of the parameters have been identified. Global sensitivity analysis based on Monte Carlo sampling method was utilized to formulate the surrogate models and calculate the sensitivity indices. The rational effect and the role of each parameter on the aerodynamic stability of the structure were calculated and efficient insight has been constructed for the stability of the long span bridge.
2D computational fluid dynamics (CFD) models of the decks are created with the support of MATLAB codes to simulate and analyze the vortex shedding and VIV of the deck. Three aerodynamic parameters (wind speed, deck streamlined length and dynamic viscosity of the air) are dedicated to study their effects on the kinetic energy of the system and the vortices shapes and patterns. Two benchmarks from the literature (Von Karman) and (Dyrbye and Hansen) are used to validate the numerical simulations of the vortex shedding for the CFD models. A good consent between the results was detected. Latin hypercube experimental
method is dedicated to generate the surrogate models for the kinetic energy of the system and the generated lift forces. Variance based sensitivity analysis is utilized to calculate the main sensitivity indices and the interaction orders for each parameter. The kinetic energy approach performed very well in revealing the rational effect and the role of each parameter in the generation of vortex shedding and predicting the early VIV and the critical wind speed.
Both one-way fluid-structure interaction (one-way FSI) simulations and two-way fluid-structure interaction (two-way FSI) co-simulations for the 2D models of the deck are executed to calculate the shedding frequencies for the associated wind speeds in the lock-in region in addition to the lift and drag coefficients. Validation is executed with the results of (Simiu and Scanlan) and the results of flat plate theory compiled by (Munson and co-authors) respectively. High levels of agreements between all the results were detected. A decrease in the critical wind speed and the shedding frequencies considering (two-way FSI) was identified compared to those obtained in the (one-way FSI). The results from the (two-way FSI) approach predicted appreciable decrease in the lift and drag forces as well as prediction of earlier VIV for lower critical wind speeds and lock-in regions which exist at lower natural frequencies of the system. These conclusions help the designers to efficiently plan and consider for the design and safety of the long span bridge before and after construction.
Multiple tuned mass dampers (MTMDs) system has been applied in the three dimensional CSD models of the cable stayed bridge to analyze their control efficiency in suppressing both wind -induced vertical and torsional vibrations of the deck by optimizing three design parameters (mass ratio, frequency ratio and damping ratio) for the (TMDs) supporting on actual field data and minimax optimization technique in addition to MATLAB codes and Fast Fourier Transform technique. The optimum values of each parameter were identified and validated with two benchmarks from the literature, first with (Wang and co-authors) and then with (Lin and co-authors). The validation procedure detected a good agreement between the results. Box-Behnken experimental method is dedicated to formulate the surrogate models to represent the control efficiency of the vertical and torsional vibrations. Sobol's sensitivity indices are calculated for the design parameters in addition to their interaction orders. The optimization results revealed better performance of the MTMDs in controlling both the vertical and the torsional vibrations for higher mode shapes. Furthermore, the calculated rational effect of each design parameter facilitates to increase the control efficiency of the MTMDs in conjunction with the support of the surrogate models which simplifies the process of analysis for vibration control to a great extent.
A novel structural modification approach has been adopted to eliminate the early coupling between the bending and torsional mode shapes of the cable stayed bridge. Two lateral steel
beams are added to the middle span of the structure. Frequency analysis is dedicated to obtain the natural frequencies of the first eight mode shapes of vibrations before and after the structural modification. Numerical simulations of wind excitations are conducted for the 3D model of the cable stayed bridge. Both vertical and torsional displacements are calculated at the mid span of the deck to analyze the bending and the torsional stiffness of the system before and after the structural modification. The results of the frequency analysis after applying lateral steel beams declared that the coupling between the vertical and torsional mode shapes of vibrations has been removed to larger natural frequencies magnitudes and higher rare critical wind speeds with a high factor of safety.
Finally, thermal fluid-structure interaction (TFSI) and coupled thermal-stress analysis are utilized to identify the effects of transient and steady state heat-transfer on the VIV and fatigue of the deck due to fire incidents. Numerical simulations of TFSI models of the deck are dedicated to calculate the lift and drag forces in addition to determining the lock-in regions once using FSI models and another using TFSI models. Vorticity and thermal fields of three fire scenarios are simulated and analyzed. The benchmark of (Simiu and Scanlan) is used to validate the TFSI models, where a good agreement was manifested between the two results. Extended finite element method (XFEM) is adopted to create 3D models of the cable stayed bridge to simulate the fatigue of the deck considering three fire scenarios. The benchmark of (Choi and Shin) is used to validate the damaged models of the deck in which a good coincide was seen between them. The results revealed that the TFSI models and the coupled thermal-stress models are significant in detecting earlier vortex induced vibration and lock-in regions in addition to predicting damages and fatigue of the deck and identifying the role of wind-induced vibrations in speeding up the damage generation and the collapse of the structure in critical situations.
In this research work, an energy approach is employed for assessing quality in dynamic soil-structure interaction (SSI) models, and energy measures are introduced and investigated as general indicators of structural response.
Dynamic SSI models with various abstraction levels are then investigated according to different coupling scenarios for soil and structure models.
The hypothesis of increasing model uncertainty with decreasing complexity is investigated and a mathematical framework is provided for the treatment of model uncertainty. This framework is applied to a case study involving alternative models for incorporating dynamic SSI effects. In the evaluation process, energy measures are used within the framework of the \textit{adjustment factor} approach in order to quantitatively assess the uncertainty associated with SSI models. Two primary types of uncertainty are considered, namely the uncertainty in the model framework and the uncertainty in the model input parameters.
Investigations on model framework uncertainty show that the more complex three-dimensional FE model has the best quality of the models investigated, whereas the Wolf SSI model produces the lowest model uncertainty of the simpler models. The fixed-base model produces the highest estimated uncertainty and accordingly the worst quality of all models investigated.
These results confirm the hypothesis of increasing model uncertainty with decreasing complexity only when the assessment is based on the ratio of structural hysteretic energy to input energy as a response indicator.
Development of a Sustainability-based Sanitation Planning Tool (SusTA) for Developing Countries
(2014)
Background and Research Goal
Despite all the efforts in the sanitation sector, it is acknowledged that the world is not on track to meet the MDG sanitation target to reduce the number of people without access to sanitation by 2015. Furthermore, a large number of existing sanitation facilities in developing countries is out of order. This leads to the conclusion that, besides technical failures, the planning process in the sanitation sector was ineffective. This ineffectiveness may be attributed to the lack of knowledge of the sanitation planners about the local conditions of the sanitation project. In addition, sustainability of a technology is often approached from a fragmented perspective that often leads to an unsustainable solution.
The dissertation is conducted within the framework of the Integrated Water Resources Management (IWRM) Indonesia project. The goal of this work is to contribute to the development of a methodology of a planning tool for sustainable sanitation technology. The tool is designed for sanitation planners in developing countries, where a top-down planning approach is common practice. The proposed tool enables comprehensive sustainability assessments (using the Helmholtz Concept of Sustainability as reference), taking into account local conditions.
State of the Science
In the planning practice, many sanitation planning tools focus on technology selection. However, it has become evident that the selection criteria for sustainable technologies are not always considered in the tools’ framework. In other cases, when the criteria are provided by the tool, there is no clear indication of the conditions to be fulfilled in order to meet these criteria. Specifically, there is no reference to what is meant by sustainable technology in a particular context and how to comprehensively assess the sustainability of different technology options.
Research Methodology
Developing a planning tool is an empirical process, combining theory and practical experience. Hence, the development process of such a tool requires extensive observations, particularly on the interaction between stakeholders in the sanitation sector as well as between technology and its environment. For this purpose, a case study within the project area was carried out. Pucanganom, a village representing common strategic problems in developing countries (e.g. top-down planning approaches, lack of involvement of beneficiaries in the planning process, lack of sustainability assessments) was finally selected as the case study area. After the in-depth case study, an analytical generalisation was developed to enable the tool’s application to a broader context.
Results
The result of this research is a new tool – the Sustainability-based Sanitation Planning Tool (SusTA). SusTA enables comprehensive sustainability assessment in its five generic steps, namely: (1) analysis of stakeholders and sanitation policy in the region, (2) distance-to-target analysis on sanitation conditions in the region, (3) examination of physical and socio-economic conditions in the project area, (4) contextualisation of the technology assessment process in the project area, and (5) sustainability-oriented technology assessment at the project level. These steps are conducted at two levels of planning – the region and the project area – in order to identify the specific problems and interests which influence the selection of a sanitation system. Each planning step is equipped with tool elements (e.g. set of indicators, household questionnaires, technology assessment matrices) to support the analysis.
From the development of SusTA, it can be concluded that four elements are required for an effective and widely applicable sanitation planning tool: sustainability concept, participatory approach, contextualisation framework and modification framework. SusTA provides both a theoretical and a practical basis for assessing the sustainability of sanitation technologies in developing countries. The tool’s main advantages for decision makers in these countries are: It is simple and transparent in its steps, does not require vast amounts of data and does not need a sophisticated computer program.
Ausgehend von der These, dass es keine völlig neuen Medien gibt, Medien vielmehr aus Veränderungen und Hybridisierungen anderer Medien entstehen, stellt die Arbeit die Untersuchung der Narrativität von Videospielen in einen intermedialen Zusammenhang. Dabei werden die medienspezifischen Differenzen der Erzählung und des Erzählens in Film, Fernsehen und Videospielen fokussiert. Neben der Strukturanalyse wird die visuelle Darstellungsebene sowie der Einbezug des Spielers in den Prozess der Narration betrachtet. Dies mündet in einer Theorie der Beobachtungsperspektive und der Handlungsposition des Spielers (Point-of-View und analog "Point-of-Action"), die wichtige Bestandteile des komplexen Erzählersystems der Videospiele bilden. Damit stellt die Arbeit ein, auf Kriterien der Narrativität basierendes, systematisches Beschreibungsinstrumentarium für Videospiele bereit.
Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden.
Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet.
In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert.
Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf.
In der Arbeit werden Verfahren zur baustofflichen und statisch-konstruktiven Beurteilung von bestehenden Gebäuden mit Außenwandelementen aus haufwerksporigem Leichtbeton mit gefügedichten Betondeckschichten entwickelt und beurteilt. Zunächst werden die an 110 Objekten auf der Grundlage von entwickelten Prüfverfahren diagnostizierten baustofflichen Parameter dieser Außenwandelemente dem Vorschriftenwerk der DIN zugeordet und Spektren bzw. Korrelationen ausgewiesen. Im Ergebnis der baustofflichen Beurteilung werden Berechnungsverfahren, welche das tatsächliche Tragverhalten dieser mehrschichtigen Außenwandelemente erfassen, entwickelt. Auf der Grundlage theoretischer und experimenteller Untersuchungen werden diese Berechnungsverfahren beurteilt und dem der ursprünglichen Planung der Gebäude zugrundeliegenden genormten Berechnungsverfahren für einschichtige Querschnitte gegenübergestellt. Desweiteren werden standsicherheitserhöhende Maßnahmen für diese Gebäude diskutiert und der Einfluß von Zementleiminjektagen auf die baustofflichen und statisch-konstruktiven Parameter beschrieben. Darüber hinaus werden die baustofflichen Voraussetzungen für eine Anwendbarkeit von Zementleiminjektagen im haufwerksporigen Leichtbeton ausgewiesen. Die Ergebnisse der Anwendung der in dieser Arbeit entwickelten Prüf- und Berechnungsverfahren auf vorhandene Gebäude im Rahmen von Fassadensanierungsmaßnahmen werden dargestellt und beurteilt.
Audiovisuelles Cut-Up
(2023)
Diese Forschungsarbeit bezeichnet und analysiert ein ästhetisches Phänomen audiovisueller Arbeiten mit sehr schnellen Schnitten. Der Begriff „Audiovisuelles Cut-Up“ wird vorgeschlagen um dieses Phänomen zu bezeichnen. Verschiedenste audiovisuelle Arbeiten aus unterschiedlichen Kontexten werden analysiert, welche das formale Kriterium von extrem kurzen Einstellungen erfüllen – einschließlich der eigenen Forschungsbeiträge des Autors. Die Werkzeuge und Technologien, welche die neuartige Ästhetik ermöglichten werden vorgestellt. Oftmals wurden diese von den Künstlern selbst geschaffen, da fertige Lösungen nicht verfügbar waren. Audiovisuelle Cut-Ups werden nach Kontext und Medium systematisiert und verortet. Es schließen sich Beobachtungen an, in wie fern Audio und Video sich in ihrem Charakter unterscheiden, was die kleinste wahrnehmbare Einheit ist und welche Rolle Latenzen und Antizipation bei der Wahrnehmung von audiovisuellen Medien spielen.
Drei Hauptthesen werden Aufgestellt: 1. Audiovisuelles Cut-Up hat die Kraft winzige, vormals überdeckte Details deutlich zu machen. Damit kann es das Quellmaterial verdichten aber auch den Inhalt manipulieren. 2. Technische Entwicklungen haben das audiovisuelle Cut-Up hervorgerufen. 3. Heute ist die Ästhetik als ein Stilmittel im Werkzeugkasten audiovisueller Gestaltung etabliert.
This thesis applies the theory of \psi-hyperholomorphic functions dened in R^3 with values in the set of paravectors, which is identified with the Eucledian space R^3, to tackle some problems in theory and practice: geometric mapping properties, additive decompositions of harmonic functions and applications in the theory of linear elasticity.
Der Siedlungsbau in Hanoi kan heutzutage - über 20 Jahre nach dem Beginn der Renovierungspolitik udn der Markwirtschaft, die dem Städtebau eine große Gelegenheit zur Verbesserung gegeben haben - zurückblickend und eingeschätz werden. Die letzten 20 Jahre sind eine kurze Zeit in der tausendjährigen Geschichte der Stadt, trotzdem entwickelte sich die Stadt in diesem Zeitraum am schnellsten und auch am problematischten aus Sicht der Umwelt. Ohne eine passende Entwicklungsstategie oder eine geeignete Maßnahme bei der Stadtplanung vergrößert sich der Konflikt Ökonomie - Ökologie immer weiter. ... Die Findung eines neuen Wohnkonzeptes im Gleichgewicht zwischen Ökonomie und der Ökologie ist eine hochaktuelle Frage geworden.
Im Gegensatz zu Industrieländern wird das barrierefreie und behindertengerechte Planen und Bauen von öffentlichen Gebäuden in Entwicklungsländern aus wirtschaftlichen und sozialen Gründen nur ungenügend berücksichtigt und realisiert. Die Analyse von international vorhandenen Normen und Richtlinien zeigte, dass in Vietnam die Integration behindertengerechter Konzepte in Bauplanungen erst seit dem Jahr 2002 stattfindet, wohingegen diese in China bereits seit den 80er Jahren und in den Industrienationen wie Deutschland und Amerika sogar schon seit drei Jahrzehnten Anwendung findet. Die ungenügende Berücksichtigung behindertengerechter Baukonzepte in öffentlichen Einrichtungen, so auch vor allem in Berufsschulen bewirkt eine drastische Reduzierung des Ausbildungsplatzangebotes und eine resultierende Perspektivlosigkeit für behinderte Menschen. Durch die schnelle Errichtung barrierefreier, behindertengerechter Ausbildungseinrichtungen sollen sich die Chancen auf einen Ausbildungsplatz für behinderte Vietnamesen deutlich verbessern. Mit dem Erhalt eines Ausbildungsplatzes wird diesen Menschen nicht nur eine Integration in die Gesellschaft sondern langfristig gesehen auch finanzielle Selbständigkeit und somit Unabhängigkeit von der Familie ermöglicht. Als Grundlage des angestrebten Umwandlungsprozesses von der herkömmlichen barrierebelasteten Bauplanung zur Berücksichtigung von behinderten Menschen durch behindertengerechte Planungskonzepte wurden Bauzeit, Bauumfang und Baukosten eingehend analysiert. Dieser vergleichenden Betrachtung der Bauplanungen entwuchsen zwei neue barrierefreie Berufschultypen. Der neue Berufsschultyp 1 – Der Dezentralisierungstyp zeichnet sich durch einen geringfügigen Bauumfang und durch seine einfache Baukonstruktion aus und ermöglicht somit eine schnelle Reaktion auf den gravierenden Ausbildungsplatzmangel für behinderte Menschen. Dieser kostengünstige Berufsschultyp wurde entwickelt, um sehr kurzfristig eine schnelle Erhöhung des Ausbildungsplatzangebotes für behinderte Menschen zu schaffen. Siedlungs- und Wohngebiete bzw. Dörfer eignen sich am besten als Standort für den Berufsschultyp 1. Das ursprüngliche Wohnumfeld bliebe den behinderten Schülern erhalten und damit einhergehend auch die seelische Unterstützung durch deren Familien. Der familiennahe Standort der Berufsschule würde somit sowohl den Lehrern als auch den Schülern eine große seelische Last abnehmen. Des Weiteren ließe sich eine Berufsschule vom Typ 1 schnellstens errichten, so dass die Ausbildung der behinderten und nicht behinderten Schüler sofort aufgenommen werden könnte. Im Zuge der Entwicklung des neuen Berufsschultyps 2 – Dem Zentralisierungstyp - wurden internationale Standards angestrebt. Dieser Berufsschultyp bietet eine umfangreichere Flexibilität in seiner Nutzungsart, ein umfassenderes Angebot an Ausbildungsgängen und ein weitaus größeres Feld der Integration. Der Berufsschultyp 2 ist ein komplexer Bau, mit einem größeren Bauumfang als Berufsschultyp 1. Bei der Errichtung dieser Berufsschultypen ist mit einer langfristigen Planungs- und Bauzeit zu rechnen. Der Stadtrand wird als der optimale Standort zur Errichtung der Berufsschule vom Typ 2 angesehen. Von dort aus ließen sich die öffentlichen Service der Stadt effizient nutzen. Als Bewertungsgrundlage für eine optimale Entwicklung der beiden neuen Berufsschultypen dienen Basisdaten aus umfassenden Analysen über verschiedenste Betrachtungsebenen. Unter Nutzung der in Deutschland und USA bestehenden gesetzlichen Grundlagen sollen barrierefreie Planungsempfehlungen, gezielt für die Errichtung behindertengerechter berufsausbildender Schulen in Vietnam, abgleitet werden, um ein gemeinsames Lernen von seh- und mobilitätsbehinderten sowie von nicht behinderten Menschen zu ermöglichen. Bei den Planungsempfehlungen finden nicht nur die unterschiedlichen menschlichen Körpergrößen der verschiedenen Bevölkerungsgruppen sondern auch die unterschiedliche Lebensweise der Vietnamesen sowie die Klimabedingungen in Vietnam Berücksichtigung. Bei der Planung von behindertengerechten Ausbildungs- und Schuleinrichtungen ist es wichtig, die Körpergröße der Menschen des jeweiligen Landes zu berücksichtigen. Als Orientierungsmaß für die Körpergröße vietnamesischer Menschen wurde ein Richtfaktor definiert und eingesetzt. Anhand der o.g. Richtfaktorgrößen wurden detaillierte Planungsempfehlungen für barrierefreies Lernen und Wohnen herausgearbeitet.
This thesis presents two new methods in finite elements and isogeometric analysis for structural analysis. The first method proposes an alternative alpha finite element method using triangular elements. In this method, the piecewise constant strain field of linear triangular finite element method models is enhanced by additional strain terms with an adjustable parameter a, which results in an effectively softer stiffness formulation compared to a linear triangular element. In order to avoid the transverse shear locking of Reissner-Mindlin plates analysis the alpha finite element method is coupled with a discrete shear gap technique for triangular elements to significantly improve the accuracy of the standard triangular finite elements.
The basic idea behind this element formulation is to approximate displacements and rotations as in the standard finite element method, but to construct the bending, geometrical and shear strains using node-based smoothing domains. Several numerical examples are presented and show that the alpha FEM gives a good agreement compared to several other methods in the literature.
Second method, isogeometric analysis based on rational splines over hierarchical T-meshes (RHT-splines) is proposed. The RHT-splines are a generalization of Non-Uniform Rational B-splines (NURBS) over hierarchical T-meshes, which is a piecewise bicubic polynomial over a hierarchical
T-mesh. The RHT-splines basis functions not only inherit all the properties of NURBS such as non-negativity, local support and partition of unity but also more importantly as the capability of joining geometric objects without gaps, preserving higher order continuity everywhere and allow local refinement and adaptivity. In order to drive the adaptive refinement, an efficient recovery-based error estimator is employed. For this problem an imaginary surface is defined. The imaginary surface is basically constructed by RHT-splines basis functions which is used for approximation and interpolation functions as well as the construction of the recovered stress components. Numerical investigations prove that the proposed method is capable to obtain results with higher accuracy and convergence rate than NURBS results.
The underlying goal of this work is to reduce the uncertainty related to thermally induced stress prediction. This is accomplished by considering use of non-linear material behavior, notably path dependent thermal hysteresis behavior in the elastic properties.
Primary novel factors of this work center on two aspects.
1. Broad material characterization and mechanistic material understanding, giving insight into why this class of material behaves in characteristic manners.
2. Development and implementation of a thermal hysteresis material model and its use to determine impact on overall macroscopic stress predictions.
Results highlight microcracking evolution and behavior as the dominant mechanism for material property complexity in this class of materials. Additionally, it was found that for the cases studied, thermal hysteresis behavior impacts relevant peak stress predictions of a heavy-duty diesel particulate filter undergoing a drop-to-idle regeneration by less than ~15% for all conditions tested. It is also found that path independent heating curves may be utilized for a linear solution assumption to simplify analysis.
This work brings forth a newly conceived concept of a 3 state, 4 path, thermally induced microcrack evolution process; demonstrates experimental behavior that is consistent with the proposed mechanisms, develops a mathematical framework that describes the process and quantifies the impact in a real world application space.