Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Die Zonenmethode nach Hertz ist ein vereinfachtes Verfahren zur Heißbemessung von Stahlbetonbauteilen. Um eine händische Bemessung zu ermöglichen, werden daher verschiedene Annahmen und Vereinfachungen getroffen. Insbesondere werden die thermischen Dehnungen vernachlässigt und das mechanische Verhalten durch einen verkleinerten Querschnitt mit konstanten Stoffeigenschaften beschrieben.
Ziel der vorliegenden Arbeit ist, dieses vereinfachte Verfahren in ein nichtlineares Verfahren zur Heißbemessung von Stahlbetondruckgliedern bei Brandbeanspruchung durch die Einheits-Temperaturzeitkurve zu überführen. Dazu werden die wesentlichen Annahmen der Zonenmethode überprüft und ein Vorschlag zur Weiterentwicklung vorgestellt. Dieser beruht im Wesentlichen auf der Modellierung der druckbeanspruchten Bewehrung. Diese weiterentwickelte Zonenmethode wird durch die Nachrechnung von Laborversuchen validiert und das Sicherheitsniveau durch eine vollprobabilistische Analyse und den Vergleich mit dem allgemeinen Verfahren bestimmt.
Ziel der Arbeit war das Adsorptionsverhalten ausgewählter schutzkolloidstabilisierter Polymerpartikel mit variierender chemischer Basis im zementären System zu beschreiben und basierend auf den gewonnenen Erkenntnissen das Konkurrenzverhalten beim Angebot unterschiedlicher mineralischer Oberflächen zu klären.
Sowohl die Destabilisierung der Polymerpartikel im alkalischen Milieu, welche eine Voraussetzung für derartige Adsorptionsprozesse ist, als auch die Veränderung von Oberflächeneigenschaften verschiedener mineralischer Partikel durch Hydratations- und Ionenadsorptionsprozesse, wurden u. a. mit Hilfe elektrokinetischer Experimente erfasst. Die spektralphotometrische Erstellung von Adsorptionsisothermen ermöglichte zudem die Ermittlung der jeweiligen adsorbierten Polymermenge zu verschiedenen Zeitpunkten der frühen Hydratation. Weiterhin wurde die Polymeradsorption an Partikeln ausgewählter Zusatzstoffe in Abhängigkeit von der Ionenstärke der Flüssigphase beschrieben.
Rasterelektronenmikroskopische Untersuchungen cryo-präparierter polymermodifizierter Zementleimproben ermöglichten es außerdem deren Mikrostruktur im suspensiven Zustand zu visualisieren. Diese Aufnahmen, ebenso wie die Ergebnisse grundlegender hydratationskinetischer Untersuchungen wurden in Wechselbeziehung zu den Ergebnissen der Adsorptionsuntersuchungen gebracht.
Maßgelbliche intermolekulare und interpartikuläre Wechselwirkungen, infolge derer sich die Stabilitätsverhältnisse im Zementleim ändern und die Polymerpartikel adsorbieren sind im Wesentlichen die Desorption des Schutzkolloids von der Polymerpartikeloberfläche, die Ionisation funktioneller Gruppen der Polymerpartikel und der Schutzkolloidmakromoleküle im alkalischen Milieu und infolgedessen die Komplexbildung mit Ionen der Zementleimporenlösung. Die Auswirkungen dieser Vorgänge auf die Lösungs- und Fällungskinetik des Zementleimes wurden erfasst und mit der chemischen Zusammensetzung der polymeren Systeme korreliert.
Die Thesis untersucht am Beispiel von Farb-Licht Forschungen (Interaktion dynamischen Lichts mit farbigen Oberflächen) und der Designforschungen am Potenzial der organisch Licht emittierenden Dioden (OLED) integrierende Aspekte des Designs im Kontext dieser Technologien. Des weiteren reflektiert die Thesis am Beispiel dieser Designforschungen das Verhältnis von Designforschung und Innovation für die gestalterischen Disziplinen.
Living heritage sites are strongly connected to their historical, geographical, socio-political and cultural context. A descriptive narrative of the evolutionary process of the living heritage site of a Sufi shrine is undertaken in this research. It focuses on the changing relationship between the spatial and socio-cultural aspects over time. The larger or macro regional context is interrelated to the micro architectural context. The tangible heritage is defined by and intimately tied to the intangible aspects of the heritage. It is these constituting macro and micro elements and their interrelationships particularly through space and architecture that the research thesis explores in its documentation and analysis.
The Sufi shrine in the South Asian Pakistani context is representative of a larger culture in the precolonial era. It is an expression of an indigenous modernity, belonging to a certain time period, place and community. The Sufi shrine as a building type has evolved from the precolonial time period, particularly starting at the golden ages of the Muslim Empire in the world (9th – 12th century), through the colonial age when western modernity arrived until the current neoliberal paradigm within the post independence period. Continued and evolved use of space, ritualistic performances, multiple social groups using the site are various elements whose documentation and analysis can establish the essential co-relations that contribute to continuity of its historical living. Physical and social relation of the historic site to its immediate settlement context is also a significant element that preserves the socio-cultural context.
The chosen case of the Shrine of Shah Abdul Latif Bhitai, situated in the small town of Bhitshah in the province of Sindh, Pakistan forms a unique example where the particular physical and socio-cultural environment forms the context within which the Sufi heritage lives and survives. It is well integrated within its context at multiple levels. What are these levels and how do the constituting elements integrate is a major subject of research? These form the background to defining some of the basic issues and questions addressed in this doctoral thesis.
Given that living heritage sites are unique due to their particular association to the context, the case study method was used to gain deeper insight and understanding on the topic.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad.
Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana.
Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una “panacea urbana”. Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente.
La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional.
El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una “tendencia” o “patrón emergente”, revitalizando el tejido urbano de forma sutil pero definitiva.
Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente.
10
La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos.
La investigación se estructuró entonces de forma tal de responder las siguientes preguntas:
•
En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba?
•
Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)?
•
Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano?
Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón “formal” de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico.
A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis:
El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina.
The p-Laplace equation is a nonlinear generalization of the well-known Laplace equation. It is often used as a model problem for special types of nonlinearities, and therefore it can be seen as a bridge between very general nonlinear equations and the linear Laplace equation, too. It appears in many problems for instance in the theory of non-Newtonian fluids and fluid dynamics or in rockfill dam problems, as well as in special problems of image restoration and image processing.
The aim of this thesis is to solve the p-Laplace equation for 1 < p < 2, as well as for 2 < p < 3 and to find strong solutions in the framework of Clifford analysis. The idea is to apply a hypercomplex integral operator and special function theoretic methods to transform the p-Laplace equation into a p-Dirac equation. We consider boundary value problems for the p-Laplace equation and transfer them to boundary value problems for a p-Dirac equation. These equations will be solved iteratively by applying Banach’s fixed-point principle. Applying operator-theoretical methods for the p-Dirac equation, the existence and uniqueness of solutions in certain Sobolev spaces will be proved.
In addition, using a finite difference approach on a uniform lattice in the plane, the fundamental solution of the Cauchy-Riemann operator and its adjoint based on the fundamental solution of the Laplacian will be calculated. Besides, we define gener- alized discrete Teodorescu transform operators, which are right-inverse to the discrete Cauchy-Riemann operator and its adjoint in the plane. Furthermore, a new formula for generalized discrete boundary operators (analogues of the Cauchy integral operator) will be considered. Based on these operators a new version of discrete Borel-Pompeiu formula is formulated and proved.
This is the basis for an operator calculus that will be applied to the numerical solution of the p-Dirac equation. Finally, numerical results will be presented showing advantages and problems of this approach.
Am Beispiel der Elektrifizierung zweier Großstädte an der Westküste Südamerikas zeigt die Arbeit den globalen Einfluss deutscher Industrie- und Finanzakteure auf technische, städtebauliche und gesellschaftlich-kulturelle Entwicklungen zur Blütezeit des europäischen Imperialismus auf. Damit werden die Regionalgeschichten der chilenischen Hauptstadtregion und der Elektropolis Berlin zu einer Globalgeschichte miteinander verknüpft. Ein Hauptaugenmerk der Analyse liegt dabei auf den weltweiten Akteursnetzwerken und Machtverhältnissen sowie dem kulturellen Erbe und seiner gegenwärtigen Interpretation.
Brazilian battlers’ housing discusses the self-production of dwellings in the circumstances of the socioeconomic rise of the so-called Brazilian new middle class, occurred on the first decade of the years 2000. Battlers are a precarious working class of about 100 million people, who have used their recently increased purchase power to informally solve their private housing demands, planning, building and renovating their homes themselves, with limited technical knowledge and almost no access to formal technicians as for example architects. The result is a mode of housing production, which spreads over the territory in micro-local self-initiatives and informal social practices of construction and management. With the support of a controversial manpower, this practice presents all sorts of technical complications, but at the same time expedient ways of affordability and creative spatial solutions for ordinary constructive problems. Such initiatives have consolidated Brazilian informal settlements and peripheral subdivisions, attending a demand poorly responded by the government. This research recognises the benefits of the self-production, but questions the conditions under which it happens and asks if it really collaborates for a true social rise of those who are engaged in it. With an empirical and qualitative approach and taking dwelling construction processes leaded by battlers as main information sources, the academic work responds if and how the socioeconomic rise of the Brazilian battlers has exactly affected the self-production of dwellings. For that, battlers’ self-production of dwellings is analysed and discussed in five main aspects: 1) acquisition of land and real state, 2) building overtime, 3) space and creative power, 4) technical complications and building materials and 5) manpower and know-how.
Turbomachinery plays an important role in many cases of energy generation or conversion. Therefore, turbomachinery is a promising approaching point for optimization in order to increase the efficiency of energy use. In recent years, the use of automated optimization strategies in combination with numerical simulation has become increasingly popular in many fields of engineering. The complex interactions between fluid and solid mechanics encountered in turbomachines on the one hand and the high computational expense needed to calculate the performance on the other hand, have, however, prevented a widespread use of these techniques in this field of engineering. The objective of this work was the development of a strategy for efficient metamodel based optimization of centrifugal compressor impellers. In this context, the main focus is the reduction of the required numerical expense. The central idea followed in this research was the incorporation of preliminary information acquired from low-fidelity computation methods and empirical correlations into the sampling process to identify promising regions of the parameter space. This information was then used to concentrate the numerically expensive high-fidelity computations of the fluid dynamic and structure mechanic performance of the impeller in these regions while still maintaining a good coverage of the whole parameter space. The development of the optimization strategy can be divided into three main tasks. Firstly, the available preliminary information had to be researched and rated. This research identified loss models based on one dimensional flow physics and empirical correlations as the best suited method to predict the aerodynamic performance. The loss models were calibrated using available performance data to obtain a high prediction quality. As no sufficiently exact models for the prediction of the mechanical loading of the impellercould be identified, a metamodel based on finite element computations was chosen for this estimation. The second task was the development of a sampling method which concentrates samples in regions of the parameter space where high quality designs are predicted by the preliminary information while maintaining a good overall coverage. As available methods like rejection sampling or Markov-chain Monte-Carlo methods did not meet the requirements in terms of sample distribution and input correlation, a new multi-fidelity sampling method called “Filtered Sampling“has been developed. The last task was the development of an automated computational workflow. This workflow encompasses geometry parametrization, geometry generation, grid generation and computation of the aerodynamic performance and the structure mechanic loading. Special emphasis was put into the development of a geometry parametrization strategy based on fluid mechanic considerations to prevent the generation of physically inexpedient designs. Finally, the optimization strategy, which utilizes the previously developed tools, was successfully employed to carry out three optimization tasks. The efficiency of the method was proven by the first and second testcase where an existing compressor design was optimized by the presented method. The results were comparable to optimizations which did not take preliminary information into account, while the required computational expense cloud be halved. In the third testcase, the method was applied to generate a new impeller design. In contrast to the previous examples, this optimization featuredlargervariationsoftheimpellerdesigns. Therefore, theapplicability of the method to parameter spaces with significantly varying designs could be proven, too.
Due to an increased need for hydro-electricity, water storage, and flood protection, it is assumed that a series of new dams will be built throughout the world. Comparing existing design methodologies for arch-type dams, model-based shape optimization can effectively reduce construction costs and leverage the properties of construction materials. To apply the means of shape optimization, suitable variables need to be chosen to formulate the objective function, which is the volume of the arch dam here. In order to increase the consistency with practical conditions, a great number of geometrical and behavioral constraints are included in the mathematical model. An optimization method, namely Genetic Algorithm is adopted which allows a global search.
Traditional optimization techniques are realized based on a deterministic approach, which means that the material properties and loading conditions are assumed to be fixed values. As a result, the real-world structures that are optimized by these approaches suffer from uncertainties that one needs to be aware of. Hence, in any optimization process for arch dams, it is nec- essary to find a methodology that is capable of considering the influences of uncertainties and generating a solution which is robust enough against the uncertainties.
The focus of this thesis is the formulation and the numerical method for the optimization of the arch dam under the uncertainties. The two main models, the probabilistic model, and non-probabilistic models are intro- duced and discussed. Classic procedures of probabilistic approaches un- der uncertainties, such as RDO (robust design optimization) and RBDO (reliability-based design optimization), are in general computationally ex- pensive and rely on estimates of the system’s response variance and fail- ure probabilities. Instead, the robust optimization (RO) method which is based on the non-probabilistic model, will not follow a full probabilistic approach but works with pre-defined confidence levels. This leads to a bi-level optimization program where the volume of the dam is optimized under the worst combination of the uncertain parameters. By this, robust and reliable designs are obtained and the result is independent of any as- sumptions on stochastic properties of the random variables in the model.
The optimization of an arch-type dam is realized here by a robust optimiza- tion method under load uncertainty, where hydraulic and thermal loads are considered. The load uncertainty is modeled as an ellipsoidal expression. Comparing with any traditional deterministic optimization (DO) method, which only concerns the minimum objective value and offers a solution candidate close to limit-states, the RO method provides a robust solution against uncertainties.
All the above mentioned methods are applied to the optimization of the arch dam to compare with the optimal design with DO methods. The re- sults are compared and analyzed to discuss the advantages and drawbacks of each method.
In order to reduce the computational cost, a ranking strategy and an ap- proximation model are further involved to do a preliminary screening. By means of these, the robust design can generate an improved arch dam structure which ensures both safety and serviceability during its lifetime.
Die vorliegende Arbeit hat die Absicht, den Bedarf der Umsetzung der Planungsidee ‚kinder- und jugendfreundliche Stadtentwicklung’ in Korea zu erforschen und Vorschläge für die Umsetzung zu machen. Darüber hinaus will sie herausfinden, warum man sich bezüglich der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung zunächst auf die Schulen und deren Umgebungen konzentrieren soll.
Deshalb widmet sich die Dissertation zuerst der Literaturrecherche, sowohl was den Begriff der kinder- und jugendfreundlichen Stadtentwicklung angeht als auch der Literatur bezüglich des Beitrags der Schulen zur Realisierung der kinder- und jugendfreundlichen Stadtentwicklung. Danach wird untersucht, ob das deutsche Instrument ‚Spielleitplanung‘ sich als Leitfaden für die gesamte Konzeption der koreanischen kinder- und jugendfreundlichen Stadtentwicklung eignet. Darüber hinaus werden Interviews mit koreanischen Experten aus Stadtplanung und Architektur, Pädagogik und öffentlicher Verwaltung als Forschungsmethode verwendet, um in Bezug auf die kinder- jungendfreundliche Stadtentwicklung den koreanischen Zustand zu analysieren. Zuletzt werden anhand der Untersuchungsergebnisse Handlungs-empfehlungen für die Durchführung der koreanischen kinder- und jugend-freundlichen Stadtentwicklung formuliert.
Anhand dieser Forschung kann konstatiert werden, dass die kinder- und jugendfreundliche Stadtentwicklung eine wichtige Planungsidee ist, weil dadurch Stadtplanerinnen und Stadtplaner sowohl zum körperlichen und geistigen gesunden Aufwachsen von Kindern und Jugendlichen als auch zur Entwicklung ihrer sozialen Kompetenzen erheblich beitragen können. Vor allem soll man die koreanische kinder- und jugendfreundliche Stadtentwicklung zunächst auf den Schulen und den schulischen Umgebungen umsetzen. Denn dadurch lassen sich vielseitige eventuelle Hindernisse bei der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung vermeiden. Ein weiterer Grund ist, dass die Schulen in Korea nicht nur in der Gesellschaft eine zentrale Rolle spielen, sondern auch im Rahmen der Stadtplanung. Auffällig ist, dass die kinder- und jugendfreundliche Stadtentwicklung sowohl auf die räumlichen Gestaltungen als auch auf die Beteiligung von Kindern und Jugendlichen in der städtischen Planung fokussiert ist. Allerdings werden bei der Stadtentwicklung die Kinder und Jugendliche in Korea noch nicht als wichtige Akteure angesehen. Darum soll man die Spielleitplanung in Korea einbeziehen, weil sie als Leitbild bei einer Konzeption der koreanischen kinder- und jugendlichen Stadtentwicklung fungieren kann. Jedoch müssen dabei die kulturellen Unterschiede zwischen Deutschland und Korea berücksichtigt werden.
Weiterhin wurde durch die Interviews festgestellt, dass das Interesse und der Wille von Experten aus der Stadtplanung an Kinder- und Jugendfreundlichkeit die wichtigsten Voraussetzungen sind, um die kinder- und jugendfreundliche Stadtentwicklung in Korea zu verankern und zu verbreiten.
Zum Begriff Illustration scheint ein Missverhältnis zwischen wissenschaftlicher Rezeption und praktischem Gegenstand vorzuliegen. Traditionell bezeichnet der Begriff Illustration ein Bild, das einen textlich vorangestellten Inhalt noch einmal visuell wiederholt und auf diesem Weg in einem Abbild verdoppelt. Traditionelle Illustration benennt also ein sekundäres, explizit von einem anderen Inhalt abhängiges Bild, das auch weggelassen werden könnte, ohne das Inhalt verloren geht. Genutzt wird dieser traditionelle Illustrationsbegriff heute unter anderem in den Forschungsfeldern der Kunstgeschichte, der Bildwissenschaften und der Literaturwissenschaften. Aus der Perpektive der Praxis birgt der traditionelle Illustrationsbegriff ein grundsätzliches Problem in sich. Er versucht, mit einer statischen Definition ein äußerst lebendiges visuelles Phänomen unserer heutigen Zeit zu beschreiben. Professionelle Berufszeichner, die sogenannten Illustratorinnen und Illustratoren, kreieren heute Werke, die mit dem traditionellen Illustrationsbegriff nicht mehr beschreibbar sind. Mehr noch, der traditionelle Illustrationsbegriff macht blind für diese Entwicklungen, die sich deshalb außerhalb des wissenschaftlichen Diskurses abspielen. Die vorliegende Arbeit möchte deshalb einen Blick auf den Zustand zeitgenössischer literarischer Buchillustration werfen, um den Begriff der Illustration in seiner aktuellen Unschärfe zu präzisieren, zu erweitern und somit zu aktualisieren.
The underlying goal of this work is to reduce the uncertainty related to thermally induced stress prediction. This is accomplished by considering use of non-linear material behavior, notably path dependent thermal hysteresis behavior in the elastic properties.
Primary novel factors of this work center on two aspects.
1. Broad material characterization and mechanistic material understanding, giving insight into why this class of material behaves in characteristic manners.
2. Development and implementation of a thermal hysteresis material model and its use to determine impact on overall macroscopic stress predictions.
Results highlight microcracking evolution and behavior as the dominant mechanism for material property complexity in this class of materials. Additionally, it was found that for the cases studied, thermal hysteresis behavior impacts relevant peak stress predictions of a heavy-duty diesel particulate filter undergoing a drop-to-idle regeneration by less than ~15% for all conditions tested. It is also found that path independent heating curves may be utilized for a linear solution assumption to simplify analysis.
This work brings forth a newly conceived concept of a 3 state, 4 path, thermally induced microcrack evolution process; demonstrates experimental behavior that is consistent with the proposed mechanisms, develops a mathematical framework that describes the process and quantifies the impact in a real world application space.
In der vorliegenden Arbeit „Speaking from Somewhere: Der Audio-Walk als künstlerische Praxis und Methode“ wird der Audio-Walk auf theoretischer und praktischer Basis untersucht. Der erste Teil widmet sich dem Audio-Walk als künstlerisches Format. Darin wird analysiert, wie dieses aufgebaut ist und welche Komponenten wie zusammenwirken, damit sich die Darbietung – und die dafür charakteristisch intensive Wirkung – entfalten kann. Im zweiten Teil wird der Audio-Walk als experimentelle mobile Methode für die künstlerische Forschung betrachtet. Im Zentrum steht dabei die Frage, wie sich das künstlerische Format nutzen lässt, um spezifische Fragestellungen an einen ausgewählten Personenkreis zu adressieren, der sich währenddessen in einer inszenierten Situation befindet. Der Schwerpunkt liegt dabei auf Audio-Walk-Experimenten, die mit dieser Absicht entwickelt wurden. Als Fallbeispiel für die Methode dient dabei die Zusammenarbeit mit einer Gruppe kürzlich nach Deutschland migrierter Frauen.
Railway systems are highly competitive compared with other means of transportation because of their distinct advantages in speed, convenience and safety. Therefore, the demand for railway transportation is increasing around the world. Constructing railway tracks and related engineering structures in areas with loose or soft cohesive subgrade usually leads to problems, such as excessive settlement, deformation and instability. Several remedies have been proposed to avoid or reduce such problems, including the replacement of soft soil and the construction of piles or stone columns.
This thesis aims to expand the geotechnical knowledge of how to improve subgrade ballasted railway tracks, using stone columns and numerical modeling for the railway infrastructure. Three aspects are considered: i) railway track dynamics modeling and validation by field measurements, ii) modeling and parametric studies on stone columns, and iii) studies on the linear and non-linear behavior of stone columns under the dynamic load of trains.
The first step of this research was to develop a reliable numerical model of a railway track. The finite element method in a time domain was used for either a 2D plane strain or 3D analysis. Individual methods for modeling a train load in 2D and 3D were implemented and are discussed in this thesis. The developed loading method was validated with three different railway tracks using obtained vibration measurements. Later, these numerical models were used to analyze the influence of stone column length and train speed in the stress field.
The performance of the treated ground depends on various parameters, such as the strength of stone columns, spacing, length and diameter of the columns. Therefore, the second step was devoted to a parameter study of stone columns as a unit cell with an axisymmetric condition. The results showed that even short stone columns were effective for settlement reduction, and area of replacement was the main influential parameter in their performance.
The third part of this thesis focuses on a hypothetical railway-track response to the passage of various train speeds and the influence of stone-column length. The stress-strain response of subgrade is analyzed under either an elastic–perfectly plastic or advanced constitutive model. The non-linear soil response in the finite element method and the impact of train speed and stone column length on railway tracks are also evaluated. Moreover, the reductions of induced vibration – in both a horizontal and a vertical direction – after improvement are investigated.
Großsiedlungen sind nicht nur ein Erbe der Moderne, sondern seit über drei Jahrzehnten Gegenstand der Stadterneuerung. Dieses Buch erörtert, was eine heute „normale“ Großsiedlung stadtplanerisch benötigt und welche stadtentwicklungs- als auch wohnungspolitisch gesteuerten Ressourcen in einer integrierten Planungssteuerung gebündelt werden sollten. Dabei wird das grundsätzliche Planungsinstrument des Quartiersmanagements aktualisiert – über den Gegenstand Großsiedlungen hinaus.
The study of memory, architecture, and urban space has been the interest of researchers from the diverse fields around the world due to, the significance of dealing with memories especially after the tragedy of the Second World War. Nations in Europe has chosen not to neglect their past, moreover, overcoming it by strengthening the national identity. An approach was clear in the literature, art, further in the way of rebuilding their cities; that mainly has reflected on the value of urban spaces and their role in narrating the country’s national memory. Thanks to this approach, which has supported the post-war European nations to invite to an act of forgiveness rather than to forget.
On the contrary, memory, in relation to architecture is a form of knowledge has been neglected in Egypt, especially during the previous decades after the declaration of independence from the colonial power, and since 1952 revolution. Recently, a rising debate about Egypt national history and the need to renationalize the Egyptian historical consciousness has rapidly grown up, due to the political transformation has occurred because of the 25th uprising, 2011, which unveiled the power of public spaces in constituting the nation thoughts, especially Tahrir square. At the same time, this has unveiled the results of neglecting the past instead of overcoming it; unveiled a present carries the danger of conflict and repeating previous mistakes.
Researchers, historians, politicians, governmental organization, have worked in the purpose of revisiting the historical information, and have tried to document the current transformation of the 25th uprising. There was a public demand for redesigning Tahrir square to reflect the memory of the uprising as a symbol of the power of the public. However, after eight years, those memories have faded as if the 25th uprising has never happened.
Those circumstances are very relevant to the gap between urban design and the art of memory-work, in the scientific field. Few studies in Egypt conducted the concept of memory in relation to urban spaces, however, the matter requires more attention, to associate the need for renationalizing Egypt memory, with viewing urban space as a mean of narrating the country’s national memory and reflecting the citizens' current thoughts, as a try of nearing the distances between competing narratives.
Therefore, the research aims at developing a methodological framework that should contribute to renationalizing memory through urban space. Further, benefiting from the German experience by investigating lessons to learn. That is based on the hypothesis that, although there is no fixed formula for all countries to renationalize the historical consciousness of memory through urban spaces, lessons to be learned from Germany experience could be a driving dimension when designing Egyptian urban spaces with a concept of memory as an essential factor.
To guide the validity of the study’s hypothesis, a set of research questions are thus formulated: Starting from why memory is an essential factor when designing urban spaces? Regarding Egypt national memory, how it was constituted through history and how to read its representation on urban spaces? Also, the study quests the means of nationalizing memory through urban spaces? And What are the learned lessons from the German experience?
The study tries to answer those questions. Via an inductive analytical methodology which moves from the gap of knowledge and from a particular situation in Egypt, to study the German experience in renationalizing the concept of memory through urban spaces.
Within the scope of the study, exploring Egypt prevailing narratives and the inherited concepts which influenced the national memory is essential. Moreover, the research develops analytical political psychosocial model that could help reading memories in urban spaces, memory’s actors, and memory influences. To validate this model, case studies are analysed in light of the concluded aspects. Consequently, the expected result is to infer broad general learned lessons for the Egyptian case.
Research findings and conclusions answer the research questions, interpret literature review, recommend some guide points to three target groups: first, practice field; to encourage designers to value the national and collective memories when designing urban spaces. Second, to ask policymakers to take the public participation into consideration, when taking decisions related to urban development. Third, the thesis recommends future researches of urban memory that connect theoretical information with the practice field.
Finally, enhancing the memory-work in relation to the national narrative, conveying a meaningful message, when designing urban spaces could encourage citizens to learn, to interact, and to dissolve boundaries between the competing narratives in post-conflict societies.
Die Dissertation umfasst eine vertiefende Untersuchung der denkmalpflegerischen Erfassung von Siedlungen und Wohnanlagen als eine der wichtigsten und umfangreichsten Bautypologien der 1950er bis 1980er Jahre in Westeuropa. Die Beschäftigung mit Bauten der 1950er bis 1980er Jahre führt bei Denkmalpflegern, Architekten, Bewohnern und Politikern immer wieder zu Überlegungen, ob diese besondere Erfassungs- und Erhaltungsstrategien erfordern. Dabei wirft die Typologie des Siedlungsbaus besondere Fragen auf, da sie neben architektonischen Aspekten auch städtebauliche, landschaftsplanerische und sozialwissenschaftliche Bedeutungsebenen umfasst. Nicht zuletzt sind Siedlungen der 1950er bis 1980er Jahre aus denkmalpflegerischer Sicht häufig stark gefährdet. Obwohl die meisten Siedlungen noch nicht ausreichend kunsthistorisch gewürdigt und erfasst sind, unterliegen sie einem hohen Veränderungsdruck. Die teilweise enorme städtebauliche Dimension und Monofunktionalität der Anlagen, die häufig aufgrund von seriellen Bautypen und vorfabrizierten Elementen gleichförmige architektonische Gestaltung und eine Vernachlässigung im Bauunterhalt erschweren den Zugang zu dieser Baugattung. Gewandelte Wohnbedürfnisse sowie bauphysikalische, energietechnische oder ästhetische Maßnahmen führen zur Veränderung der noch relativ jungen Bausubstanz. Zudem weisen Siedlungen der Nachkriegszeit aufgrund ihrer teilweise sehr großzügigen Freiraumstruktur ein großes Potential zur Nachverdichtung auf. Die Auswahl der in dieser Arbeit untersuchten Länder und Siedlungen ergab sich aus der Auswertung einer europaweiten Befragung von Denkmalämtern sowie anschließend geführten Gesprächen mit Fachleuten. Die untersuchten 20 Siedlungen und Wohnanlagen repräsentieren verschiedene Länder (Deutschland, Österreich, Schweiz, Frankreich, Niederlande, England) sowie Bauepochen und Siedlungstypologien, die von der Einfamilienhaussiedlung über Siedlungen mit gemischter Bautypologie hin zur Großsiedlung reichen. Anhand der unterschiedlichen Fallbeispiele wird aufgezeigt, inwiefern die jeweiligen Länder, Bauepochen beziehungsweise Siedlungstypologien Einfluss auf die denkmalpflegerischen Erfassungsstrategien haben. Zusammenfassend lässt sich resümieren, dass die Gesetzesgrundlagen und Denkmalkriterien für eine denkmalpflegerische Erfassung von Bauten der 1950er bis 1980er Jahre in den meisten Ländern konstant bleiben, während sich in den Bereichen Zeitpunkt, Auswahl und Einbindung der Öffentlichkeit eine Modifizierung oder zumindest eine Reflektion der bisherigen Strukturen abzeichnet. Sinnvoll und wünschenswert erscheint darüber hinaus ein verstärkter Austausch der Denkmalpflege über die nationalen Grenzen hinweg und ein gegenseitiges Lernen voneinander.
Matrix-free voxel-based finite element method for materials with heterogeneous microstructures
(2019)
Modern image detection techniques such as micro computer tomography
(μCT), magnetic resonance imaging (MRI) and scanning electron microscopy (SEM) provide us with high resolution images of the microstructure of materials in a non-invasive and convenient way. They form the basis for the geometrical models of high-resolution analysis, so called image-based analysis.
However especially in 3D, discretizations of these models reach easily the size of 100 Mill. degrees of freedoms and require extensive hardware resources in terms of main memory and computing power to solve the numerical model. Consequently, the focus of this work is to combine and adapt numerical solution methods to reduce the memory demand first and then the computation time and therewith enable an execution of the image-based analysis on modern computer desktops. Hence, the numerical model is a straightforward grid discretization of the voxel-based (pixels with a third dimension) geometry which omits the boundary detection algorithms and allows reduced storage of the finite element data structure and a matrix-free solution algorithm.
This in turn reduce the effort of almost all applied grid-based solution techniques and results in memory efficient and numerically stable algorithms for the microstructural models. Two variants of the matrix-free algorithm are presented. The efficient iterative solution method of conjugate gradients is used with matrix-free applicable preconditioners such as the Jacobi and the especially suited multigrid method. The jagged material boundaries of the voxel-based mesh are smoothed through embedded boundary elements which contain different material information at the integration point and are integrated sub-cell wise though without additional boundary detection. The efficiency of the matrix-free methods can be retained.
The capitalization of ‘certified’ sustainable building sector will be investigated over the power theory of value approach of Jonathan Nitzan and Shimshon Bichler. The study will be initiated by questioning why the environment problems are one of the first items on the agenda and by sharing the ideas of scholars who approaches the subject skeptically, because the predominant literature underlying the necessity and prominence of the topic is already well-known and adapted by the majority. Over the theory developed by Nitzan and Bichler, the concepts of capitalization, strategic sabotage, power, legitimacy, and obedience will be discussed. The hypothesis of “the absentee owners of the construction sector, holding the whip hand and capitalizing the ecology, control the growth and the creativity of green building production and make it carbon-dependent, in order to increase their profit margin” will be questioned. To strengthen the arguments in the hypothesis, the factors, the institutional arrangements, value measurement methods, which affect directly the net present value, will be investigated both in corporation and in building scale in detail, because net present value/ capitalization is asserted as the most important criteria by Nitzan and Bichler to make the investment decisions in the capitalist economic system. To trace the implications of power and the strategic sabotage that power caused, as the empirical dimension of this dissertation, an interface exploring the correlational ties between the climate responsive architecture and the ever changing political, economical, and social contexts and building economics praxis by decades will be developed and the expert interviews will be conducted with the design teams and the appraisers.
In der vorliegenden Arbeit wird die Bedeutung und Funktion des fotografischen Bildes und im Besonderen der Handyfotografie im Kontext von Internet und sozialen Onlinenetzwerken beschrieben, untersucht und diskutiert.
Im Spannungsfeld zwischen sozialwissenschaftlichen Theorien, foto- und medientheoretischem Diskurs sowie ästhetisch künstlerischen Perspektiven wird ausgelotet, welche konkreten visuellen und sozialen Formen die gegenwärtige mobile digitale Bildpraxis angenommen hat, wie sich ihre Gebrauchsweise innerhalb des globalen gesellschaftlichen Alltags darstellt, und in welcher Weise ihr spezielles Zusammenspiel aus „shooting“, „uploading“, „sharing“ zu neuen menschlichen Handlungsmustern und zur Schaffung neuer kultureller Realitäten beiträgt.
Die Dissertation „Hey! I’m an Angel! Zum Verhältnis von Medium, Subjekt und Wirklichkeit in Eija-Liisa Ahtilas Videoinstallationen“ untersucht in der Hauptsache vier zentrale Videoinstallationen Ahtilas aus den Jahren 1995 bis 2014. Grundlegend ist die These, dass Ahtilas Arbeiten nicht, wie bisher angenommen, in den Kontext einer medien-, erkenntnis- und subjektkritischen Videokunst einzuordnen sind. Stattdessen werden sie als mediale Vehikel intersubjektiv geprägter Wirklichkeitserfahrungen für das Subjekt bereitgestellt: Entgegen dem aktuellen Forschungsstand arbeitet sich Ahtila nicht an der Kritik des Mediums Film/Video ab, das einen wirklichkeitsverfälschenden oder -ersetzenden Einfluss auf das manipulierte Subjekt nimmt. Vielmehr nutzt die Künstlerin das Potenzial des Mediums Film/Video aus, um einem relativ stabilen Subjekt die Wirklichkeitserfahrungen Anderer zu öffnen und auf diese Weise seinen Erfahrungshorizont zu erweitern.
Der systematische Schwerpunkt der Arbeit liegt erstens darauf, ein sich durch Ahtilas bisheriges Schaffen ziehendes ‚Ziel‘ der Integration der Betrachterin in eine intersubjektive Erfahrungssphäre nachvollziehbar zu machen. Hierfür wird insbesondere eine Perspektive auf die frühen Arbeiten entwickelt, in der die Brüche in Ahtila Arbeiten integrative statt distanzierende Wirkung haben. Zweitens wird in eingehenden Analysen der Wandel verständlich, der sich zwischen Ahtilas früher Schaffensphase (1995 – 2002) und der aktuellen Schaffensphase (seit 2010) hinsichtlich der Art und Weise vollzieht, wie diese Integration gelingt. Es zeigt sich, dass der Einstieg in die intersubjektiv geprägten Erfahrungssphären in der frühen Phase ästhetisch konstituiert ist. Mit der aktuellen Schaffensphase werden hingegen alltägliche Formen der Empathie und Mimesis zentral, sowie deren leibliche Konsequenzen für die Betrachterin. Drittens wird eine zunehmende pragmatische Tendenz darin deutlich, die Integration der Betrachterin in die Erfahrungen Anderer zu ermöglichen. Dies wird vor dem Hintergrund eines allgemeinen pragmatischen Zuges aktueller zeitgeistiger Bewegungen erläutert. Viertens wird gezeigt, dass Ahtilas Arbeiten auf der Annahme einer Kontinuität in gewisser Hinsicht von der außerfilmischen Wirklichkeit in die filmische Fiktion hinein basieren, sowie auf dem Verständnis filmischer Fiktionen als virtuelle Weltfassungen. Ahtila fragt auf der Grundlage dieses Verständnisses filmischer Fiktion nicht nach der Wahrheit dieser Fiktion als These über die Wirklichkeit, wie es dem Forschungskanon über die Künstlerin zu entnehmen ist. Sondern nach der Wirksamkeit der filmischen Fiktion für die Wirklichkeit.
Den Schwerpunkt der vorliegenden Arbeit bilden die konstruktive Entwicklung und die wissenschaftliche Untersuchung des Tragverhaltens von Kopplungselementen für den Ingenieur¬holzbau. Die neu entwickelten Verbindungen bestehen bevorzugt aus Stahlteilen mit Gewindeanschluss und werden mit einem Polymerverguss im Holz verankert. Die Kopplungselemente gestatten die einfache montagegerechte Verbindung von Holzbauteilen untereinander oder zu anderen Bauweisen. Sie nehmen die Zug- oder Drucklast axial auf und gewährleisten eine leistungsfähige und schlupf¬freie Verbindung zum Holz. Für den Verguss wird ein mineralisch gefülltes Epoxidharz mit sehr guten Klebeeigenschaften gegenüber Holz und den meisten üblichen Baustoffen verwendet.
Im Holz werden für die Verankerung der Kopplungselemente Bohrungen vorgesehen, die sich sowohl aus technologischen Gründen als auch für eine gleichmäßige Spannungsverteilung vorteilhaft erweisen. Der Durchmesser der Bohrung ist gegenüber dem Verbindungselement deutlich größer, wodurch die Verbindungsfläche zum Holz bei konstanter Länge ansteigt. Die Vergrößerung der Fugen zwischen dem Verbindungselement und der Holzwandung von 7 mm auf 17 mm führt bei konstanter Einbindetiefe und gleichem Durchmesser des Verbin¬dungsmittels zu einer Laststeigerung von über 20 %. Die größere Vergussfuge gewährleistet darüber hinaus eine Vergleichmäßigung der Spannungen innerhalb der Verbindung, den Ein¬satz von frei geformten Verbindungselementen und eine Vereinfachung der Herstellung.
Die Kopplungselemente sind für den Einsatz in Zug- oder Druckstößen ebenso geeignet wie für biegesteife Anschlüsse axial verbundener Biegeträger oder Rahmenecken. Sie können werkseitig im Holzbauteil vorgesehen oder als direkte Verbindung auf der Baustelle vergossen werden. Für die Baupraxis wird durch den Einsatz des schwindarmen Verguss-materials mit hoher Klebewirkung eine Bandbreite an Anwendungen vom Toleranzausgleich über Schubbewehrung bis zum Druck-, Zug- oder Biegeanschluss geboten.
This research seeks to make an exploratory study of the strategies used by the creators of monuments, memorials, and commemorative places located in the public spaces that use sound as one of the primary raw material in their design. The term acoustic monu-memorials was coined in this research to encircle these structures and places. In order to achieve the goal of this research, it was necessary to compile a number of samples, primarily after the digital recording era of captured sound around 1971 to the present. The compilation was relevant because such a compendium was not found in the literature, and to the author's knowledge, a comprehensive investigation of the strategies used in planning acoustic monu-memorials in the urban spaces does not exist.
The method used to create such compendium was to send a question to people with different background identities, such as visual and sound artists, musicians, art curators, and heritage scholars among others. This question produced a selection of 51 examples of acoustic monu-memorials located in public spaces. Subsequently, the examples were classified into four major categories according to their form and nature. Additionally, two examples from the main categories were chosen as case studies: The Sinti and Roma Memorial in Berlin, Germany and the Niche monument in Cali, Colombia. These study cases were presented, described, and analysed in detail as they represent the type of what could be defined as an acoustic monu-memorial in general.
Lynch’s (1960) five elements that help individuals build the image of the city were transferred and used as a tool to help to build this image into acoustic terms. A thorough analysis of the acquired data yielded found the strategies used by the designers to shape, modify, transform, and structure public space. These strategies are entitled Sound Spaces. Moreover, a list entitled Urban Acoustic Commemoration Code was compiled. This list of suggestions addresses urban planners, architects, artists, designers, and general public interested in the aspects involved when creating acoustic commemoration phenomena in public spaces.
The task-based view of web search implies that retrieval should take the user perspective into account. Going beyond merely retrieving the most relevant result set for the current query, the retrieval system should aim to surface results that are actually useful to the task that motivated the query.
This dissertation explores how retrieval systems can better understand and support their users’ tasks from three main angles: First, we study and quantify search engine user behavior during complex writing tasks, and how task success and behavior are associated in such settings. Second, we investigate search engine queries formulated as questions, and explore patterns in a large query log that may help search engines to better support this increasingly prevalent interaction pattern. Third, we propose a novel approach to reranking the search result lists produced by web search engines, taking into account retrieval axioms that formally specify properties of a good ranking.
Since the Industrial Revolution in the 1700s, the high emission of gaseous wastes into the atmosphere from the usage of fossil fuels has caused a general increase in temperatures globally. To combat the environmental imbalance, there is an increase in the demand for renewable energy sources. Dams play a major role in the generation of “green" energy. However, these structures require frequent and strict monitoring to ensure safe and efficient operation. To tackle the challenges faced in the application of convention dam monitoring techniques, this work proposes the inverse analysis of numerical models to identify damaged regions in the dam. Using a dynamic coupled hydro-mechanical Extended Finite Element Method (XFEM) model and a global optimization strategy, damage (crack) in the dam is identified. By employing seismic waves to probe the dam structure, a more detailed information on the distribution of heterogeneous materials and damaged regions are obtained by the application of the Full Waveform Inversion (FWI) method. The FWI is based on a local optimization strategy and thus it is highly dependent on the starting model. A variety of data acquisition setups are investigated, and an optimal setup is proposed. The effect of different starting models and noise in the measured data on the damage identification is considered. Combining the non-dependence of a starting model of the global optimization strategy based dynamic coupled hydro-mechanical XFEM method and the detailed output of the local optimization strategy based FWI method, an enhanced Full Waveform Inversion is proposed for the structural analysis of dams.
Recent years have seen a gradual shift in focus of international policies from a national and regional perspective to that of cities, a shift which is closely related to the rapid urbanization of developing countries. As revealed in the 2011 Revision of the World Urbanization Prospects published by the United Nations, 51% of the global population (approximately 3.6 billion people) lives in cities. The report predicts that by 2050, the world’s urban population will increase by 2.3 billion, making up 68% of the population. The growth of urbanization in the next few decades is expected to primarily come from developing countries, one third of which will be in China and India.
With rapid urbanization and the ongoing growth of mega cities, cities must become increasingly resilient and intelligent to cope with numerous challenges and crises like droughts and floods arising from extreme climate, destruction brought by severe natural disasters, and aggregated social contradictions resulting from economic crises. All cities face the urban development dynamics and uncertainties arising from these problems. Under such circumstances, cities are considered the critical path from crisis to prosperity, so scholars and organizations have proposed the construction of “resilient cities.” On the one hand, this theory emphasizes cities’ defenses and buffering capacity against disasters, crises and uncertainties, as well as recovery after destruction; on the other hand, it highlights the learning capacity of urban systems, identification of opportunities amid challenges, and maintenance of development vitality. Some scholars even believe that urban resilience is a powerful supplement to sustainable development. Hence, resilience assessment has become the latest and most important perspective for evaluating the development and crisis defense capacity of cities.
Rather than a general abstract concept, urban resilience is a comprehensive measurement of a city’s level of development. The dynamic development of problems is reflected through quantitative indicators and appraisal systems not only from the perspective of academic research, but also governmental policy, so as to scientifically guide development, and measure and compare cities’ development levels. Although international scholars have proposed
quantitative methods for urban resilience assessment, they are however insufficiently systematic and regionally adaptive for China’s current urban development needs. On the basis of comparative study on European and North American resilient city theories, therefore, this paper puts forwards a theoretical framework for resilient city systems consistent with China’s national conditions in light of economic development pressure, natural resource depletion, pollution, and other salient development crises in China. The key factors influencing urban resilience are taken into full consideration; expert appraisal is conducted based on the Delphi Method and the analytic hierarchy process (AHP) to design an extensible and updatable resilient city evaluation system which is sufficiently systematic, geographically adaptable, and sustainable for China’s current urban development needs. Finally, Changsha is taken as the main case for empirical study on comprehensive evaluation of similar cities in Central China to improve the indicator system.
Die Gase Sauerstoff und Stickstoff werden für eine Vielzahl an technischen, industriellen, biologischen und medizinischen Einsatzzwecken benötigt. So liegen Anwendungsgebiete dieser Gase neben der klassischen metallverarbeitenden und der chemischen Industrie bei Sauerstoff vor allem in der Medizin, Verbrennungs- und Kläranlagenoptimierung sowie der Fischzucht und bei Stickstoff als Schutz- beziehungsweise Inertgas in der Kunststoffindustrie, der Luft- und Raumfahrt sowie dem Brandschutz.
Die Bereitstellung der Gase Sauerstoff und Stickstoff wird nahezu ausschließlich durch die Abtrennung aus der Umgebungsluft realisiert, welche aus ca. 78 Vol.-% Stickstoff, 21 Vol.-% Sauerstoff und 1 Vol.-% Spurengasen (Ar, CO2, Ne, He, ...) besteht. Am Markt etablierte Verfahren der Luftzerlegung sind das Linde-, das PSA- (pressure swing adsorption/Druckwechseladsorption) oder verschiedene Membran-Verfahren. Hierdurch werden die benötigten Gase entweder direkt vor Ort beim Verbraucher erzeugt (PSA- und Polymer-Membranverfahren: geringe Reinheiten) oder zentral in großen Anlagen hergestellt (Linde-Verfahren: hohe Reinheiten) und anschließend zum Verbraucher in Form von Flaschen- oder Tankgasen geliefert (Tansportkosten).
Für kleinere Verbraucher mit hohen Ansprüchen an die Reinheit des benötigten Sauerstoffs beziehungsweise Stickstoffs ergibt sich nur die Möglichkeit, die Gase als kostenintensive Transportgase zentraler Gaseversorger zu beziehen und sich somit in eine Abhängigkeit (Lieferverträge, Flaschen-/Tankmieten, ...) zu diesen zu begeben sowie eine eigene Lagerhaltung für die benötigten Gase (Mehraufwand, Lagerkosten, Platzbedarf) zu betreiben.
Ziel dieser Arbeit ist es, keramische Material-Systeme auf Basis chemischer Hochtemperatur-Reaktionen als Reaktive Oxidkeramiken zu entwickeln und diese hinsichtlich eines möglichen Einsatzes für die Sauerstoffseparation in neuartigen Luftzerlegungsanlagen zu untersuchen.
Derartige Anlagen sollen in ihrem Prinzip an die regenerative Sauerstoffseparation angelehnt sein und in ihren Reaktoren die Reaktiven Oxidkeramiken als Festbett-Material abwechselnd mit Luft be- und Vakuum oder O2-armen Atmosphären entladen.
Die Verwendung Reaktiver Oxidkeramiken, welche im Vergleich zu den bisherigen Materialien höhere Sauerstoffaustauschmengen und -raten bei gleichzeitig hoher Lebensdauer und Korrosionsbeständigkeit sowie relativ einfacher Handhabe aufweisen würden, soll ein Schritt in Richtung einer effizienten alternativen Luftzerlegungstechnologie sein.
Mit den Reaktiven Oxidkeramiken in einer Luftzerlegungsanlage sollte es im besten Fall möglich sein, in kleinen Anlagen sehr reinen Sauerstoff und zugleich sauerstofffreies Inertgas zu erzeugen sowie eine Sauerstoffan- oder -abreicherung von Luft, Prozess- oder Abgasen zu generieren.
Somit besäße eine solche, auf Reaktiven Oxidkeramiken basierende Technologie sehr weit gefächerte Einsatzgebiete und demzufolge ein enormes wirtschaftliches Potential.
This thesis addresses an adaptive higher-order method based on a Geometry Independent Field approximatTion(GIFT) of polynomial/rationals plines over hierarchical T-meshes(PHT/RHT-splines).
In isogeometric analysis, basis functions used for constructing geometric models in computer-aided design(CAD) are also employed to discretize the partial differential equations(PDEs) for numerical analysis. Non-uniform rational B-Splines(NURBS) are the most commonly used basis functions in CAD. However, they may not be ideal for numerical analysis where local refinement is required.
The alternative method GIFT deploys different splines for geometry and numerical analysis. NURBS are utilized for the geometry representation, while for the field solution, PHT/RHT-splines are used. PHT-splines not only inherit the useful properties of B-splines and NURBS, but also possess the capabilities of local refinement and hierarchical structure. The smooth basis function properties of PHT-splines make them suitable for analysis purposes. While most problems considered in isogeometric analysis can be solved efficiently when the solution is smooth, many non-trivial problems have rough solutions. For example, this can be caused by the presence of re-entrant corners in the domain. For such problems, a tensor-product basis (as in the case of NURBS) is less suitable for resolving the singularities that appear since refinement propagates throughout the computational domain. Hierarchical bases and local refinement (as in the case of PHT-splines) allow for a more efficient way to resolve these singularities by adding more degrees of freedom where they are necessary. In order to drive the adaptive refinement, an efficient recovery-based error estimator is proposed in this thesis. The estimator produces a recovery solution which is a more accurate approximation than the computed numerical solution. Several two- and three-dimensional numerical investigations with PHT-splines of higher order and continuity prove that the proposed method is capable of obtaining results with higher accuracy, better convergence, fewer degrees of freedom and less computational cost than NURBS for smooth solution problems. The adaptive GIFT method utilizing PHT-splines with the recovery-based error estimator is used for solutions with discontinuities or singularities where adaptive local refinement in particular domains of interest achieves higher accuracy with fewer degrees of freedom. This method also proves that it can handle complicated multi-patch domains for two- and three-dimensional problems outperforming uniform refinement in terms of degrees of freedom and computational cost.
Die kommunale Energiewende stellt die beteiligten Akteure vor große Herausforderungen: Auf Grundlage strukturierter Daten sollen Maßnahmen
für eine nachhaltige Infrastruktur geplant und umgesetzt werden. Oft fehlt
den Beteiligten jedoch das nötige Wissen über die lokalen Potentiale und Rahmenbedingungen—und an geeigneten Methoden der Informationsvermittlung. Gegenstand dieser Arbeit ist die Analyse der Planungsstrukturen und der Entwurf eines visuellen Informationssystems. Mit der vorliegenden Untersuchung wird gezeigt, wie mit Hilfe von Befragungen, partizipativen Visualisierungen, fiktionalen Szenarien und der systematischen Anwendung visueller Variablen eine fundierte Grundlage geschaffen werden kann für eine nutzerorientierte Gestaltung.
Focusing on the neoliberal symbolic urban reconstruction of the Macedonian capital, known as “Skopje 2014”, the PhD work deals with urban space production through storytelling. Embracing the criticism put forward in the political, cultural and social debates that have spun around Skopje’s reconstruction, the artistic-based research sought to relate and analyze the symbolic narratives of “Skopje 2014” and the vernacular and civic narratives of Skopje and locate overlapping, divergent, complementary or conflictual aspects of their respective narrative structures. Informed by subjective citizens’ stories and experiences of the urban as well as binaural sonic observations of the city, the research findings were presented in the form of an interactive audio guided walk through the city. The thesis is organized in three chapters, preceded by an INTRODUCTION and followed by a CONCLUSION. CHAPTER ONE sets the theoretical context, presents the case study “Skopje 2014”, and discusses the research design. The audio guided walk is presented in CHAPTER TWO. Its content consists of five tracks, or subchapters, conceptualized and named as five different aspects of the city: THE MODERNIST CITY, THE FEMALE CITY, THE MEMORY CITY, THE POSTCOMMUNIST CITY and THE TOURIST CITY, according to the discourses related to these tracks. CHAPTER THREE, the EPILOGUE, is the final discussion of the research project, in which several meta-conclusions are drawn.
Identification of flaws in structures is a critical element in the management of maintenance and quality assurance processes in engineering. Nondestructive testing (NDT) techniques based on a wide range of physical principles have been developed and are used in common practice for structural health monitoring. However, basic NDT techniques are usually limited in their ability to provide the accurate information on locations, dimensions and shapes of flaws. One alternative to extract additional information from the results of NDT is to append it with a computational model that provides detailed analysis of the physical process involved and enables the accurate identification of the flaw parameters. The aim here is to develop the strategies to uniquely identify cracks in two-dimensional 2D) structures under dynamic loadings.
A local NDT technique combined eXtended Finite Element Method (XFEM) with dynamic loading in order to identify the cracks in the structures quickly and accurately is developed in this dissertation. The Newmark-b time integration method with Rayleigh damping is used for the time integration. We apply Nelder-Mead (NM)and Quasi-Newton (QN) methods for identifying the crack tip in plate. The inverse problem is solved iteratively, in which XFEM is used for solving the forward problem in each iteration. For a timeharmonic excitation with a single frequency and a short-duration signal measured along part of the external boundary, the crack is detected through the solution of an inverse time-dependent problem. Compared to the static load, we show that the dynamic loads are more effective for crack detection problems. Moreover, we tested different dynamic loads and find that NM method works more efficient under the harmonic load than the pounding load while the QN method achieves almost the same results for both load types.
A global strategy, Multilevel Coordinate Search (MCS) with XFEM (XFEM-MCS) methodology under the dynamic electric load, to detect multiple cracks in 2D piezoelectric plates is proposed in this dissertation. The Newmark-b method is employed for the time integration and in each iteration the forward problem is solved by XFEM for various cracks. The objective functional is minimized by using a global search algorithm MCS. The test problems show that the XFEM-MCS algorithm under the dynamic electric load can be effectively employed for multiple cracks detection in piezoelectric materials, and it proves to be robust in identifying defects in piezoelectric structures. Fiber-reinforced composites (FRCs) are extensively applied in practical engineering since they have high stiffness and strength. Experiments reveal a so-called interphase zone, i.e. the space between the outside interface of the fiber and the inside interface of the matrix. The interphase strength between the fiber and the matrix strongly affects the mechanical properties as a result of the large ratio of interface/volume. For the purpose of understanding the mechanical properties of FRCs with functionally graded interphase (FGI), a closed-form expression of the interface strength between a fiber and a matrix is obtained in this dissertation using a continuum modeling approach according to the ver derWaals (vdW) forces. Based on the interatomic potential, we develop a new modified nonlinear cohesive law, which is applied to study the interface delamination of FRCs with FGI under different loadings. The analytical solutions show that the delamination behavior strongly depends on the interphase thickness, the fiber radius, the Young’s moduli and Poisson’s ratios of the fiber and the matrix. Thermal conductivity is the property of a material to conduct heat. With the development and deep research of 2D materials, especially graphene and molybdenum disulfide (MoS2), the thermal conductivity of 2D materials attracts wide attentions. The thermal conductivity of graphene nanoribbons (GNRs) is found to appear a tendency of decreasing under tensile strain by classical molecular dynamics (MD) simulations. Hence, the strain effects of graphene can play a key role in the continuous tunability and applicability of its thermal conductivity property at nanoscale, and the dissipation of thermal conductivity is an obstacle for the applications of thermal management. Up to now, the thermal conductivity of graphene under shear deformation has not been investigated yet. From a practical point of view, good thermal managements of GNRs have significantly potential applications of future GNR-based thermal nanodevices, which can greatly improve performances of the nanosized devices due to heat dissipations. Meanwhile, graphene is a thin membrane structure, it is also important to understand the wrinkling behavior under shear deformation. MoS2 exists in the stable semiconducting 1H phase (1H-MoS2) while the metallic 1T phase (1T-MoS2) is unstable at ambient conditions. As it’s well known that much attention has been focused on studying the nonlinear optical properties of the 1H-MoS2. In a very recent research, the 1T-type monolayer crystals of TMDCs, MX2 (MoS2, WS2 ...) was reported having an intrinsic in-plane negative Poisson’s ratio. Luckily, nearly at the same time, unprecedented long-term (>3months) air stability of the 1T-MoS2 can be achieved by using the donor lithium hydride (LiH). Therefore, it’s very important to study the thermal conductivity of 1T-MoS2.
The thermal conductivity of graphene under shear strain is systematically studied in this dissertation by MD simulations. The results show that, in contrast to the dramatic decrease of thermal conductivity of graphene under uniaxial tensile, the thermal conductivity of graphene is not sensitive to the shear strain, and the thermal conductivity decreases only 12-16%. The wrinkle evolves when the shear strain is around 5%-10%, but the thermal conductivity barely changes.
The thermal conductivities of single-layer 1H-MoS2(1H-SLMoS2) and single-layer 1T-MoS2 (1T-SLMoS2) with different sample sizes, temperatures and strain rates have been studied systematically in this dissertation. We find that the thermal conductivities of 1H-SLMoS2 and 1T-SLMoS2 in both the armchair and the zigzag directions increase with the increasing of the sample length, while the increase of the width of the sample has minor effect on the thermal conductions of these two structures. The thermal conductivity of 1HSLMoS2 is smaller than that of 1T-SLMoS2 under size effect. Furthermore, the temperature effect results show that the thermal conductivities of both 1H-SLMoS2 and 1T-SLMoS2 decrease with the increasing of the temperature. The thermal conductivities of 1HSLMoS2 and 1T-SLMoS2 are nearly the same (difference <6%) in both of the chiral orientations under corresponding temperatures, especially in the armchair direction (difference <2.8%). Moreover, we find that the strain effects on the thermal conductivity of 1HSLMoS2 and 1T-SLMoS2 are different. More specifically, the thermal conductivity decreases with the increasing tensile strain rate for
1T-SLMoS2, while fluctuates with the growth of the strain for 1HSLMoS2. Finally, we find that the thermal conductivity of same sized 1H-SLMoS2 is similar with that of the strained 1H-SLMoS2 structure.
Modern immersive telepresence systems enable people at different locations to meet in virtual environments using realistic three-dimensional representations of their bodies. For the realization of such a three-dimensional version of a video conferencing system, each user is continuously recorded in 3D. These 3D recordings are exchanged over the network between remote sites. At each site, the remote recordings of the users, referred to as 3D video avatars, are seamlessly integrated into a shared virtual scenery and displayed in stereoscopic 3D for each user from his or her perspective.
This thesis reports on algorithmic and technical contributions to modern immersive telepresence systems and presents the design, implementation and evaluation of the first immersive group-to-group telepresence system in which each user is represented as realistic life-size 3D video avatar. The system enabled two remote user groups to meet and collaborate in a consistent shared virtual environment. The system relied on novel methods for the precise calibration and registration of color- and depth- sensors (RGBD) into the coordinate system of the application as well as an advanced distributed processing pipeline that reconstructs realistic 3D video avatars in real-time. During the course of this thesis, the calibration of 3D capturing systems was greatly improved. While the first development focused on precisely calibrating individual RGBD-sensors, the second stage presents a new method for calibrating and registering multiple color and depth sensors at a very high precision throughout a large 3D capturing volume. This method was further refined by a novel automatic optimization process that significantly speeds up the manual operation and yields similarly high accuracy. A core benefit of the new calibration method is its high runtime efficiency by directly mapping from raw depth sensor measurements into an application coordinate system and to the coordinates of its associated color sensor. As a result, the calibration method is an efficient solution in terms of precision and applicability in virtual reality and immersive telepresence applications. In addition to the core contributions, the results of two case studies which address 3D reconstruction and data streaming lead to the final conclusion of this thesis and to directions of future work in the rapidly advancing field of immersive telepresence research.
Landwirtschaftliche Biogasanlagen leisten mit ca. 9.300 Anlagen und einem Anteil von 5,3% an der Stromerzeugung, einen Beitrag zur Erzeugung Erneuer-barer Energien in Deutschland. Die Optimierung dieser Anlagen fördert die nachhaltige Bereitstellung von Strom, Wärme und BioErdgas.
Das Ergebnis dieser Forschungsarbeit ist die Entwicklung eines mehrmethodi-schen Bewertungsansatzes zur Beschreibung der Qualität der Eingangs-substrate als Teil einer ganzheitlichen Prozessoptimierung. Dies gelingt durch die kombinierte Nutzung klassischer Analysesätze, der Nutzung organolepti-scher Parameter – der humansensorischen Sinnenprüfung – und der Integration von prozess- und substratspezifischem Erfahrungswissen. Anhand von halbtechnischen Versuchen werden Korrelationen und Kausalitäten zwi-schen chemisch-physikalischen, biologischen, organoleptischen und erfahrungsbezogenen Parametern erforscht. Die Entwicklung einer Fallbasis mit Hilfe des Fallbasierten Schließens, einer Form Künstlicher Intelligenz, zeigt das Entwicklungs- und Integrationspotenzial der Automatisierung auf, insbesondere auch im Hinblick auf neue Ansätze z.B. Industrie 4.0. Erste Lösungen zur Bewältigung der identifizierten Herausforderungen der mehrmethodischen Prozessbewertung werden vorgestellt.
Abschließend wird ein Ausblick auf den weiteren Forschungsbedarf gegeben und die Übertragbarkeit des mehrmethodischen Bewertungsansatzes auf andere Anwendungsfelder z.B. Bioabfallbehandlung, Kläranlagen angeregt.
Gashochdruckleitungen aus Stahl werden mit Hilfe eines deterministischen Sicherheitskonzeptes bemessen. Im unveränderten Bemessungszustand und im bestimmungsgemäßem Betrieb ist die statische Tragfähigkeit der Gashochdruckleitungen gegeben.
Mit den Jahren unterliegen Gashochdruckleitungen aus Stahl geometrischen Veränderungen, die häufig durch Korrosion hervorgerufen werden. Die Beurteilung der statischen Tragfähigkeit erfolgt dann unter Berücksichtigung dieser geometrischen Änderung.
Deterministische Sicherheitsbeiwerte der Bemessung neuer Gashochdruckleitungen können für die Bemessung bestehender korrosionsgeschädigter Gashochdruckleitungen nicht herangezogen werden, da diese einen definierten Beanspruchungs- und Geometriezustand unterstellen, welcher durch den geometrischen Einfluss der Korrosion so nicht mehr besteht.
Die Arbeit befasst sich mit der Ermittlung deterministischer Sicherheitsbeiwerte für die Bemessung korrosionsgeschädigter Gashochdruckleitungen auf Basis von Versagenswahrscheinlichkeiten und stellt ein Anwendungskonzept zu deren Nutzung vor.
The Garden Suburbs of Cairo. A morphological urban analysis of Zamālik, Ma‘ādī, and Heliopolis
(2019)
During the British occupation of Egypt in the beginning of the 20th century, several suburban developments were established on the periphery of the city of Cairo. These initially attracted the small British community and later foreigners and Egyptians, mainly from the elite community. These suburban developments, including Ma‘ādī, Zamālik, Heliopolis, Qubbah-Gardens, and Garden City, became the fashionable residential quarters of Cairo. Until now, some of these areas still represent the distinguishable residential settlements of the city. Ma‘ādī, Zamālik, and Heliopolis specifically are nostalgically appropriated in the design of recent suburban developments around Greater Cairo.
Some of the 20th century suburban developments around Cairo are labeled or described as “garden cities.” During the early 20th century, two thriving British town planning movements emerged, namely, the garden city movement and the garden suburb movement. This study investigates the hypothesis that these suburban developments, are indeed “garden suburbs” like the British movement, despite that few are labeled or described as “garden cities,”. Although several studies have examined the historical development of such settlements, their relation, however, to the British planning movements and their transfer process received little attention from planning historians. Few studies also analyze the urban design aspects that made these suburban developments distinguishable since their foundation and until today.
To guide the validity of this study’s hypothesis, a set of research questions are formulated: (1) What is the difference between the garden city and the garden suburb movements? (2) How were the British planning movements transferred to Egypt? (3) What are the urban design aspects that makes these suburban developments distinguishable as garden suburbs? To answer these research questions, a historical morphological urban analysis is conducted through case studies.
The study first studies the difference between the garden city and the garden suburb movements, mainly in Britain, through the analysis of publications on the promoter of both movements: for the garden city, E. Howards’ book “The Garden City of Tomorrow,” published in 1902, and for the garden suburb, R. Unwin’s books “Town Planning in Practice,” published in 1909, and “Nothing Gained from Overcrowding,” published in 1912. Then a morphological urban analysis of Letchworth Garden City and Brentham Garden Suburb, considered the first examples of each movement, is conducted. In order to analyze the transfer process, the study adopts M. Volait and J. Nasr’s theory on transporting planning, through investigating the authority in power responsible for the establishment of these suburban developments. This is followed by the morphological urban analysis of three suburban developments around Cairo, namely, Zamālik, Ma‘ādī, and Heliopolis. The morphological analysis focuses on the background of their establishment, authority in power responsible for the development, design principles, urban context, street typology, residential block typology, social infrastructure, and social target group.
Finally, the study compares between Brentham, Letchworth, Zamālik, Ma‘ādī, and Heliopolis. The comparative analysis aims to highlight the differences between the studied cases of Cairo and how they are different from or alike the British movements. This study concludes that the suburban developments around Cairo during the British occupation, are in fact garden suburbs, despite that some are being described or labeled as garden city. This movement was exported via urban land development companies with foreign European capital, rather than via colonial dominance. It finally highlights a set of urban design aspects that distinguish them as garden suburbs of Cairo. This study hopes to support future conservation plan of these areas and the design of future suburban developments.
Die Dissertation umfasst eine vertiefende Untersuchung der denkmalpflegerischen Erfassung von Siedlungen und Wohnanlagen als eine der wichtigsten und umfangreichsten Bautypologien der 1950er bis 1980er Jahre in Westeuropa. Die Beschäftigung mit Bauten der 1950er bis 1980er Jahre führt bei Denkmalpflegern, Architekten, Bewohnern und Politikern immer wieder zu Überlegungen, ob diese besondere Erfassungs- und Erhaltungsstrategien erfordern. Dabei wirft die Typologie des Siedlungsbaus besondere Fragen auf, da sie neben architektonischen Aspekten auch städtebauliche, landschaftsplanerische und sozialwissenschaftliche Bedeutungsebenen umfasst. Nicht zuletzt sind Siedlungen der 1950er bis 1980er Jahre aus denkmalpflegerischer Sicht häufig stark gefährdet. Obwohl die meisten Siedlungen noch nicht ausreichend kunsthistorisch gewürdigt und erfasst sind, unterliegen sie einem hohen Veränderungsdruck. Die teilweise enorme städtebauliche Dimension und Monofunktionalität der Anlagen, die häufig aufgrund von seriellen Bautypen und vorfabrizierten Elementen gleichförmige architektonische Gestaltung und eine Vernachlässigung im Bauunterhalt erschweren den Zugang zu dieser Baugattung. Gewandelte Wohnbedürfnisse sowie bauphysikalische, energietechnische oder ästhetische Maßnahmen führen zur Veränderung der noch relativ jungen Bausubstanz. Zudem weisen Siedlungen der Nachkriegszeit aufgrund ihrer teilweise sehr großzügigen Freiraumstruktur ein großes Potential zur Nachverdichtung auf. Die Auswahl der in dieser Arbeit untersuchten Länder und Siedlungen ergab sich aus der Auswertung einer europaweiten Befragung von Denkmalämtern sowie anschließend geführten Gesprächen mit Fachleuten. Die untersuchten 20 Siedlungen und Wohnanlagen repräsentieren verschiedene Länder (Deutschland, Österreich, Schweiz, Frankreich, Niederlande, England) sowie Bauepochen und Siedlungstypologien, die von der Einfamilienhaussiedlung über Siedlungen mit gemischter Bautypologie hin zur Großsiedlung reichen. Anhand der unterschiedlichen Fallbeispiele wird aufgezeigt, inwiefern die jeweiligen Länder, Bauepochen beziehungsweise Siedlungstypologien Einfluss auf die denkmalpflegerischen Erfassungsstrategien haben. Zusammenfassend lässt sich resümieren, dass die Gesetzesgrundlagen und Denkmalkriterien für eine denkmalpflegerische Erfassung von Bauten der 1950er bis 1980er Jahre in den meisten Ländern konstant bleiben, während sich in den Bereichen Zeitpunkt, Auswahl und Einbindung der Öffentlichkeit eine Modifizierung oder zumindest eine Reflektion der bisherigen Strukturen abzeichnet. Sinnvoll und wünschenswert erscheint darüber hinaus ein verstärkter Austausch der Denkmalpflege über die nationalen Grenzen hinweg und ein gegenseitiges Lernen voneinander.
Gashochdruckleitungen aus Stahl werden mit Hilfe eines deterministischen Sicherheitskonzeptes bemessen. Im unveränderten Bemessungszustand und im bestimmungsgemäßem Betrieb ist die statische Tragfähigkeit der Gashochdruckleitungen gegeben.
Mit den Jahren unterliegen Gashochdruckleitungen aus Stahl geometrischen Veränderungen, die häufig durch Korrosion hervorgerufen werden. Die Beurteilung der statischen Tragfähigkeit erfolgt dann unter Berücksichtigung dieser geometrischen Änderung.
Deterministische Sicherheitsbeiwerte der Bemessung neuer Gashochdruckleitungen können für die Bemessung bestehender korrosionsgeschädigter Gashochdruckleitungen nicht herangezogen werden, da diese einen definierten Beanspruchungs- und Geometriezustand unterstellen, welcher durch den geometrischen Einfluss der Korrosion so nicht mehr besteht.
Die Arbeit befasst sich mit der Ermittlung deterministischer Sicherheitsbeiwerte für die Bemessung korrosionsgeschädigter Gashochdruckleitungen auf Basis von Versagenswahrscheinlichkeiten und stellt ein Anwendungskonzept zu deren Nutzung vor.
The evolution of urbanism under dictatorship forms the core of the current research. This thesis is part of a research network at Bauhaus-Universität Weimar, which studies the 20th century's urbanism under different dictatorships. The network has provided a cross-cultural and cross-border environment and has enabled the author to communicate with other like-minded researchers. The 2015 published book of this group 'Urbanism and Dictatorship: A European Perspective' strengthens the foundation of this research's theoretical and methodological framework.
This thesis investigates urban policies and plans leading to the advancement of urbanization and the transformation of urban space in Iran during the second Pahlavi (1941-1979) when the country faced a milestone in its history: Nationalization of the Iranian oil industry. By reflecting the influence of economic and socio‐political determinants of the time on urbanism and the urbanization process, this work intends to critically trace the effect of dictatorship on evolved urbanism before and after the oil nationalization in 1951.
The research on the second Pahlavi's urbanism has been limitedly addressed and has only recently expanded. Most of the conducted studies date back to less than a decade ago and could not incorporate all the episodes of the second Pahlavi urbanism. These works have often investigated urbanism and architecture by focusing merely on the physical features and urban products in different years regardless of the importance of urbanism as a tool in the service of hegemony. In other words, the majority of the available literature does not intend to address the socio-economic and political roots of urban transformations and by questioning 'what has been built?' investigates the individual urban projects and plans designed by individual designers without interlinking these projects to the state's urban planning program and tracing the beneficiaries of those projects or questioning 'built for whom?'
Moreover, some chapters of this modern urbanism have rarely been investigated. For instance, scant research has looked into the works of foreign designers and consultants involved in the projects such as Peter Georg Ahrens or Constantinos A. Doxiadis. Similarly, the urbanism of the first decade of the second Pahlavi, including the government of Mossadegh, has mainly been overlooked.
Therefore, by critically analyzing the state's urban planning program and the process of urbanization in Iran during the second Pahlavi, this research aims to bridge the literature gap and to unravel the effect of the power structure on urban planning and products while seeking to find a pattern behind the regime's policies.
The main body of this work is concentrated on studying the history of urbanism in Iran, of which collecting data and descriptions played a crucial role. To prevent the limitations associated with singular methods, this research's methodology is based on methodological triangulation (Denzin, 2017). With the triangulation scheme, the data is gathered by combining different qualitative and quantitative methods such as the library, archival and media research, online resources, non-participatory observation, and photography. For the empirical part, the city of Tehran is selected as the case study. Moreover, individual non-structured interviews with the locals were conducted to gain more insights regarding urban projects.
Marine Makroalgen besitzen vielversprechende Eigenschaften und Inhaltsstoffe für die Verwendung als Energieträger, Nahrungsmittel oder als Ausgangsstoff für Pharmazeutika. Dass die Quantität und Qualität der in natürlicher Umgebung wachsenden Makroalgen schwankt, reduziert jedoch deren Verwertbarkeit und erschwert die Erschließung hochpreisiger Marktsegmente. Zudem ist eine Ausweitung der Zucht in marinen und küstennahen Aquakulturen in Europa gegenwärtig wenig aussichtsreich, da vielversprechende Areale bereits zum Fischfang oder als Erholungs- bzw. Naturschutzgebiete ausgewiesen sind. Im Rahmen dieser Arbeit wird demzufolge ein geschlossenes Photobioreaktorsystem zur Makroalgenkultivierung entwickelt, welches eine umfassende Kontrolle der abiotischen Kultivierungsparameter und eine effektive Aufbereitung des Kulturmediums vorsieht, um eine standortunabhängige Algenproduktion zu ermöglichen. Zur Bilanzierung des Gesamtkonzeptes einer Kultivierung und Verwertung (stofflich oder energetisch) werden die spezifischen Wachstumsraten und Methanbildungspotentiale der Algenarten Ulva intestinalis, Fucus vesiculosus und Palmaria palmata in praktischen Versuchen ermittelt.
Im Ergebnis wird für den gegenwärtigen Entwicklungsstand der Kultivierungsanlage eine positive Bilanz für die stoffliche Verwertung der Algenart Ulva intestinalis und eine negative Bilanz für die energetische Verwertung aller untersuchten Algenarten erzielt. Wird ein Optimalszenario betrachtet, indem die Besatzdichten und Wachstumsraten der Algen in der Zucht erhöht werden, bleibt die Energiebilanz negativ. Allerdings summieren sich die finanzielle Einnahmen durch einen Verkauf der Algen als Produkt auf jährlich 460.869€ für Ulva intestinalis, 4.010€ für Fucus vesiculosus und 16.913€ für Palmaria palmata. Im Ergebnis ist insbesondere eine stoffliche Verwertung der gezüchteten Grünalge Ulva intestinalis anzustreben und die Produktivität der Zuchtanlage im Sinne des Optimalszenarios zu steigern.
This study permits a reliability analysis to solve the mechanical behaviour issues existing in the current structural design of fabric structures. Purely predictive material models are highly desirable to facilitate an optimized design scheme and to significantly reduce time and cost at the design stage, such as experimental characterization.
The present study examined the role of three major tasks; a) single-objective optimization, b) sensitivity analyses and c) multi-objective optimization on proposed weave structures for woven fabric composites. For single-objective optimization task, the first goal is to optimize the elastic properties of proposed complex weave structure under unit cells basis based on periodic boundary conditions.
We predict the geometric characteristics towards skewness of woven fabric composites via Evolutionary Algorithm (EA) and a parametric study. We also demonstrate the effect of complex weave structures on the fray tendency in woven fabric composites via tightness evaluation. We utilize a procedure which does not require a numerical averaging process for evaluating the elastic properties of woven fabric composites. The fray tendency and skewness of woven fabrics depends upon the behaviour of the floats which is related to the factor of weave. Results of this study may suggest a broader view for further research into the effects of complex weave structures or may provide an alternative to the fray and skewness problems of current weave structure in woven fabric composites.
A comprehensive study is developed on the complex weave structure model which adopts the dry woven fabric of the most potential pattern in singleobjective optimization incorporating the uncertainties parameters of woven fabric composites. The comprehensive study covers the regression-based and variance-based sensitivity analyses. The second task goal is to introduce the fabric uncertainties parameters and elaborate how they can be incorporated into finite element models on macroscopic material parameters such as elastic modulus and shear modulus of dry woven fabric subjected to uni-axial and biaxial deformations. Significant correlations in the study, would indicate the need for a thorough investigation of woven fabric composites under uncertainties parameters. The study describes here could serve as an alternative to identify effective material properties without prolonged time consumption and expensive experimental tests.
The last part focuses on a hierarchical stochastic multi-scale optimization approach (fine-scale and coarse-scale optimizations) under geometrical uncertainties parameters for hybrid composites considering complex weave structure. The fine-scale optimization is to determine the best lamina pattern that maximizes its macroscopic elastic properties, conducted by EA under the following uncertain mesoscopic parameters: yarn spacing, yarn height, yarn width and misalignment of yarn angle. The coarse-scale optimization has been carried out to optimize the stacking sequences of symmetric hybrid laminated composite plate with uncertain mesoscopic parameters by employing the Ant Colony Algorithm (ACO). The objective functions of the coarse-scale optimization are to minimize the cost (C) and weight (W) of the hybrid laminated composite plate considering the fundamental frequency and the buckling load factor as the design constraints.
Based on the uncertainty criteria of the design parameters, the appropriate variation required for the structural design standards can be evaluated using the reliability tool, and then an optimized design decision in consideration of cost can be subsequently determined.
Space is a social product and a social producer. The main aim of this thesis is to reveal ‘the process of totalitarian city making in Pyongyang’, especially in the light of the interaction between the power and urban space.
The totalitarian city of Pyongyang was born out of modernization in the process of masses formation. During the growth of colonial capitalism and Christian liberal ideas, Pyongyang was modernized and displayed the characteristics of a modern city with industrialization and urbanization. During the introduction of Japanese colonial capitalism, peasants, women, and slaves became the first masses and urban poor, and they later transformed into the mob; their violence was finally demonstrated during the Anti-Chinese Riot.
After the 1945 independence, Kim’s regime formed the one-party state with a cry for revolution. They produced an atmosphere of imminent war to instill fear and hatred into the psyche of Pyongyang citizens. The regime eliminated all political opponents in 1967 and finally declared the totalitarian ideology in 1974. During this process, Pyongyang demonstrated two main characteristics of a totalitarian city: the space of terror and of ideology. The space of terror produces the fear of death and the space of ideology controls the thought and life of citizens.
After entry to the market, to keep Kim’s controlling power, the regime used the strategy of location exchange. The camp, market, and Foreign Currency Shop were effective tools to prepare for executives’ gifts. However, the market also produces the desire not only for consumption but also for freedom and truth; it is tearing down the foundation of the totalitarian city of Pyongyang.
This research focuses primarily on the interaction between political power and urban space. In the process of making a totalitarian city, the power produced urban space and it influenced the psyche of Pyongyang citizens. Even though this spatial transition has created the totalitarian city and helped maintain political power, it also led and produced intended or unintended social variation in Pyongyang society.
Rechargeable lithium ion batteries (LIBs) play a very significant role in power supply and storage. In recent decades, LIBs have caught tremendous attention in mobile communication, portable electronics, and electric vehicles. Furthermore, global warming has become a worldwide issue due to the ongoing production of greenhouse gases. It motivates solutions such as renewable sources of energy. Solar and wind energies are the most important ones in renewable energy sources. By technology progress, they will definitely require batteries to store the produced power to make a balance between power generation and consumption. Nowadays,rechargeable batteries such as LIBs are considered as one of the best solutions. They provide high specific energy and high rate performance while their rate of self-discharge is low.
Performance of LIBs can be improved through the modification of battery characteristics. The size of solid particles in electrodes can impact the specific energy and the cyclability of batteries. It can improve the amount of lithium content in the electrode which is a vital parameter in capacity and capability of a battery. There exist diferent sources of heat generation in LIBs such as heat produced during electrochemical reactions, internal resistance in battery. The size of electrode's electroactive particles can directly affect the produced heat in battery. It will be shown that the smaller size of solid particle enhance the thermal characteristics of LIBs.
Thermal issues such as overheating, temperature maldistribution in the battery, and thermal runaway have confined applications of LIBs. Such thermal challenges reduce the Life cycle of LIBs. As well, they may lead to dangerous conditions such as fire or even explosion in batteries. However, recent advances in fabrication of advanced materials such as graphene and carbon nanotubes with extraordinary thermal conductivity and electrical properties propose new opportunities to enhance their performance. Since experimental works are expensive, our objective is to use computational methods to investigate the thermal issues in LIBS. Dissipation of the heat produced in the battery can improve the cyclability and specific capacity of LIBs. In real applications, packs of LIB consist several battery cells that are used as the power source. Therefore, it is worth to investigate thermal characteristic of battery packs under their cycles of charging/discharging operations at different applied current rates. To remove the produced heat in batteries, they can be surrounded by materials with high thermal conductivity. Parafin wax absorbs high energy since it has a high latent heat. Absorption high amounts of energy occurs at constant temperature without phase change. As well, thermal conductivity of parafin can be magnified with nano-materials such as graphene, CNT, and fullerene to form a nano-composite medium. Improving the thermal conductivity of LIBs increase the heat dissipation from batteries which is a vital issue in systems of battery thermal management. The application of two-dimensional (2D) materials has been on the rise since exfoliation the graphene from bulk graphite. 2D materials are single-layered in an order of nanosizes which show superior thermal, mechanical, and optoelectronic properties. They are potential candidates for energy storage and supply, particularly in lithium ion batteries as electrode material. The high thermal conductivity of graphene and graphene-like materials can play a significant role in thermal management of batteries. However, defects always exist in nano-materials since there is no ideal fabrication process. One of the most important defects in materials are nano-crack which can dramatically weaken the mechanical properties of the materials. Newly synthesized crystalline carbon nitride with the stoichiometry of C3N have attracted many attentions due to its extraordinary mechanical and thermal properties. The other nano-material is phagraphene which shows anisotropic mechanical characteristics which is ideal in production of nanocomposite.
It shows ductile fracture behavior when subjected under uniaxial loadings. It is worth to investigate their thermo-mechanical properties in its pristine and defective states. We hope that the findings of our work not only be useful for both experimental and theoretical researches but also help to design advanced electrodes for LIBs.
Vor dem Hintergrund einer stetig wachsenden Nachfrage an Beton wie auch ambitionierter Reduktionsziele beim in der Zementproduktion anfallenden CO2 gelten calcinierte Tone als derzeit aussichtsreichste technische Neuerung im Bereich nachhaltiger Bindemittelkonzepte. Unter Ausnutzung ihrer Puzzolanität soll ein erheblicher Teil der Klinkerkomponente im Zement ersetzt werden, wobei der zu ihrer Aktivierung notwendige Energiebedarf vergleichsweise niedrig ist. Wesentliche Vorteile der Tone sind ihre weltweit nahezu unbegrenzte Verfügbarkeit sowie der äußerst geringe rohstoffbedingte CO2-Ausstoß während der Calcinierung. Schwierigkeiten auf dem Weg der Umsetzung bestehen allerdings in der Vielseitigkeit des Systems, welches durch eine hohe Varietät der Rohtone und des daraus folgenden thermischen Verhaltens gekennzeichnet ist. Entsprechend schwierig ist die Übertragbarkeit von Erfahrungen mit bereits etablierten calcinierten Tonen wie dem Metakaolin, der sich durch hohe Reinheit, einen aufwendigen Aufbereitungsprozess und eine entsprechend hohe Reaktivität auszeichnet. Ziel der Arbeit ist es daher, den bereits erlangten Kenntnisstand auf andere, wirtschaftlich relevante Tone zu erweitern und deren Eignung für die Anwendung im Beton herauszuarbeiten.
In einem mehrstufigen Arbeitsprogramm wurde untersucht, inwieweit großtechnisch nutzbare Tone aktivierbar sind und welche Eigenschaften sich daraus für Zement und Beton ergeben. Die dabei festgestellte Reihenfolge Kaolinit > Montmorillonit > Illit beschreibt sowohl die Reaktivität der Brennprodukte als auch umgekehrt die Höhe der optimalen Calciniertemperatur. Auch wandelt sich der Charakter der entstandenen Metaphasen in dieser Abfolge von röntgenamorph und hochreaktiv zu glasig und reaktionsträge. Trotz dieser Einordnung konnte selbst mit dem Illit eine mit Steinkohlenflugasche vergleichbare Puzzolanität festgestellt werden. Dies bestätigte sich anschließend in Parameterversuchen, bei denen die Einflüsse von Rohstoffqualität, Calcinierung, Aufbereitung und Zement hinsichtlich der Reaktivitätsausbeute bewertet wurden. Die Bandbreite der erzielbaren Qualitäten ist dabei immens und gipfelt nicht zuletzt in stark unterschiedlichen Wirkungen auf die Festbetoneigenschaften. Hier machte sich vor allem die für Puzzolane typische Porenverfeinerung bemerkbar, sodass viele von Transportvorgängen abhängige Schadmechanismen unterdrückt wurden. Andere Schadex-positionen wie der Frostangriff ließen sich durch Zusatzmaßnahmen wie dem Eintrag von Luftporen beherrschen. Zu bemängeln sind vor allem die schlechte Verarbeitbarkeit kaolinitischer Metatone wie auch die für Puzzolane stark ausgeprägte Carbonatisierungsneigung.
Wesentliches Ergebnis der Arbeit ist, dass auch Tone, die bisher als geringwertig bezüglich des Aktivierungspotentials galten, nutzbare puzzolanische Eigenschaften entwickeln können. So kann selbst ein stark verunreinigter Illit-Ton die Qualität von Flugasche erreichen. Mit stei-gendem Tonmineralgehalt sowie bei Präsens thermisch instabilerer Tonminerale wie Mont-morillonit und Kaolinit erweitert sich das Spektrum nutzbarer Puzzolanitäten bis hin zur hochreaktiven Metakaolin-Qualität. Damit lassen sich gute bis sehr gute Betoneigenschaften erzielen, sodass die Leistungsfähigkeit etablierter Kompositmaterialien erreicht wird. Somit sind die Voraussetzungen für eine umfangreiche Nutzung der erheblichen Tonmengen im Zement und Beton gegeben. Entsprechend können Tone einen effektiven Beitrag zu einer gesteigerten Nachhaltigkeit in der Baustoffproduktion weltweit leisten.
Synergistic Framework for Analysis and Model Assessment in Bridge Aerodynamics and Aeroelasticity
(2020)
Wind-induced vibrations often represent a major design criterion for long-span bridges. This work deals with the assessment and development of models for aerodynamic and aeroelastic analyses of long-span bridges.
Computational Fluid Dynamics (CFD) and semi-analytical aerodynamic models are employed to compute the bridge response due to both turbulent and laminar free-stream. For the assessment of these models, a comparative methodology is developed that consists of two steps, a qualitative and a quantitative one. The first, qualitative, step involves an extension
of an existing approach based on Category Theory and its application to the field of bridge aerodynamics. Initially, the approach is extended to consider model comparability and completeness. Then, the complexity of the CFD and twelve semi-analytical models are evaluated based on their mathematical constructions, yielding a diagrammatic representation of model quality.
In the second, quantitative, step of the comparative methodology, the discrepancy of a system response quantity for time-dependent aerodynamic models is quantified using comparison metrics for time-histories. Nine metrics are established on a uniform basis to quantify the discrepancies in local and global signal features that are of interest in bridge aerodynamics. These signal features involve quantities such as phase, time-varying frequency and magnitude content, probability density, non-stationarity, and nonlinearity.
The two-dimensional (2D) Vortex Particle Method is used for the discretization of the Navier-Stokes equations including a Pseudo-three dimensional (Pseudo-3D) extension within an existing CFD solver. The Pseudo-3D Vortex Method considers the 3D structural behavior for aeroelastic analyses by positioning 2D fluid strips along a line-like structure. A novel turbulent Pseudo-3D Vortex Method is developed by combining the laminar Pseudo-3D VPM and a previously developed 2D method for the generation of free-stream turbulence. Using analytical derivations, it is shown that the fluid velocity correlation is maintained between the CFD strips.
Furthermore, a new method is presented for the determination of the complex aerodynamic admittance under deterministic sinusoidal gusts using the Vortex Particle Method. The sinusoidal gusts are simulated by modeling the wakes of flapping airfoils in the CFD domain with inflow vortex particles. Positioning a section downstream yields sinusoidal forces that are used for determining all six components of the complex aerodynamic admittance. A closed-form analytical relation is derived, based on an existing analytical model. With this relation, the inflow particles’ strength can be related with the target gust amplitudes a priori.
The developed methodologies are combined in a synergistic framework, which is applied to both fundamental examples and practical case studies. Where possible, the results are verified and validated. The outcome of this work is intended to shed some light on the complex wind–bridge interaction and suggest appropriate modeling strategies for an enhanced design.
Diese Dissertation beschäftigt sich mit Kunstwerken, die das alltägliche Ding in den Blick nehmen. Nährboden dieser Kunstform sind die soziokulturellen Entwicklungen des 20. Jahrhunderts, mit denen wesentliche Veränderungen hinsichtlich des Verhältnisses von Mensch und Ding einhergingen.
Daraus resultierte eine allgemeine künstlerische Zuwendung zu den Dingen und eine einzigartige Kulmination aus verschiedenartigen Auseinandersetzungen mit ihnen als kunstfähige Gegenstände, über die sich die neue Dingwelt erschlossen wurde und deren Kunstwerke einen Spiegel dieser Entwicklungen darstellen.
Die Dissertation stellt ebenfalls die Dinge selbst in den Fokus. Vier Aspekte von Dingen (Materialität, Funktionalität, Repräsentationalität und Relationalität) werden gesondert ins Auge gefasst und in den theoretischen Diskurs des 20. Jahrhunderts eingeordnet, um sie als Teil der gelebten Realität besser zu verstehen, von der sich der ästhetische Blick nicht trennen lässt. Anhand der künstlerischen Positionen von Robert Rauschenberg, Christo und Jeanne-Claude, Daniel Spoerri und Arman sowie Claes Oldenburg werden die verschiedenen Aspekte der Dinge näher betrachtet und analysiert, wie diese speziell in den Kunstwerken thematisiert werden und welche Relevanz sie für deren Rezeptionserfahrung haben.
Die Korrelation dieser beiden Ebenen - die Dinge als konstitutiver Bestandteil im sozialen Raum und die Dinge als Elemente in Kunstwerken -, die im Fokus der vorliegenden Untersuchung steht, ermöglicht es, die künstlerische Zuwendung zu den Dingen in den 1960er-Jahren neu einzuordnen. Darüber hinaus wird dadurch ein differenziertes Bild von der Kunst dieser Zeit sowie den Dingen in der Kunst im Allgemeinen gezeichnet.
In einer systematischen Interpretation von Vilém Flussers Werk schlägt die Arbeit vor, Flussers Ansatz als einen medienphilosophischen zu verstehen, insofern er das „wie“ der medienphilosophischen Fragestellung in den Mittelpunkt rückt. Medien werden nicht erst dann zu einem wesentlichen Bestandteil von Flussers Philosophie, wenn er sie explizit zum Gegenstand seiner Untersuchungen der gegenwärtigen Kultur und Gesellschaft oder historischer Rückblicke macht; Denken vollzieht sich immer in Medien oder medialen Praktiken, es wird nicht nur von ihnen (mit) geprägt – ohne Medien gäbe es kein Denken und umgekehrt verändert sich Philosophie mit den (jeweils) neuen Medien. Ausgehend von Begriffen oder eher Denkfiguren, die neben dem „was“ des jeweils verhandelten Themas auch das „wie“ der Reflexion selbst adressieren, wird der „Umbruch in der Struktur des Denkens“ zugleich als Beschreibung von Medienumbrüchen verstanden – mit dem Fluchtpunkt des Sprungs in das Universum der Komputation – und als Vollzug der gegenwärtigen Veränderung der „Methode des Denkens“. Flussers (Ver)Suche einer Reflexion, die nicht mehr durch das Medium Schrift strukturiert ist, sondern sowohl alten Medien wie dem Bild – bzw. Praktiken des Abbildens, Darstellens, Einbildens usw. – als auch neuen Medien – dem Komputieren – Geltung verschafft, laufen auf eine widersprüchliche Diagnose des neuen Universums der Komputation (anders: der technischen Bilder) hinaus : eine kybermetisch inspirierte Vision der frei modellierbaren Wirklichkeit(en) einerseits und die Dystopie einer Welt, in der Apparaten Denken, Wahrnehmen und Handeln beherrschen andererseits. Die Arbeit zeigt auf, wie Flusser zu dieser Aporie der Medienreflexion – die weit über Flussers Werk hinaus virulent bleibt – gelangt und wie sie, ausgehend von seiner Figur der Geste, im Sinne einer performativen Medienreflexion gelöst werden könnte.
This thesis explores how cultural heritage plays a role in the development of urban identity by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architectural heritage is a medium where specific cultural and social decisions form its way of presentation, and it reflects the values and interests of the period. By the process of remembering and forgetting, the meanings between inhabitant and object in urban environment are practiced, and the meanings are created.
To enable the research in narrative observation, cultural tourism management is chosen as the main research object, which reflects the alteration of interaction between the architectural heritage and urban identity. Identifying the role of heritage management, the definition of social resilience and the prospects of cultural heritage as a means of social resilience are addressed. Case region of the research is East Ger- many, thereby, the study examines the distinct approaches and objectives regarding heritage management under the different political systems along the German reunification process.
The framework is based on various theoretical paradigms to investigate the broad research questions: 1) What is the role of historic urban quarters in the revitalisation of East German towns? 2) How was the transition processed by cultural heritage management? 3) How did policy affect residents’ lives?
The case study is applied to macro level (city level: Gotha and Eisenach) and micro level study (object level: specific heritage sites), to analyse the performance of selective remembering and making tourist destination through giving significance to specific heritage. By means of site observations, archival research, qualitative inter- views, photographs, and discourse analysis on printed tourism materials, the study demonstrates that certain sites and characteristics of the city enable creating and focusing messages, which aids the social resilience.
Combining theory and empirical studies this thesis attempts to widen the academic discussion regarding the practice of remembering and forgetting driven by cultural heritage. The thesis argues for cultural heritage tourism as an element of social resilience and one that embraces the historic and cultural identity of the inhabitants.
Self-healing materials have recently become more popular due to their capability to autonomously and autogenously repair the damage in cementitious materials. The concept of self-healing gives the damaged material the ability to recover its stiffness. This gives a difference in comparing with a material that is not subjected to healing. Once this material is damaged, it cannot sustain loading due to the stiffness degradation. Numerical modeling of self-healing materials is still in its infancy. Multiple experimental researches were conducted in literature to describe the behavior of self-healing of cementitious materials. However, few numerical investigations were undertaken.
The thesis presents an analytical framework of self-healing and super healing materials based on continuum damage-healing mechanics. Through this framework, we aim to describe the recovery and strengthening of material stiffness and strength. A simple damage healing law is proposed and applied on concrete material. The proposed damage-healing law is based on a new time-dependent healing variable. The damage-healing model is applied on isotropic concrete material at the macroscale under tensile load. Both autonomous and autogenous self-healing mechanisms are simulated under different loading conditions. These two mechanisms are denoted in the present work by coupled and uncoupled self-healing mechanisms, respectively. We assume in the coupled self-healing that the healing occurs at the same time with damage evolution, while we assume in the uncoupled self-healing that the healing occurs when the material is deformed and subjected to a rest period (damage is constant). In order to describe both coupled and uncoupled healing mechanisms, a one-dimensional element is subjected to different types of loading history.
In the same context, derivation of nonlinear self-healing theory is given, and comparison of linear and nonlinear damage-healing models is carried out using both coupled and uncoupled self-healing mechanisms. The nonlinear healing theory includes generalized nonlinear and quadratic healing models. The healing efficiency is studied by varying the values of the healing rest period and the parameter describing the material characteristics. In addition, theoretical formulation of different self-healing variables is presented for both isotropic and anisotropic maerials. The healing variables are defined based on the recovery in elastic modulus, shear modulus, Poisson's ratio, and bulk modulus. The evolution of the healing variable calculated based on cross-section as function of the healing variable calculated based on elastic stiffness is presented in both hypotheses of elastic strain equivalence and elastic energy equivalence. The components of the fourth-rank healing tensor are also obtained in the case of isotropic elasticity, plane stress and plane strain.
Recent research revealed that self-healing presents a crucial solution also for the strengthening of the materials. This new concept has been termed ``Super Healing``. Once the stiffness of the material is recovered, further healing can result as a strengthening material. In the present thesis, new theory of super healing materials is defined in isotropic and anisotropic cases using sound mathematical and mechanical principles which are applied in linear and nonlinear super healing theories. Additionally, the link of the proposed theory with the theory of undamageable materials is outlined. In order to describe the super healing efficiency in linear and nonlinear theories, the ratio of effective stress to nominal stress is calculated as function of the super healing variable. In addition, the hypotheses of elastic strain and elastic energy equivalence are applied. In the same context, new super healing matrix in plane strain is proposed based on continuum damage-healing mechanics.
In the present work, we also focus on numerical modeling of impact behavior of reinforced concrete slabs using the commercial finite element package Abaqus/Explicit. Plain and reinforced concrete slabs of unconfined compressive strength 41 MPa are simulated under impact of ogive-nosed hard projectile. The constitutive material modeling of the concrete and steel reinforcement bars is performed using the Johnson-Holmquist-2 damage and the Johnson-Cook plasticity material models, respectively. Damage diameters and residual velocities obtained by the numerical model are compared with the experimental results and effect of steel reinforcement and projectile diameter is studied.
The purpose of this study is to develop self-contained methods for obtaining smooth meshes which are compatible with isogeometric analysis (IGA). The study contains three main parts. We start by developing a better understanding of shapes and splines through the study of an image-related problem. Then we proceed towards obtaining smooth volumetric meshes of the given voxel-based images. Finally, we treat the smoothness issue on the multi-patch domains with C1 coupling. Following are the highlights of each part.
First, we present a B-spline convolution method for boundary representation of voxel-based images. We adopt the filtering technique to compute the B-spline coefficients and gradients of the images effectively. We then implement the B-spline convolution for developing a non-rigid images registration method. The proposed method is in some sense of “isoparametric”, for which all the computation is done within the B-splines framework. Particularly, updating the images by using B-spline composition promote smooth transformation map between the images. We show the possible medical applications of our method by applying it for registration of brain images.
Secondly, we develop a self-contained volumetric parametrization method based on the B-splines boundary representation. We aim to convert a given voxel-based data to a matching C1 representation with hierarchical cubic splines. The concept of the osculating circle is employed to enhance the geometric approximation, where it is done by a single template and linear transformations (scaling, translations, and rotations) without the need for solving an optimization problem. Moreover, we use the Laplacian smoothing and refinement techniques to avoid irregular meshes and to improve mesh quality. We show with several examples that the method is capable of handling complex 2D and 3D configurations. In particular, we parametrize the 3D Stanford bunny which contains irregular shapes and voids.
Finally, we propose the B´ezier ordinates approach and splines approach for C1 coupling. In the first approach, the new basis functions are defined in terms of the B´ezier Bernstein polynomials. For the second approach, the new basis is defined as a linear combination of C0 basis functions. The methods are not limited to planar or bilinear mappings. They allow the modeling of solutions to fourth order partial differential equations (PDEs) on complex geometric domains, provided that the given patches are G1
continuous. Both methods have their advantages. In particular, the B´ezier approach offer more degree of freedoms, while the spline approach is more computationally efficient. In addition, we proposed partial degree elevation to overcome the C1-locking issue caused by the over constraining of the solution space. We demonstrate the potential of the resulting C1 basis functions for application in IGA which involve fourth order PDEs such as those appearing in Kirchhoff-Love shell models, Cahn-Hilliard phase field application, and biharmonic problems.
Der Forschungsgegenstand dieser Arbeit basiert auf einer phänomenologischen Beobachtung internationaler fotografischer Positionen des Selbstportraits, welche seit den 1960er-Jahren verwandte Inhalte, gleichartige bildästhetische Merkmale und ähnliche Prozesse im fotografischen Herstellungsprozess aufweisen. Gemeinsam haben die in dieser Arbeit besprochenen Künstler*innen, dass sich ihre Bildwerdung am eigenen Körper vollzieht und an einen durch Bewegung gekennzeichneten Handlungsablauf geknüpft ist. Die jeweilige Bildsprache weist eine ephemere Ästhetik aus, in welcher inhaltlich sowohl der physische als auch der philosophisch gemeinte Begriff des (Los-)lassens eine Rolle spielt. Die künstlerischen Positionen, die Gegenstand dieser Ph.D.-Arbeit sind, umfassen Arbeiten von Bas Jan Ader (1942 – 1975), Francesca Woodman (1958 – 1981), Bernhard (1937 – 2011) und Anna Blume (*1937), Antoine d’Agata (*1961) und Tom Pope (*1986).
Abstract In the first part of this research, the utilization of tuned mass dampers in the vibration control of tall buildings during earthquake excitations is studied. The main issues such as optimizing the parameters of the dampers and studying the effects of frequency content of the target earthquakes are addressed.
Abstract The non-dominated sorting genetic algorithm method is improved by upgrading generic operators, and is utilized to develop a framework for determining the optimum placement and parameters of dampers in tall buildings. A case study is presented in which the optimal placement and properties of dampers are determined for a model of a tall building under different earthquake excitations through computer simulations.
Abstract In the second part, a novel framework for the brain learning-based intelligent seismic control of smart structures is developed. In this approach, a deep neural network learns how to improve structural responses during earthquake excitations using feedback control.
Abstract Reinforcement learning method is improved and utilized to develop a framework for training the deep neural network as an intelligent controller. The efficiency of the developed framework is examined through two case studies including a single-degree-of-freedom system and a high-rise building under different earthquake excitation records.
Abstract The results show that the controller gradually develops an optimum control policy to reduce the vibrations of a structure under an earthquake excitation through a cyclical process of actions and observations.
Abstract It is shown that the controller efficiently improves the structural responses under new earthquake excitations for which it was not trained. Moreover, it is shown that the controller has a stable performance under uncertainties.
Die zu beobachtenden kürzeren Produktlebenszyklen und eine schnellere Marktdurchdringung von Produkttechnologien erfordern adaptive und leistungsfähige Produktionsanlagen. Die Adaptivität ermöglicht eine Anpassung der Produktionsanlage an neue Produkte, und die Leistungsfähigkeit der Anlage stellt sicher, dass ausreichend Produkte in kurzer Zeit und zu geringen Kosten hergestellt werden können. Durch eine Modularisierung der Produktionsanlage kann die Adaptivität erreicht werden. Jedoch erfordert heutzutage jede Adaption manuellen Aufwand, z.B. zur Anpassung von proprietären Signalen oder zur Anpassung übergeordneter Funktionen. Dadurch sinkt die Leistungsfähigkeit der Anlage.
Das Ziel dieser Arbeit ist es, die Interoperabilität in Bezug auf die Informationsverwendung in modularen Produktionsanlagen zu gewährleisten. Dazu werden Informationen durch semantische Modelle beschrieben. Damit wird ein einheitlicher Informationszugriff ermöglicht, und übergeordnete Funktionen erhalten Zugriff auf alle Informationen der Produktionsmodule, unabhängig von dem Typ, dem Hersteller und dem Alter des Moduls. Dadurch entfällt der manuelle Aufwand bei Anpassungen des modularen Produktionssystems, wodurch die Leistungsfähigkeit der Anlage gesteigert und Stillstandszeiten reduziert werden.
Nach dem Ermitteln der Anforderungen an einen Modellierungsformalismus wurden potentielle Formalismen mit den Anforderungen abgeglichen. OWL DL stellte sich als geeigneter Formalismus heraus und wurde für die Erstellung des semantischen Modells in dieser Arbeit verwendet. Es wurde exemplarisch ein semantisches Modell für die drei Anwendungsfälle Interaktion, Orchestrierung und Diagnose erstellt. Durch einen Vergleich der Modellierungselemente von unterschiedlichen Anwendungsfällen wurde die Allgemeingültigkeit des Modells bewertet. Dabei wurde gezeigt, dass die Erreichung eines allgemeinen Modells für technische Anwendungsfälle möglich ist und lediglich einige Hundert Begriffe benötigt.
Zur Evaluierung der erstellten Modelle wurde ein wandlungsfähiges Produktionssystem der SmartFactoryOWL verwendet, an dem die Anwendungsfälle umgesetzt wurden. Dazu wurde eine Laufzeitumgebung erstellt, die die semantischen Modelle der einzelnen Module zu einem Gesamtmodell vereint, Daten aus der Anlage in das Modell überträgt und eine Schnittstelle für die Services bereitstellt. Die Services realisieren übergeordnete Funktionen und verwenden die Informationen des semantischen Modells. In allen drei Anwendungsfällen wurden die semantischen Modelle korrekt zusammengefügt und mit den darin enthaltenen Informationen konnte die Aufgabe des jeweiligen Anwendungsfalles ohne zusätzlichen manuellen Aufwand gelöst werden.
In recent years, substantial attention has been devoted to thermoelastic multifield problems and their numerical analysis. Thermoelasticity is one of the important categories of multifield problems which deals with the effect of mechanical and thermal disturbances on an elastic body. In other words, thermoelasticity encompasses the phenomena that describe the elastic and thermal behavior of solids and their interactions under thermo-mechanical loadings. Since providing an analytical solution for general coupled thermoelasticity problems is mathematically complicated, the development of alternative numerical solution techniques seems essential.
Due to the nature of numerical analysis methods, presence of error in results is inevitable, therefore in any numerical simulation, the main concern is the accuracy of the approximation. There are different error estimation (EE) methods to assess the overall quality of numerical approximation. In many real-life numerical simulations, not only the overall error, but also the local error or error in a particular quantity of interest is of main interest. The error estimation techniques which are developed to evaluate the error in the quantity of interest are known as “goal-oriented” error estimation (GOEE) methods.
This project, for the first time, investigates the classical a posteriori error estimation and goal-oriented a posteriori error estimation in 2D/3D thermoelasticity problems. Generally, the a posteriori error estimation techniques can be categorized into two major branches of recovery-based and residual-based error estimators. In this research, application of both recovery- and residual-based error estimators in thermoelasticity are studied. Moreover, in order to reduce the error in the quantity of interest efficiently and optimally in 2D and 3D thermoelastic problems, goal-oriented adaptive mesh refinement is performed.
As the first application category, the error estimation in classical Thermoelasticity (CTE) is investigated. In the first step, a rh-adaptive thermo-mechanical formulation based on goal-oriented error estimation is proposed.The developed goal-oriented error estimation relies on different stress recovery techniques, i.e., the superconvergent patch recovery (SPR), L2-projection patch recovery (L2-PR), and weighted superconvergent patch recovery (WSPR). Moreover, a new adaptive refinement strategy (ARS) is presented that minimizes the error in a quantity of interest and refines the discretization such that the error is equally distributed in the refined mesh. The method is validated by numerous numerical examples where an analytical solution or reference solution is available.
After investigating error estimation in classical thermoelasticity and evaluating the quality of presented error estimators, we extended the application of the developed goal-oriented error estimation and the associated adaptive refinement technique to the classical fully coupled dynamic thermoelasticity. In this part, we present an adaptive method for coupled dynamic thermoelasticity problems based on goal-oriented error estimation. We use dimensionless variables in the finite element formulation and for the time integration we employ the acceleration-based Newmark-_ method. In this part, the SPR, L2-PR, and WSPR recovery methods are exploited to estimate the error in the quantity of interest (QoI). By using
adaptive refinement in space, the error in the quantity of interest is minimized. Therefore, the discretization is refined such that the error is equally distributed in the refined mesh. We demonstrate the efficiency of this method by numerous numerical examples.
After studying the recovery-based error estimators, we investigated the residual-based error estimation in thermoelasticity. In the last part of this research, we present a 3D adaptive method for thermoelastic problems based on goal-oriented error estimation where the error is measured with respect to a pointwise quantity of interest. We developed a method for a posteriori error estimation and mesh adaptation based on dual weighted residual (DWR) method relying on the duality principles and consisting of an adjoint problem solution. Here, we consider the application of the derived estimator and mesh refinement to two-/three-dimensional (2D/3D) thermo-mechanical multifield problems. In this study, the goal is considered to be given by singular pointwise functions, such as the point value or point value derivative at a specific point of interest (PoI). An adaptive algorithm has been adopted to refine the mesh to minimize the goal in the quantity of interest.
The mesh adaptivity procedure based on the DWR method is performed by adaptive local h-refinement/coarsening with allowed hanging nodes. According to the proposed DWR method, the error contribution of each element is evaluated. In the refinement process, the contribution of each element to the goal error is considered as the mesh refinement criterion.
In this study, we substantiate the accuracy and performance of this method by several numerical examples with available analytical solutions. Here, 2D and 3D problems under thermo-mechanical loadings are considered as benchmark problems. To show how accurately the derived estimator captures the exact error in the evaluation of the pointwise quantity of interest, in all examples, considering the analytical solutions, the goal error effectivity index as a standard measure of the quality of an estimator is calculated. Moreover, in order to demonstrate the efficiency of the proposed method and show the optimal behavior of the employed refinement method, the results of different conventional error estimators and refinement techniques (e.g., global uniform refinement, Kelly, and weighted Kelly techniques) are used for comparison.
Die Mahlung als Zerkleinerungsprozess stellt seit den Anfängen der Menschheit eine der wichtigsten Verarbeitungsformen von Materialien aller Art dar - von der Getreidemahlung, über das Aufschließen von Heilkräutern in Mörsern bis hin zur Herstellung von Tonern für Drucker und Kopierer. Besonders die Zementmahlung ist in modernen Gesellschaften sowohl ein wirtschaftlicher als auch ein ökologischer Faktor. Mehr als zwei Drittel der elektrischen Energie der Zementproduktion werden für Rohmehl- und Klinker- bzw. Kompositmaterialmahlung verbraucht. Dies ist nur ein Grund, warum der Mahlprozess zunehmend in den Fokus vieler Forschungs- und Entwicklungsvorhaben rückt. Die Komplexität der Zementmahlung steigt im zunehmenden Maße an. Die simple „Mahlung auf Zementfeinheit“ ist seit langem obsolet. Zemente werden maßgeschneidert, mit verschiedensten Kombinationsprodukten, getrennt oder gemeinsam, in unterschiedlichen Mahlaggregaten oder mit ganz neuen Ansätzen gefertigt. Darüber hinaus gewinnt auch der Sektor des Baustoffrecyclings, mit allen damit verbundenen Herausforderungen, immer mehr an Bedeutung. Bei der Fragestellung, wie der Mahlprozess einerseits leistungsfähige Produkte erzeugen kann und andererseits die zunehmenden Anforderungen an Nachhaltigkeit erfüllt, steht das Mahlaggregat im Mittelpunkt der Betrachtungen. Dementsprechend gliedert sich, neben einer eingehenden Literaturrecherche zum Wissensstand, die vorliegende Arbeit in zwei übergeordnete Teile:
Im ersten Teil werden Untersuchungen an konventionellen Mahlaggregaten mit in der Zementindustrie verwendeten Kernprodukten wie Portlandzementklinker, Kalkstein, Flugasche und Hüttensand angestellt. Um eine möglichst effektive Mahlung von Zement und Kompositmaterialien zu gewährleisten, ist es wichtig, die Auswirkung von Mühlenparametern zu kennen. Hierfür wurde eine umfangreiche Versuchsmatrix aufgestellt und
abgearbeitet. Das Spektrum der Analysemethoden war ebenfalls umfangreich und wurde sowohl auf die gemahlenen Materialien als auch auf die daraus hergestellten Zemente und Betone angewendet. Es konnte gezeigt werden, dass vor allem die Unterscheidung zwischen Mahlkörpermühlen und mahlkörperlosen Mühlen entscheidenden Einfluss auf die Granulometrie und somit auch auf die Zementperformance hat. Besonders stark wurden die Verarbeitungseigenschaften, insbesondere der Wasseranspruch und damit auch das Porengefüge und schließlich Druckfestigkeiten sowie Dauerhaftigkeitseigenschaften der aus diesen Zementen hergestellten Betone, beeinflusst. Bei Untersuchungen zur gemeinsamen Mahlung von Kalkstein und Klinker führten ungünstige Anreicherungseffekte des gut mahlbaren Kalksteins sowie tonigen Nebenbestandteilen zu einer schlechteren Performance in allen Zementprüfungen.
Der zweite Teil widmet sich der Hochenergiemahlung. Die dahinterstehende Technik wird seit Jahrzehnten in anderen Wirtschaftsbranchen, wie der Pharmazie, Biologie oder auch Lebensmittelindustrie angewendet und ist seit einiger Zeit auch in der Zementforschung anzutreffen. Beispielhaft seien hier die Planeten- und Rührwerkskugelmühle als Vertreter genannt. Neben grundlegenden Untersuchungen an Zementklinker
und konventionellen Kompositmaterialien wie Hüttensand und Kalkstein wurde auch die Haupt-Zementklinkerphase Alit untersucht. Die Hochenergiemahlung von konventionellen Kompositmaterialien generierte zusätzliche Reaktivität bei gleicher Granulometrie gegenüber der herkömmlichen Mahlung. Dies wurde vor allem bei per se reaktivem Zementklinker als auch bei latent-hydraulischem Hüttensand beobachtet. Gemahlene Flugaschen konnten nur im geringen Maße weiter aktiviert werden. Der generelle Einfluss von Oberflächenvergrößerung, Strukturdefekten und Relaxationseffekten eines Mahlproduktes wurden eingehend untersucht und gewichtet. Die Ergebnisse bei der Hochenergiemahlung von Alit zeigten, dass die durch Mahlung eingebrachten Strukturdefekte eine Erhöhung der Reaktivität zur Folge haben. Hierbei konnte festgestellt werden, das maßgeblich Oberflächendefekte, strukturelle (Volumen-)defekte und als Konterpart Selbstheilungseffekte die reaktivitätsbestimmenden Faktoren sind. Weiterhin wurden Versuche zur Mahlung von Altbetonbrechsand durchgeführt. Im Speziellen wurde untersucht, inwieweit eine Rückführung von Altbetonbrechsand, als unverwertbarer Teil des Betonbruchs, in Form eines Zement-Kompositmaterials in den Baustoffkreislauf möglich ist. Die hierfür verwendete Mahltechnik umfasst sowohl konventionelle Mühlen als auch Hochenergiemühlen. Es wurden Kompositzemente mit variiertem Recyclingmaterialanteil hergestellt und auf grundlegende Eigenschaften untersucht. Zur Bewertung der Produktqualität wurde der sogenannte „Aktivierungskoeffizient“ eingeführt. Es stellte sich heraus, dass die Rückführung von Altbetonbrechsand als potentielles Kompositmaterial wesentlich vom Anteil des Zementsteins abhängt. So konnte beispielsweise reiner Zementstein als aufgemahlenes Kompositmaterial eine bessere Performance gegenüber dem mit Gesteinskörnung beaufschlagtem Altbetonbrechsand ausweisen. Bezogen auf die gemessenen Hydratationswärmen und Druckfestigkeiten nahm der Aktivierungskoeffzient mit fallendem Abstraktionsgrad ab. Ebenfalls sank der Aktivierungskoeffizient mit steigendem Substitutionsgrad. Als Vergleich wurden dieselben Materialien in konventionellen Mühlen aufbereitet. Die hier erzielten Ergebnisse können teilweise der Hochenergiemahlung als gleichwertig beurteilt werden. Folglich ist bei der Aktivierung von Recyclingmaterialien weniger die Mahltechnik als der Anteil an aktivierbarem Zementstein ausschlaggebend.
Multi-user projection systems provide a coherent 3D interaction space for multiple co-located users that facilitates mutual awareness, full-body interaction, and the coordination of activities. The users perceive the shared scene from their respective viewpoints and can directly interact with the 3D content.
This thesis reports on novel interaction patterns for collaborative 3D interaction for local and distributed user groups based on such multi-user projection environments. A particular focus of our developments lies in the provision of multiple independent interaction territories in our workspaces and their tight integration into collaborative workflows. The motivation for such multi-focus workspaces is grounded in research on social cooperation patterns, specifically in the requirement for supporting phases of loose and tight collaboration and the emergence of dedicated orking territories for private usage and public exchange. We realized independent interaction territories in the form of handheld virtual viewing windows and multiple co-located hardware displays in a joint workspace. They provide independent views of a shared virtual environment and serve as access points for the exploration and manipulation of the 3D content. Their tight integration into our workspace supports fluent transitions between individual work and joint user engagement. The different affordances of various displays in an exemplary workspace consisting of a large 3D wall, a 3D tabletop, and handheld virtual viewing windows, promote different usage scenarios, for instance for views from an egocentric perspective, miniature scene representations, close-up views, or storage and transfer areas. This work shows that this versatile workspace can make the cooperation of multiple people in joint tasks more effective, e.g. by parallelizing activities, distributing subtasks, and providing mutual support.
In order to create, manage, and share virtual viewing windows, this thesis presents the interaction technique of Photoportals, a tangible interface based on the metaphor of digital photography. They serve as configurable viewing territories and enable the individual examination of scene details as well as the immediate sharing of the prepared views. Photoportals are specifically designed to complement other interface facets and provide extended functionality for scene navigation, object manipulation, and for the creation of temporal recordings of activities in the virtual scene.
A further objective of this work is the realization of a coherent interaction space for direct 3D input across the independent interaction territories in multi-display setups. This requires the simultaneous consideration of user input in several potential interaction windows as well as configurable disambiguation schemes for the implicit selection of distinct interaction contexts. We generalized the required implementation structures into a high-level software pattern and demonstrated its versatility by means of various multi-context 3D interaction tools.
Additionally, this work tackles specific problems related to group navigation in multiuser projection systems. Joint navigation of a collocated group of users can lead to unintentional collisions when passing narrow scene sections. In this context, we suggest various solutions that prevent individual collisions during group navigation and discuss their effect on the perceived integrity of the travel group and the 3D scene. For collaboration scenarios involving distributed user groups, we furthermore explored different configurations for joint and individual travel.
Last but not least, this thesis provides detailed information and implementation templates for the realization of the proposed interaction techniques and collaborative workspaces in scenegraph-based VR systems. These contributions to the abstraction of specific interaction patterns, such as group navigation and multi-window interaction, facilitate their reuse in other virtual reality systems and their adaptation to further collaborative scenarios.
Im Rahmen der Dissertation wurde ein Toolboxmodell für transdisziplinäres Wasserressourcenmanagement entwickelt. Das Modell liefert den methodischen Rahmen Wasserressourcen nachhaltig und transdisziplinär zu bewirtschaften.
Der Begriff der Nachhaltigkeit und eine Konkretisierung der nachhaltigen Bewirtschaftung globaler Wasserressourcen scheinen unüberschaubar und suggerieren die Forderung nach einer neuen Weltformel. Die globale Bedeutung der Wasserressourcen, die für Regionen spezifischen Besonderheiten des natürlichen Wasserhaushalts und der anthropogenen Nutzung, die Zeitskala und die Kontextualisierung in alle betroffenen und benachbarten Disziplinen deuten auf die Komplexität der Thematik hin. Es wird eine Systematisierung des Planungsprozesses von Wasserressourcen notwendig, anhand derer eine holistische Herangehensweise mit einer Strategieentwicklung für Regionen spezifischer Schwerpunktprobleme erfolgt. Ziel der Arbeit ist die Erarbeitung einer Strategie zur Systematisierung nach diesen Forderungen und die Bereitstellung eines Toolboxmodelles als Planungswerkzeug für das transdisziplinäre Wasserressourcenmanagement.
Das Toolboxmodell stellt den konzeptionellen Rahmen für die Bewirtschaftung von Wasserressourcen mit der Anwendung transdisziplinärer Forschungsmethoden bereit. Wesentliche Herausforderung bei der Anwendung der transdisziplinären Methode sind die Implementierung verschiedener Skalenbereiche, der Umgang mit der Komplexität von Daten, das Bewahren von Transparenz und Objektivität sowie die Ermöglichung eines auf andere Regionen übertragbaren Planungsprozesses.
Die theoretischen Grundlagen naturwissenschaftlicher Forschung zur Nachhaltigkeit haben ihren Ursprung in den biologischen und geographischen Disziplinen. Das Ineinandergreifen naturräumlicher Zusammenhänge und der Einfluss anthropogener Nutzung und technischer Innovationen auf den Naturhaushalt sind Kern der Kausalität übergreifenden Denkens und Verstehens. Mit dem Ansatz des integrierten Wasserressourcenmanagements (IWRM) erfolgt die Berücksichtigung wirtschaftlicher und sozioökonomischer Ziele in den Planungsprozess für ökologisch nachhaltige Wasserwirtschaft. Das Instrument der Wasserrahmenrichtlinie (EU-WRRL) ist auf eine Gewässerökologie ausgerichtete Richtlinie, welche die Integration verschiedener Interessenvertreter in den Planungsprozess vorsieht. Das Konzept der neuartigen Sanitärsysteme basiert auf Stoffflüssen zwischen konkurrierenden Handlungsbereichen, wie Abfall-, Ressourcen- und Landwirtschaft.
Den integrierten Ansätzen fehlt eine übergeordnete gemeinsame Zielstrategie – eine sogenannte Phase Null. Diese Phase Null – das Lernen aller 7 Zusammenfassung 157 relevanten, konkurrierenden und harmonisierenden Handlungsfelder eines Planungshorizontes wird durch eine transdisziplinäre Perspektive ermöglicht. Während bei der integralen Perspektive eine disziplinorientierte Kooperation im Vordergrund steht, verlangt die transdisziplinäre Perspektive nach einer problemorientierten Kooperation zwischen den Interessenvertretern (Werlen 2015). Die bestehenden Konzepte und Richtlinien für das nachhaltige Management von Wasserressourcen sind etabliert und evaluiert. Der Literatur zur Folge ist eine Weiterentwicklung nach der Perspektive der Transdisziplinarität erforderlich. Das Toolboxmodell für integrales Wasserressourcenmanagement entspricht einem Planungstool bestehend aus Werkzeugen für die Anwendung wissenschaftlicher Methoden. Die Zusammenstellung der Methoden/Werkzeuge erfüllt im Rahmen die Methode transdisziplinärer Forschung. Das Werkzeug zum Aufstellen der relevanten Handlungsfelder umfasst die Charakterisierung eines Untersuchungsgebietes und Planungsrahmens, die kausale Verknüpfung des Bewirtschaftungskonzeptes und konkurrierender sowie sich unterstützender Stakeholder. Mit dem Werkzeug der Kontextualisierung und Indikatorenaufstellung wird eine Methode der stufenweisen und von einer Skala unabhängigen Bewertung des Umweltzustandes für die Zielpriorisierung vorgenommen. Damit wird das Toolboxmodell dem Problem der Komplexität und Datenverfügbarkeit gerecht. Anhand der eingesetzten ABC Methode, werden die Bewertungsgrößen differenziert strukturiert auf verschiedene Skalen und Datenressourcen (A=Ersterkennung,B=Zeigerwerte, C=Modell/Index). Die ABC-Methode ermöglicht die Planung bereits mit unsicherer und lückenhafter Datengrundlage, ist jederzeit erweiterbar und bietet somit eine operative Wissensgenerierung während des Gestaltungsprozesses.
Für das Werkzeug zur Bewertung und Priorisierung wird der Algorithmus der Composite Programmierung angewandt. Diese Methode der Mehrfachzielplanung erfüllt den Anspruch der permanenten Erweiterbarkeit und der transparenten und objektiven Entscheidungsfindung. Die Komplexität des transdisziplinären Wasserressourcenmanagements kann durch die Methode der Composite Programmierung systematisiert werden. Das wesentliche Ergebnis der Arbeit stellt die erfolgreiche Erarbeitung und Anwendung des Tool-boxmodells für das transdisziplinäre Wasserressourcenmanagement im Untersuchungsgebiet Stadt Darkhan in der Mongolei dar. Auf Grund seiner besonderen hydrologischen und strukturellen Situa-tion wird die Relevanz eines nachhaltigen Bewirtschaftungskonzeptes deutlich. Im Rahmen des Querschnittsmoduls des MoMo-Projektes wurde eine für das Toolboxmodell geeignete Datengrundlage erarbeitet. Planungsrelevante Handlungsfelder wurden im Rahmen eines Workshops mit verschiedenen Interessenvertretern erarbeitet. Im Ergebnis dessen wurde die Systematik eines Zielbaumes mit Hauptzielen und untergeordneten Teilzielen als Grundlage der Priorisierung nach den holistischen Anspruch der transdisziplinären Forschung aufgestellt. Für die Messbarkeit, in-wieweit Teilziele erreicht sind oder Handlungsbedarf besteht, wurden Indikatoren erarbeitet. Die Indikatoren-Aufstellung erfolgte exemplarisch für das Handlungsfeld Siedlungswasserwirtschaft in allen Skalen des ABC-Systems. Die im BMBF-MoMo Projekt generierte umfassende Datengrundlage ermöglichte die Anwendung und Evaluierung des Toolboxmodells mit unterschiedlichem quantitativem und qualitativem Dateninput. Verschiedene Kombination von A (Ersterkennung), B (Zeigerwerte) und C (Modell/Index) als Grundlage der Priorisierung mit der Compostite Programmierung ermöglichten die Durchführung und Bewertung des transdisziplinären Planungstools. Die er-mittelten Rangfolgen von Teilzielen mit unterschiedlichen Bewertungsvarianten ergaben ähnliche
Tendenzen. Das ist ein Hinweis dafür, dass für die zukünftige Anwendung des Toolboxmodells die operative Wissensgenerierung, d.h. das schrittweise Hinzufügen neu ermittelter, gesicherterer Daten, funktioniert. Eine schwierige Datenverfügbarkeit oder eine noch im Prozess befindliche wissenschaftliche Analyse sollen keine Hindernisse für eine schrittweise und erweiterbare Zielpriorisierung und Maßnahmenplanung sein. Trotz der Komplexität des transdisziplinären Ansatzes wird durch die Anwendung des Toolboxmodells eine effiziente und zielorientierte Handlungspriorisierung ermöglicht. Die Effizienz wird erreicht durch ressourcenschonende und flexible, Ziel fokussierte Datenermittlung. Zeit und Kosten im Planungsprozess können eingespart werden. Die erzielte Priorisierung von letztlich Handlungsempfehlungen erfolgt individuell auf die Eigenart des Untersuchungsgebietes angepasst, was hinsichtlich seiner Wirkung als erfolgsversprechend gilt.
Die Verbreitung mobiler Smartphones und besonders deren allgegenwärtige Lokalisierungstechnologien verändern das Navigationsverhalten im Raum nachhaltig. Parallel zur schnell voranschreitenden Entwicklung alltäglicher Geräte, die mitgeführt werden, setzt der Übergang der bereits länger dauernden Entwicklung von Virtual-Reality-Technik in eine erweiterte und augmentierte Mixed Reality ein. In diesem Spannungsfeld untersucht die vorliegende Arbeit, inwieweit richtungsgebundene und binaural wiedergegebene Stereofonie die menschliche Bewegung im Raum beeinflussen kann und versucht zu erörtern, welche Potenziale in der Wiederentdeckung einer relativ lange bekannten Technik liegen. Der Autor hat im Rahmen dieser Arbeit eine binaurale mobile Applikation für richtungsgebundene Stereofonie entwickelt, mit der virtuelle bewegte oder statische Audio-Hotspots im Raum platziert werden können. So kann links, rechts oder 30 Meter vor einer Person ein virtueller oder tatsächlicher Klang im Raum verortet sein. Durch die in Echtzeit berechnete binaurale Wiedergabe der Klangquellen mit einem Stereo-Kopfhörer können diese räumlich verorteten Klänge mit zwei Ohren dreidimensional wahrgenommen werden, ähnlich dem räumlichen Sehen mit zwei Augen. Durch den Einsatz mehrerer lokalisierter Klangquellen als Soundscape entsteht eine augmentierte auditive Realität, die die physische Realität erweitert. Die Position und Navigation des Nutzers wird durch binaurale Lautstärkenmodulation (die Lautstärke nimmt bei abnehmender Distanz zur Quelle zu) und Stereopanning mit Laufzeitmodulation (die Richtung wird über ein Stereosignal auf beiden Ohren räumlich links-rechts-vorne verortet) interaktiv und kybernetisch beeinflusst. Die Nutzer navigieren — durch ihr Interesse an den hörbaren virtuellen Klangquellen geleitet — durch einen dynamisch erzeugten, dreidimensionalen akustischen Raum, der gleichzeitig ein virtueller und kybernetischer Raum ist, da die Repräsentation der Klänge an die Bewegung und Ausrichtung der Nutzer im Raum angepasst wird. Diese Arbeit untersucht, ob die Bewegung von Menschen durch (virtuelle) Klänge beeinflusst werden kann und wie groß oder messbar dieser Einfluss ist. Dabei können nicht alle künstlerischen, architektonischen und philosophischen Fragen im Rahmen der vorliegenden Schrift erörtert werden, obwohl sie dennoch als raumtheoretische Fragestellung von Interesse sind. Hauptgegenstand der vorliegenden Arbeit liegt in der Erforschung, ob richtungsgebundene Stereofonie einen relevanten Beitrag zur menschlichen Navigation, hauptsächlich zu Fuß, in urbanen Gebieten — vorwiegend im Außenraum — leisten kann. Der erste Teil gliedert sich in »Raum und Klang«, es werden raumtheoretische Überlegungen zur menschlichen Bewegung im Raum, Raumvorstellungen, räumliche Klänge und Klangwahrnehmung sowie die Entwicklung stereofoner Apparaturen und Aspekte der Augmented Audio Reality besprochen. Im zweiten Teil werden drei Demonstratoren als Anwendungsszenarien und drei Evaluierungen im Außenraum vorgestellt. Die Tests untersuchen, ob sich das Verfahren zur Navigation für Fußgänger eignet und inwieweit eine Einflussnahme auf das Bewegungsverhalten von Nutzern getroffen werden kann. Die Auswertungen der Tests zeigen, dass sich stereofone Klänge grundsätzlich als Navigationssystem eignen, da eine große Mehrzahl der Teilnehmer die akustisch markierten Ziele leicht gefunden hat. Ebenso zeigt sich ein klarer Einfluss auf die Bewegungsmuster, allerdings ist dieser abhängig von individuellen Interessen und Vorlieben. Abschließend werden die Ergebnisse der Untersuchungen im Kontext der vorgestellten Theorien diskutiert und die Potenziale stereofoner Anwendungen in einem Ausblick behandelt. Bei der Gestaltung, Erzeugung und Anwendung mobiler Systeme sind unterschiedliche mentale und räumliche Modelle und Vorstellungen der Entwickler und Anwender zu beachten. Da eine umfassende transdisziplinäre Betrachtung klare Begrifflichkeiten erfordert, werden Argumente für ein raumtheoretisches Vokabular diskutiert. Diese sind für einen gestalterischen Einsatz von richtungsgebundener Stereofonie — besonders im Kontext mobiler Navigation durch akustisch augmentierte Räume — äußerst relevant.
In dieser Untersuchung wird eine Geschichte von Problemen der Gleichzeitigkeit zwischen Sehen und Hören, beziehungsweise der Synchronität von Bild und Ton, bis zur Entstehung des Tonfilms rekonstruiert. Dabei werden Linien gezogen zwischen diskursiven Konfigurationen und medialen Anordnungen, in denen das Verhältnis von Sehen und Hören oder Bild und Ton als zeitliches erscheint – in denen Sehen und Hören, Bild und Ton zwischen Mannigfaltigkeit und Einheit verschmelzen, auseinanderfallen, interagieren, redundant oder spezifisch werden, einander ergänzen, dominieren, verfehlen verdrängen, aufspalten…
Tonfilm ist in der Kinogeschichte eben nicht nur eine Ergänzung. Vielmehr ähnelt er dem Auftritt eines Gespensts, das das Wissen und die Techniken der Trennung der Sinne schon länger, vielleicht schon immer begleitet hatte. Das Auftreten des Tonfilms ist auch überhaupt früher Anlass eines weitreichenden Diskurses darüber, was Audiovision eigentlich sein könnte und sollte. Noch allgemeiner könnte auch davon gesprochen werden, dass Tonfilm eins der ersten großen Projekte der Konvergenz technischer Medien ist, die heute – besonders angesichts des Computers – als entscheidender Aspekt von Mediengeschichte erscheint.
Die Linien der Probleme von Gleichzeitigkeit/Ungleichzeitigkeit an den Schnittstellen von Wissen, Technik und Ästhetik werden insbesondere durch drei Felder hindurch nachgezeichnet:
1) Die Geschichte von Intermodalität in Bezug auf die Frage nach Gleichzeitigkeit und Ungleichzeitigkeit als Problem und Gegenstand von Wissenschaft seit dem 19. Jahrhundert, vornehmlich in zwei Gebieten: Als Fehlerquelle im astronomischen Observatorium bei der Messung, Feststellung und Vereinheitlichung von Raum und Zeit, die auf individuelle Abweichungen Intermodaler Wahrnehmung verweist und als Problem der „persönlichen Gleichung“ weit über die Astronomie hinaus Karriere macht. Als heiße Zone wahrnehmungspsychologischer Experimente und ihrer Apparate seit der Mitte des 19. Jahrhunderts, die mit dem Konzept der „Komplikation“ Fragen nach einer Synthese der Sinneswahrnehmungen und damit letztlich nach der Selbstgegenwart des Menschen stellt.
2) Eine Technikgeschichte des Problems auditive und visuelle Zeitmedien – wie Phonograph und Film – zu koppeln, zu synchronisieren. Darin eskalieren zwei zeitkritische Relationen: Einerseits zwischen diskreter, intermittierender Bewegung des Films und stetiger, kontinuierlicher Bewegung des Phonographen, andererseits in Bezug darauf, an welcher Stelle – wo und wann – audiovisuelle Gegenwart des Kinos ensteht; oder auch verfehlt wird.
3) Eine Geschichte von Filmtheorie und -ästhetik, in der sich mit der Durchsetzung des Tonfilms um 1930 die Frage stellt, was dieses neue Medium sei und was damit zu tun. Diese Verhandlungen spannen sich zwischen dem formulierten Ziel einer spezifischen Illusion oder Präsenz von Tonfilm durch Synchronität auf der einen Seite und der sich aus dem Verdacht des Betrugs durch Synchronität ergebenden Forderung nach „Asynchronismus“ als kritischer Methode auf der anderen Seite auf.
Ausgehend von der These, dass im 19. Jahrhundert die Sinne aufgeteilt werden, dann wird in diesen Anordnungen an irgendeiner Stelle Heterogenes gleichzeitig passieren. An welcher Stelle? Und was bedeuten diese (Un-)Gleichzeitigkeiten? Was dabei - sehr allgemein gesprochen - auf dem Spiel steht, sind Möglichkeiten einer audiovisuell geteilten – getrennten oder gemeinsamen - Welt und Gegenwart.
In recent decades, a multitude of concepts and models were developed to understand, assess and predict muscular mechanics in the context of physiological and pathological events.
Most of these models are highly specialized and designed to selectively address fields in, e.g., medicine, sports science, forensics, product design or CGI; their data are often not transferable to other ranges of application. A single universal model, which covers the details of biochemical and neural processes, as well as the development of internal and external force and motion patterns and appearance could not be practical with regard to the diversity of the questions to be investigated and the task to find answers efficiently. With reasonable limitations though, a generalized approach is feasible.
The objective of the work at hand was to develop a model for muscle simulation which covers the phenomenological aspects, and thus is universally applicable in domains where up until now specialized models were utilized. This includes investigations on active and passive motion, structural interaction of muscles within the body and with external elements, for example in crash scenarios, but also research topics like the verification of in vivo experiments and parameter identification. For this purpose, elements for the simulation of incompressible deformations were studied, adapted and implemented into the finite element code SLang. Various anisotropic, visco-elastic muscle models were developed or enhanced. The applicability was demonstrated on the base of several examples, and a general base for the implementation of further material models was developed and elaborated.
Material properties play a critical role in durable products manufacturing. Estimation of the precise characteristics in different scales requires complex and expensive experimental measurements. Potentially, computational methods can provide a platform to determine the fundamental properties before the final experiment. Multi-scale computational modeling leads to the modeling of the various time, and length scales include nano, micro, meso, and macro scales. These scales can be modeled separately or in correlation with coarser scales. Depend on the interested scales modeling, the right selection of multi-scale methods leads to reliable results and affordable computational cost. The present dissertation deals with the problems in various length and time scales using computational methods include density functional theory (DFT), molecular mechanics (MM), molecular dynamics (MD), and finite element (FE) methods.
Physical and chemical interactions in lower scales determine the coarser scale properties. Particles interaction modeling and exploring fundamental properties are significant challenges of computational science. Downscale modelings need more computational effort due to a large number of interacted atoms/particles. To deal with this problem and bring up a fine-scale (nano) as a coarse-scale (macro) problem, we extended an atomic-continuum framework. The discrete atomic models solve as a continuum problem using the computationally efficient FE method. MM or force field method based on a set of assumptions approximates a solution on the atomic scale. In this method, atoms and bonds model as a harmonic oscillator with a system of mass and springs. The negative gradient of the potential energy equal to the forces on each atom. In this way, each bond's total potential energy includes bonded, and non-bonded energies are simulated as equivalent structural strain energies. Finally, the chemical nature of the atomic bond is modeled as a piezoelectric beam element that solves by the FE method.
Exploring novel materials with unique properties is a demand for various industrial applications. During the last decade, many two-dimensional (2D) materials have been synthesized and shown outstanding properties. Investigation of the probable defects during the formation/fabrication process and studying their strength under severe service life are the critical tasks to explore performance prospects. We studied various defects include nano crack, notch, and point vacancy (Stone-Wales defect) defects employing MD analysis. Classical MD has been used to simulate a considerable amount of molecules at micro-, and meso- scales. Pristine and defective nanosheet structures considered under the uniaxial tensile loading at various temperatures using open-source LAMMPS codes. The results were visualized with the open-source software of OVITO and VMD.
Quantum based first principle calculations have been conducting at electronic scales and known as the most accurate Ab initio methods. However, they are computationally expensive to apply for large systems. We used density functional theory (DFT) to estimate the mechanical and electrochemical response of the 2D materials. Many-body Schrödinger's equation describes the motion and interactions of the solid-state particles. Solid describes as a system of positive nuclei and negative electrons, all electromagnetically interacting with each other, where the wave function theory describes the quantum state of the set of particles. However, dealing with the 3N coordinates of the electrons, nuclei, and N coordinates of the electrons spin components makes the governing equation unsolvable for just a few interacted atoms. Some assumptions and theories like Born Oppenheimer and Hartree-Fock mean-field and Hohenberg-Kohn theories are needed to treat with this equation. First, Born Oppenheimer approximation reduces it to the only electronic coordinates. Then Kohn and Sham, based on Hartree-Fock and Hohenberg-Kohn theories, assumed an equivalent fictitious non-interacting electrons system as an electron density functional such that their ground state energies are equal to a set of interacting electrons. Exchange-correlation energy functionals are responsible for satisfying the equivalency between both systems. The exact form of the exchange-correlation functional is not known. However, there are widely used methods to derive functionals like local density approximation (LDA), Generalized gradient approximation (GGA), and hybrid functionals (e.g., B3LYP). In our study, DFT performed using VASP codes within the GGA/PBE approximation, and visualization/post-processing of the results realized via open-source software of VESTA.
The extensive DFT calculations are conducted 2D nanomaterials prospects as anode/cathode electrode materials for batteries. Metal-ion batteries' performance strongly depends on the design of novel electrode material. Two-dimensional (2D) materials have developed a remarkable interest in using as an electrode in battery cells due to their excellent properties. Desirable battery energy storage systems (BESS) must satisfy the high energy density, safe operation, and efficient production costs. Batteries have been using in electronic devices and provide a solution to the environmental issues and store the discontinuous energies generated from renewable wind or solar power plants. Therefore, exploring optimal electrode materials can improve storage capacity and charging/discharging rates, leading to the design of advanced batteries.
Our results in multiple scales highlight not only the proposed and employed methods' efficiencies but also promising prospect of recently synthesized nanomaterials and their applications as an anode material. In this way, first, a novel approach developed for the modeling of the 1D nanotube as a continuum piezoelectric beam element. The results converged and matched closely with those from experiments and other more complex models. Then mechanical properties of nanosheets estimated and the failure mechanisms results provide a useful guide for further use in prospect applications. Our results indicated a comprehensive and useful vision concerning the mechanical properties of nanosheets with/without defects. Finally, mechanical and electrochemical properties of the several 2D nanomaterials are explored for the first time—their application performance as an anode material illustrates high potentials in manufacturing super-stretchable and ultrahigh-capacity battery energy storage systems (BESS). Our results exhibited better performance in comparison to the available commercial anode materials.
The thesis concerns a work of urban history intended not to describe the city but rather to interpret it. By doing so, I have interpreted the city by means of the role played by the so-called ‘great property’ in the European city-making process during the last three decades of the 20th century, specifically focused on the concrete case of military properties in Italy. I have also considered the role played by other kinds of great properties, i.e. industries and railway, which previously acted in the production of the built environment in a different way respect to the military one. As all of them have as common denominator the fact of being ‘capital in land’, I analysed great industrial and railway properties in order to extrapolate a methodology which helped me to interpret the relationship between military properties and city-making process in Europe in the late 20th century.
I have analysed the relationship between the capital in land and the city-making process on the ground of the understanding the interrelation between the great property, the urban development, and the agents involved in the urban and territorial planning. Here I have showed that urban planning is not the decisive factor influencing the citymaking process, but instead the power held by the capital in land. I have found that is the great property the trigger of the creation of new ‘areas of centrality’ intended as large areas for consumerism. As far as the role played by great property is concerned, I have also discovered that it has evolved over time. Originally, industrial and railway properties have been regenerated into a wide range of new profit-driven spaces; successively, I have found out that most of the regeneration of military premises aimed to materialise areas of centrality. The way of interpreting this factor has been based on focusing my attention on the military premises in Italy: I have classified their typology when they have been built and, most importantly, when they have been regenerated into new areas of centrality.
Ausgehend von der vielfachen Verwertung der bäuerlichen Kleidung durch den Staat während des Sozialismus in Rumänien wird in der Arbeit das ‚Gemacht-Sein‘ von Volkstrachten befragt entlang von im untersuchten Zeitraum wirkenden Diskursen, wie dem Prozess der Modernisierung oder der Hervorhebung nationaler Werte. Die künstlerische Forschung setzt dabei auf Simulacra (Roland Barthes). Ziel war, tradierte Formate der Wissensaufbereitung und -verbreitung zu appropriieren, so auch von Strategien, die auf der Ebene von Bildern und Sprache agieren, um eine Re-Lektüre sowohl von ‚Volkstracht‘ im Sozialismus als auch von ihren Entsprechungen nach 1989 zu ermöglichen.
Although it is impractical to avert subsequent natural disasters, advances in simulation science and seismological studies make it possible to lessen the catastrophic damage. There currently exists in many urban areas a large number of structures, which are prone to damage by earthquakes. These were constructed without the guidance of a national seismic code, either before it existed or before it was enforced. For instance, in Istanbul, Turkey, as a high seismic area, around 90% of buildings are substandard, which can be generalized into other earthquakeprone regions in Turkey. The reliability of this building stock resulting from earthquake-induced collapse is currently uncertain. Nonetheless, it is also not feasible to perform a detailed seismic vulnerability analysis on each building as a solution to the scenario, as it will be too complicated and expensive. This indicates the necessity of a reliable, rapid, and computationally easy method for seismic vulnerability assessment, commonly known as Rapid Visual Screening (RVS). In RVS methodology, an observational survey of buildings is performed, and according to the data collected during the visual inspection, a structural score is calculated without performing any structural calculations to determine the expected damage of a building and whether the building needs detailed assessment. Although this method might save time and resources due to the subjective/qualitative judgments of experts who performed the inspection, the evaluation process is dominated by vagueness and uncertainties, where the vagueness can be handled adequately through the fuzzy set theory but do not cover all sort of uncertainties due to its crisp membership functions. In this study, a novel method of rapid visual hazard safety assessment of buildings against earthquake is introduced in which an interval type-2 fuzzy logic system (IT2FLS) is used to cover uncertainties. In addition, the proposed method provides the possibility to evaluate the earthquake risk of the building by considering factors related to the building importance and exposure. A smartphone app prototype of the method has been introduced. For validation of the proposed method, two case studies have been selected, and the result of the analysis presents the robust efficiency of the proposed method.
Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding.
The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes.
In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources.
The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES.
The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack.
Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features.
The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext.
From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption.
Multi-user virtual reality systems enable collocated as well as distributed users to perform collaborative activities in immersive virtual environments. A common activity in this context is to move from one location to the next as a group to explore the environment together. The simplest solution to realize these multi-user navigation processes is to provide each participant with a technique for individual navigation. However, this approach entails some potentially undesirable consequences such as the execution of a similar navigation sequence by each participant, a regular need for coordination within the group, and, related to this, the risk of losing each other during the navigation process.
To overcome these issues, this thesis performs research on group navigation techniques that move group members together through a virtual environment. The presented work was guided by four overarching research questions that address the quality requirements for group navigation techniques, the differences between collocated and distributed settings, the scalability of group navigation, and the suitability of individual and group navigation for various scenarios. This thesis approaches these questions by introducing a general conceptual framework as well as the specification of central requirements for the design of group navigation techniques. The design, implementation, and evaluation of corresponding group navigation techniques demonstrate the applicability of the proposed framework.
As a first step, this thesis presents ideas for the extension of the short-range teleportation metaphor, also termed jumping, for multiple users. It derives general quality requirements for the comprehensibility of the group jumping process and introduces a corresponding technique for two collocated users. The results of two user studies indicate that sickness symptoms are not affected by user roles during group jumping and confirm improved planning accuracy for the navigator, increased spatial awareness for the passenger, and reduced cognitive load for both user roles.
Next, this thesis explores the design space of group navigation techniques in distributed virtual environments. It presents a conceptual framework to systematize the design decisions for group navigation techniques based on Tuckman's model of small-group development and introduces the idea of virtual formation adjustments as part of the navigation process. A quantitative user study demonstrates that the corresponding extension of Multi-Ray Jumping for distributed dyads leads to more efficient travel sequences and reduced workload. The results of a qualitative expert review confirm these findings and provide further insights regarding the complementarity of individual and group navigation in distributed virtual environments.
Then, this thesis investigates the navigation of larger groups of distributed users in the context of guided museum tours and establishes three central requirements for (scalable) group navigation techniques. These should foster the awareness of ongoing navigation activities as well as facilitate the predictability of their consequences for all group members (Comprehensibility), assist the group with avoiding collisions in the virtual environment (Obstacle Avoidance), and support placing the group in a meaningful spatial formation for the joint observation and discussion of objects (View Optimization). The work suggests a new technique to address these requirements and reports on its evaluation in an initial usability study with groups of five to ten (partially simulated) users. The results indicate easy learnability for navigators and high comprehensibility for passengers. Moreover, they also provide valuable insights for the development of group navigation techniques for even larger groups.
Finally, this thesis embeds the previous contributions in a comprehensive literature overview and emphasizes the need to study larger, more heterogeneous, and more diverse group compositions including the related social factors that affect group dynamics.
In summary, the four major research contributions of this thesis are as follows:
- the framing of group navigation as a specific instance of Tuckman's model of small-group development
- the derivation of central requirements for effective group navigation techniques beyond common quality factors known from single-user navigation
- the introduction of virtual formation adjustments during group navigation and their integration into concrete group navigation techniques
- evidence that appropriate pre-travel information and virtual formation adjustments lead to more efficient travel sequences for groups and lower workloads for both navigators and passengers
Overall, the research of this thesis confirms that group navigation techniques are a valuable addition to the portfolio of interaction techniques in multi-user virtual reality systems. The conceptual framework, the derived quality requirements, and the development of novel group navigation techniques provide effective guidance for application developers and inform future research in this area.
Mitigating Risks of Corruption in Construction: A theoretical rationale for BIM adoption in Ethiopia
(2021)
This PhD thesis sets out to investigate the potentials of Building Information Modeling (BIM) to mitigate risks of corruption in the Ethiopian public construction sector. The wide-ranging capabilities and promises of BIM have led to the strong perception among researchers and practitioners that it is an indispensable technology. Consequently, it has become the frequent subject of science and research. Meanwhile, many countries, especially the developed ones, have committed themselves to applying the technology extensively. Increasing productivity is the most common and frequently cited reason for that.
However, both technology developers and adopters are oblivious to the potentials of BIM in addressing critical challenges in the construction sector, such as corruption. This particularly would be significant in developing countries like Ethiopia, where its problems and effects are acute. Studies reveal that bribery and corruption have long pervaded the construction industry worldwide. The complex and fragmented nature of the sector provides an environment for corruption. The Ethiopian construction sector is not immune from this epidemic reality. In fact, it is regarded as one of the most vulnerable sectors owing to varying socio-economic and political factors. Since 2015, Ethiopia has started adopting BIM, yet without clear goals and strategies. As a result, the potential of BIM for combating concrete problems of the sector remains untapped. To this end, this dissertation does pioneering work by showing how collaboration and coordination features of the technology contribute to minimizing the opportunities for corruption. Tracing loopholes, otherwise, would remain complex and ineffective in the traditional documentation processes.
Proceeding from this anticipation, this thesis brings up two primary questions: what are areas and risks of corruption in case of the Ethiopian public construction projects; and how could BIM be leveraged to mitigate these risks? To tackle these and other secondary questions, the research employs a mixed-method approach. The selected main research strategies are Survey, Grounded Theory (GT) and Archival Study. First, the author disseminates an online questionnaire among Ethiopian construction engineering professionals to pinpoint areas of vulnerability to corruption. 155 responses are compiled and scrutinized quantitatively. Then, a semi-structured in-depth interview is conducted with 20 senior professionals, primarily to comprehend opportunities for and risks of corruption in those identified highly vulnerable project stages and decision points. At the same time, open interviews (consultations) are held with 14 informants to be aware of state of the construction documentation, BIM and loopholes for corruption in the country. Consequently, these qualitative data are analyzed utilizing the principles of GT, heat/risk mapping and Social Network Analysis (SNA). The risk mapping assists the researcher in the course of prioritizing corruption risks; whilst through SNA, methodically, it is feasible to identify key actors/stakeholders in the corruption venture. Based on the generated research data, the author constructs a [substantive] grounded theory around the elements of corruption in the Ethiopian public construction sector. This theory, later, guides the subsequent strategic proposition of BIM. Finally, 85 public construction related cases are also analyzed systematically to substantiate and confirm previous findings.
By ways of these multiple research endeavors that is based, first and foremost, on the triangulation of qualitative and quantitative data analysis, the author conveys a number of key findings. First, estimations, tender document preparation and evaluation, construction material as well as quality control and additional work orders are found to be the most vulnerable stages in the design, tendering and construction phases respectively. Second, middle management personnel of contractors and clients, aided by brokers, play most critical roles in corrupt transactions within the prevalent corruption network. Third, grand corruption persists in the sector, attributed to the fact that top management and higher officials entertain their overriding power, supported by the lack of project audits and accountability. Contrarily, individuals at operation level utilize intentional and unintentional 'errors’ as an opportunity for corruption.
In light of these findings, two conceptual BIM-based risk mitigation strategies are prescribed: active and passive automation of project audits; and the monitoring of project information throughout projects’ value chain. These propositions are made in reliance on BIM’s present dimensional capabilities and the promises of Integrated Project Delivery (IPD). Moreover, BIM’s synchronous potentials with other technologies such as Information and Communication Technology (ICT), and Radio Frequency technologies are topics which received a treatment. All these arguments form the basis for the main thesis of this dissertation, that BIM is able to mitigate corruption risks in the Ethiopian public construction sector. The discourse on the skepticisms about BIM that would stem from the complex nature of corruption and strategic as well as technological limitations of BIM is also illuminated and complemented by this work. Thus, the thesis uncovers possible research gaps and lays the foundation for further studies.
Encapsulation-based self-healing concrete has received a lot of attention nowadays in civil engineering field. These capsules are embedded in the cementitious matrix during concrete mixing. When the cracks appear, the embedded capsules which are placed along the path of incoming crack are fractured and then release of healing agents in the vicinity of damage. The materials of capsules need to be designed in a way that they should be able to break with small deformation, so the internal fluid can be released to seal the crack. This study focuses on computational modeling of fracture in encapsulation-based selfhealing concrete. The numerical model of 2D and 3D with randomly packed aggreates and capsules have been developed to analyze fracture mechanism that plays a significant role in the fracture probability of capsules and consequently the self-healing process. The capsules are assumed to be made of Poly Methyl Methacrylate (PMMA) and the potential cracks are represented by pre-inserted cohesive elements with tension and shear softening laws along the element boundaries of the mortar matrix, aggregates, capsules, and at the interfaces between these phases. The effects of volume fraction, core-wall thickness ratio, and mismatch fracture properties of capsules on the load carrying capacity of self-healing concrete and fracture probability of the capsules are investigated. The output of this study will become valuable tool to assist not only the experimentalists but also the manufacturers in designing an appropriate capsule material for self-healing concrete.
Die vorliegende Arbeit richtet sich an Ingenieur*innen und Wissenschaftler*innen der technischen Gebäudeausrüstung. Sie greift einen sich abzeichnenden Änderungsbedarf in der Umwelt- und Nachhaltigkeitsbewertung von Gebäuden und wärmetechnischen Anlagen auf. Der aktuell genutzte nicht erneuerbare Primärenergiebedarf wird insbesondere hinsichtlich künftiger politischer Klima- und Umweltschutzziele als alleinige Bewertungsgröße nicht ausreichend sein. Die mit dieser Arbeit vorgestellte Ökoeffizienzbewertungsmethode kann als geeignetes Instrument zur Lösung der Probleme beitragen. Sie ermöglicht systematische, ganzheitliche Bewertungen und reproduzierbare Vergleiche wärmetechnischer Anlagen bezüglich ihrer ökologischen und ökonomischen Nachhaltigkeit. Die wesentlichsten Neuentwicklungen sind die spezifische Umweltleistung, in Erweiterung zum genutzten Primärenergiefaktor, und der Ökoeffizienzindikator UWI.
Cultural Heritage on Mobile Devices: Building Guidelines for UNESCO World Heritage Sites' Apps
(2021)
Technological improvements and access provide a fertile scenario for creating and developing mobile applications (apps). This scenario results in a myriad of Apps providing information regarding touristic destinations, including those with a cultural profile, such as those dedicated to UNESCO World Heritage Sites (WHS). However, not all of the Apps have the same efficiency. In order to have a successful app, its development must consider usability aspects and features aligned with reliable content. Despite the guidelines for mobile usability being broadly available, they are generic, and none of them concentrates specifically into cultural heritage places, especially on those placed in an open-air scenario. This research aims to fulfil this literature gap and discusses how to adequate and develop specific guidelines for a better outdoor WHS experience. It uses an empirical approach applied to an open-air WHS city: Weimar and its Bauhaus and Classical Weimar sites. In order to build a new set of guidelines applied for open-air WHS, this research used a systematic approach to compare literature-based guidelines to industry-based ones (based on affordances), extracted from the available Apps dedicated to WHS set in Germany. The instructions compiled from both sources have been comparatively tested by using two built prototypes from the distinctive guidelines, creating a set of recommendations collecting the best approach from both sources, plus suggesting new ones the evaluation.
Knapp 30.000 Windenergieanlagen zwischen Nordsee und Alpen lassen unübersehbar erkennen, dass sich unser Energiesystem in einer umfassenden Transformation befindet. Allenthalben erfährt diese Entwicklung eine breite und kontroverse Rezeption und auch in der Denkmalpflege werden Windenergieanlagen aufgrund ihrer mitunter erheblichen Auswirkungen auf die Landschaft noch überwiegend als Störung wahrgenommen. Diese Arbeit nimmt dagegen die historische Entwicklung in den Blick und plädiert dafür, Windenergieanlagen als bedeutendes Kulturerbe zu verstehen. Angesichts des Voranschreitens der Energiewende wird angenommen, dass gerade älteren Modellen als baulichen Zeugnissen umfangreicher energiepolitischer Veränderungen seit den 1970er Jahren eine hohe Bedeutung zugeschrieben werden kann. Daher besteht das Ziel darin, Windenergieanlagen herauszuarbeiten, welche als hervorragende Zeugnisse der Entwicklung der Windenergienutzung in Deutschland zu bewerten sind.
Zur Annäherung werden diese zunächst als Untersuchungsgegenstand typologisch abgegrenzt. Eine wesentliche Besonderheit von Windenergieanlagen besteht darin, dass sie im Verhältnis zur eigentlichen Flächenversiegelung durch ihre vertikale Struktur erhebliche visuelle Auswirkungen auf die Landschaft haben. Anschließend wird die Entwicklung der Windenergienutzung seit den 1970er Jahren genauer betrachtet, welche insgesamt nicht linear verlief und von vielen Konflikten gekennzeichnet ist. Diese muss im Kontext eines wachsenden Umweltbewusstseins verstanden werden, das umfangreiche energiepolitische Veränderungen zur Folge hatte. Auf dieser Grundlage werden schließlich in einer denkmalkundlichen Reihenuntersuchung Windenergieanlagen herausgearbeitet, welche in hervorragender Weise von der Entwicklung zeugen. Die Auswahl bleibt allerdings mit sechs Objekten im Verhältnis zum Gesamtbestand von knapp 30.000 Anlagen relativ beschränkt, weil das auf die Abgrenzung von Besonderheiten ausgelegte etablierte Denkmalverständnis bei einem zeitlich so dichten Bestand gleichartiger Bauwerke an eine Grenze kommt.
Abschließend werden mögliche Erhaltungsperspektiven sowie denkmaltheoretische und -praktische Schlussfolgerungen diskutiert. Dabei ist unbedingt ein Erhalt am Ursprungsstandort anzustreben, wobei im Einzelfall entschieden werden muss, ob Belange des Funktions- oder Substanzerhaltes höher zu gewichten sind. Die skizzierten Auswahlprobleme regen darüber hinaus zur Diskussion zusätzlicher denkbarer Bewertungskategorien an, wobei sich insbesondere die gesellschaftliche Wahrnehmung und ökologische Werte aufdrängen. Zudem kann für die stärkere Berücksichtigung von Funktionszusammenhängen bei der Betrachtung technischer Infrastruktur in der Denkmalpflege plädiert werden. Insgesamt führt die denkmalkundliche Auseinandersetzung mit Windenergieanlagen damit weit über die Herausarbeitung einzelner Objekte hinaus und macht eindrücklich auf aktuelle Herausforderungen der Denkmalpflege und darüber hinaus aufmerksam.
In the last two decades, Peridynamics (PD) attracts much attention in the field of fracture mechanics. One key feature of PD is the nonlocality, which is quite different from the ideas in conventional methods such as FEM and meshless method. However, conventional PD suffers from problems such as constant horizon, explicit algorithm, hourglass mode. In this thesis, by examining the nonlocality with scrutiny, we proposed several new concepts such as dual-horizon (DH) in PD, dual-support (DS) in smoothed particle hydrodynamics (SPH), nonlocal operators and operator energy functional. The conventional PD (SPH) is incorporated in the DH-PD (DS-SPH), which can adopt an inhomogeneous discretization and inhomogeneous support domains. The DH-PD (DS-SPH) can be viewed as some fundamental improvement on the conventional PD (SPH). Dual formulation of PD and SPH allows h-adaptivity while satisfying the conservations of linear momentum, angular momentum and energy. By developing the concept of nonlocality further, we introduced the nonlocal operator method as a generalization of DH-PD. Combined with energy functional of various physical models, the nonlocal forms based on dual-support concept are derived. In addition, the variation of the energy functional allows implicit formulation of the nonlocal theory. At last, we developed the higher order nonlocal operator method which is capable of solving higher order partial differential equations on arbitrary domain in higher dimensional space. Since the concepts are developed gradually, we described our findings chronologically.
In chapter 2, we developed a DH-PD formulation that includes varying horizon sizes and solves the "ghost force" issue. The concept of dual-horizon considers the unbalanced interactions between the particles with different horizon sizes. The present formulation fulfills both the balances of linear momentum and angular momentum exactly with arbitrary particle discretization. All three peridynamic formulations, namely bond based, ordinary state based and non-ordinary state based peridynamics can be implemented within the DH-PD framework. A simple adaptive refinement procedure (h-adaptivity) is proposed reducing the computational cost. Both two- and three- dimensional examples including the Kalthoff-Winkler experiment and plate with branching cracks are tested to demonstrate the capability of the method.
In chapter 3, a nonlocal operator method (NOM) based on the variational principle is proposed for the solution of waveguide problem in computational electromagnetic field. Common differential operators as well as the variational forms are defined within the context of nonlocal operators. The present nonlocal formulation allows the assembling of the tangent stiffness matrix with ease, which is necessary for the eigenvalue analysis of the waveguide problem. The present formulation is applied to solve 1D Schrodinger equation, 2D electrostatic problem and the differential electromagnetic vector wave equations based on electric fields.
In chapter 4, a general nonlocal operator method is proposed which is applicable for solving partial differential equations (PDEs) of mechanical problems. The nonlocal operator can be regarded as the integral form, ``equivalent'' to the differential form in the sense of a nonlocal interaction model. The variation of a nonlocal operator plays an equivalent role as the derivatives of the shape functions in the meshless methods or those of the finite element method. Based on the variational principle, the residual and the tangent stiffness matrix can be obtained with ease. The nonlocal operator method is enhanced here also with an operator energy functional to satisfy the linear consistency of the field. A highlight of the present method is the functional derived based on the nonlocal operator can convert the construction of residual and stiffness matrix into a series of matrix multiplications using the predefined nonlocal operators. The nonlocal strong forms of different functionals can be obtained easily via the concept of support and dual-support. Several numerical examples of different types of PDEs are presented.
In chapter 5, we extended the NOM to higher order scheme by using a higher order Taylor series expansion of the unknown field. Such a higher order scheme improves the original NOM in chapter 3 and chapter 4, which can only achieve one-order convergence. The higher order NOM obtains all partial derivatives with specified maximal order simultaneously without resorting to shape functions. The functional based on the nonlocal operators converts the construction of residual and stiffness matrix into a series of matrix multiplication on the nonlocal operator matrix. Several numerical examples solved by strong form or weak form are presented to show the capabilities of this method.
In chapter 6, the NOM proposed as a particle-based method in chapter 3,4,5, has difficulty in imposing accurately the boundary conditions of various orders. In this paper, we converted the particle-based NOM into a scheme with interpolation property. The new scheme describes partial derivatives of various orders at a point by the nodes in the support and takes advantage of the background mesh for numerical integration. The boundary conditions are enforced via the modified variational principle. The particle-based NOM can be viewed a special case of NOM with interpolation property when nodal integration is used. The scheme based on numerical integration greatly improves the stability of the method, as a consequence, the operator energy functional in particle-based NOM is not required. We demonstrated the capabilities of current method by solving the gradient solid problems and comparing the numerical results with the available exact solutions.
In chapter 7, we derived the DS-SPH in solid within the framework of variational principle. The tangent stiffness matrix of SPH can be obtained with ease, and can be served as the basis for the present implicit SPH. We proposed an hourglass energy functional, which allows the direct derivation of hourglass force and hourglass tangent stiffness matrix. The dual-support is {involved} in all derivations based on variational principles and is automatically satisfied in the assembling of stiffness matrix. The implementation of stiffness matrix comprises with two steps, the nodal assembly based on deformation gradient and global assembly on all nodes. Several numerical examples are presented to validate the method.
Für die Verminderung der betonspezifischen CO2-Emissionen wird ein verstärkter Einsatz klinkerreduzierter Zemente bzw. Betone angestrebt. Die Reduzierung des Klinkergehaltes darf jedoch nicht zu einer lebensdauerrelevanten Beeinträchtigung der Betondauerhaftigkeit führen. In diesem Zusammenhang stellt der Frost-Tausalz-Widerstand eine kritische Größe dar, da er bei höheren Klinkersubstitutionsraten häufig negativ beeinflusst wird. Erschwerend kommt hinzu, dass für klinkerreduzierte Betone nur ein unzureichender Erfahrungsschatz vorliegt. Ein hoher Frost-Tausalz-Widerstand kann daher nicht ausschließlich anhand deskriptiver Vorgaben gewährleistet werden. Demgemäß sollte perspektivisch auch für frost-tausalzbeanspruchte Bauteile eine performancebasierte Lebensdauerbetrachtung erfolgen.
Eine unverzichtbare Grundlage für das Erreichen dieser Ziele ist ein Verständnis für die Schadensvorgänge beim Frost-Tausalz-Angriff. Der Forschungsstand ist jedoch geprägt von widersprüchlichen Schadenstheorien. Somit wurde als Zielstellung für diese Arbeit abgeleitet, die existierenden Schadenstheorien unter Berücksichtigung des aktuellen Wissensstandes zu bewerten und mit eigenen Untersuchungen zu prüfen und einzuordnen. Die Sichtung des Forschungsstandes zeigte, dass nur zwei Theorien das Potential haben, den Frost-Tausalz-Angriff umfassend abzubilden – die Glue Spall Theorie und die Cryogenic Suction Theorie.
Die Glue Spall Theorie führt die Entstehung von Abwitterungen auf die mechanische Schädigung der Betonoberfläche durch eine anhaftende Eisschicht zurück. Dabei sollen nur bei moderaten Tausalzkonzentrationen in der einwirkenden Lösung kritische Spannungszustände in der Eisschicht auftreten, die eine Schädigung der Betonoberfläche hervorrufen können. In dieser Arbeit konnte jedoch nachgewiesen werden, dass starke Abwitterungen auch bei Tausalz¬konzentrationen auftreten, bei denen eine mechanische Schädigung des Betons durch das Eis auszuschließen ist. Damit wurde die fehlende Eignung der Glue Spall Theorie aufgezeigt.
Die Cryogenic Suction Theorie fußt auf den eutektischen Eigenschaften von Tausalz-lösungen, die im gefrorenen Zustand immer als Mischung auf festem Wassereis und flüssiger, hochkonzentrierter Salzlösung bestehen, solange ihre Eutektikumstemperatur nicht unter¬schritten wird. Die flüssige Phase im salzhaltigen Eis stellt für gefrorenen Beton ein bisher nicht berücksichtigtes Flüssigkeitsreservoir dar, welches trotz der hohen Salzkonzentration die Eisbildung in der Betonrandzone verstärken und so die Entstehung von Abwitterungen verursachen soll. In dieser Arbeit wurde bestätigt, dass die Eisbildung im Zementstein beim Gefrieren in hochkonzentrierter Tausalzlösung tatsächlich verstärkt wird. Das Ausmaß der zusätzlichen Eisbildung wurde dabei auch von der Fähigkeit des Zementsteins zur Bindung von Chloridionen aus der Tausalzlösung beeinflusst.
Zusammenfassend wurde festgestellt, dass die Cryogenic Suction Theorie eine gute Beschreibung des Frost-Tausalz-Angriffes darstellt, aber um weitere Aspekte ergänzt werden muss. Die Berücksichtigung der intensiven Sättigung von Beton durch den Prozess der Mikroeislinsenpumpe stellt hier die wichtigste Erweiterung dar. Basierend auf dieser Überlegung wurde eine kombinierte Schadenstheorie aufgestellt. Wichtige Annahmen dieser Theorie konnten experimentell bestätigt werden. Im Ergebnis wurde so die Grundlage für ein tiefergehendes Verständnis des Frost-Tausalz-Angriffes geschaffen. Zudem wurde ein neuer Ansatz identifiziert, um die (potentielle) Verringerung des Frost-Tausalz-Widerstandes klinkerreduzierter Betone zu erklären.
Die Auseinandersetzung mit der Digitalisierung ist in den letzten Jahren in den Medien, auf Konferenzen und in Ausschüssen der Bau- und Immobilienbranche angekommen. Während manche Bereiche Neuerungen hervorbringen und einige Akteure als Pioniere zu bezeichnen sind, weisen andere Themen noch Defizite hinsichtlich der digitalen Transformation auf. Zu dieser Kategorie kann auch das Baugenehmigungsverfahren gezählt werden. Unabhängig davon, wie Architekten und Ingenieure in den Planungsbüros auf innovative Methoden setzen, bleiben die Bauvorlagen bisher zuhauf in Papierform oder werden nach der elektronischen Einreichung in der Behörde ausgedruckt. Vorhandene Ressourcen, beispielsweise in Form eines Bauwerksinformationsmodells, die Unterstützung bei der Baugenehmigungsfeststellung bieten können, werden nicht ausgeschöpft. Um mit digitalen Werkzeugen eine Entscheidungshilfe für die Baugenehmigungsbehörden zu erarbeiten, ist es notwendig, den Ist-Zustand zu verstehen und Gegebenheiten zu hinterfragen, bevor eine Gesamtautomatisierung der innerbehördlichen Vorgänge als alleinige Lösung zu verfolgen ist.
Mit einer inhaltlich-organisatorischen Betrachtung der relevanten Bereiche, die Einfluss auf die Baugenehmigungsfeststellung nehmen, wird eine Optimierung des Baugenehmigungsverfahrens in den
Behörden angestrebt. Es werden die komplexen Bereiche, wie die Gesetzeslage, der Einsatz von Technologie aber auch die subjektiven Handlungsalternativen, ermittelt und strukturiert. Mit der Entwicklung eines Modells zur Feststellung der Baugenehmigungsfähigkeit wird sowohl ein Verständnis für Einflussfaktoren vermittelt als auch eine Transparenzsteigerung für alle Beteiligten geschaffen.
Neben einer internationalen Literaturrecherche diente eine empirische Studie als Untersuchungsmethode. Die empirische Studie wurde in Form von qualitativen Experteninterviews durchgeführt, um den Ist-Zustand im Bereich der Baugenehmigungsverfahren festzustellen. Das erhobene Datenmaterial wurde aufbereitet und anschließend einer softwaregestützten Inhaltsanalyse unterzogen. Die Ergebnisse wurden in Kombination mit den Erkenntnissen der Literaturrecherche in verschiedenen Analysen als Modellgrundlage aufgearbeitet.
Ergebnis der Untersuchung stellt ein Entscheidungsmodell dar, welches eine Lücke zwischen den gegenwärtigen
Abläufen in den Baubehörden und einer Gesamtautomatisierung der Baugenehmigungsprüfung schließt. Die prozessorientierte Strukturierung entscheidungsrelevanter Sachverhalte im Modell ermöglicht eine Unterstützung bei der Baugenehmigungsfeststellung für Prüfer und Antragsteller. Das theoretische Modell konnte in Form einer Webanwendung in die Praxis übertragen werden.
In den letzten Jahrzehnten unterlag der Straßenbetriebsdienst tiefgreifenden Veränderungen. Diese Veränderungen schließt auch die betriebliche Steuerungsphilosophie ein, um eine planungsrationale und ökonomische Gestaltung des Straßenbetriebsdienstes zu unterstützen. Dabei erfolgt eine verbindliche Vorgabe der Leistungsinhalte und -umfänge und ermöglicht eine Budgetierung für das vorgesehene Jahresarbeitsprogramm.
Ziel der Untersuchung ist die Entwicklung eines Modells für die Ermittlung von leistungsbezogenen Musterjahresganglinien zur Unterstützung der Jahresarbeitsplanung. Dafür lagen für jede Leistung des Leistungsbereiches „Grünpflege“ jeweils 260 einzelne Jahresganglinien vor.
Im Ergebnis der Untersuchung wird die leistungsbezogene Musterjahresganglinie in vier Schritten ermittelt. Im ersten Schritt erfolgt die Prüfung der Datenqualität; im zweiten Schritt eine Korrelationsanalyse; im dritten Schritt die fachliche Überprüfung der Leistungsausprägung und im vierten Schritt die Ermittlung der leistungsbezogenen Musterjahresganglinie aus den verbliebenen leistungsbezogenen Jahresganglinien.
Das Kernthema dieser Arbeit ist die Beschäftigung mit den Folgen des Uranbergbaus in dem Gebiet um die ehemalige Abbauregion der Wismut SAG/SDAG in Ronneburg (Ostthüringen). Dieses Thema wird unter historischen, sozialen, kulturanthropologischen und künstlerischen Aspekten betrachtet und in den Zusammenhang mit den weltweiten Voraussetzungen der Nuklearindustrie und Auswirkungen des Uranbergbaus und seiner Folgen gestellt. Die Arbeit legt dar, wie eine Uranbergbaufolgelandschaft entsteht und welches Wissen ist für ein angemessenes Verständnis des Phänomens wichtig ist. Es wird untersucht, ob Kunst bezüglich der Uranbergbaufolgelandschaft einen relevanten Beitrag leisten kann bzw. in welcher Form dies versucht wurde, bzw. stellte Arbeiten vor, die verwandete Themen bearbeitet haben. In Kombination dieser beiden Hauptaspekte geht die Arbeit der Frage nach, welche Faktoren die Uranbergbaufolgelandschaft prägen und ob es sinnvolle Beteiligungsfelder für künstlerisches Forschen oder Handeln gibt sowie welche Bedingungen hierfür erfüllt werdenmüssten. Die Kernthese der Arbeit ist, dass künstlerische Arbeiten im Themenfeld des Uranbergbaus unter bestimmten Bedingungen relevante Beiträge leisten können.
El presente trabajo se inscribe en el campo de los estudios urbanos y plantea como ejes estructurantes la intersección entre las políticas públicas, el barrio y las prácticas del habitar (de Certeau, 1996, 1999; Gravano, 2003) en el marco de las transformaciones del espacio urbano en los barrios pericentrales, también denominados tradicionales de la ciudad de Córdoba, particularmente lo acontecido en Barrio Güemes, durante el periodo 2010-2016.
El propósito del abordaje se inscribe en conocer y realizar aportes generalizables a la comprensión de las prácticas del habitar como unidad de análisis. En ese marco, el problema de investigación se formula en el siguiente interrogante: ¿cómo se modifican las prácticas del habitar en el marco de las transformaciones urbanas, en un modo de producción capitalista? Se entiende a las prácticas como acciones elementales de las “artes de hacer” que las personas ordinarias ponen en marcha en su vida cotidiana: para circular, cocinar, trabajar, vincularse. También, a través de las mismas resignifican los espacios, les otorgan una valoración (positiva o negativa), se identifican como parte de la identidad y a su vez se reconocen lugares de (des)encuentro y vías de circulación.
Para su abordaje se toma como unidad de estudio el caso de barrio Güemes. El recorte espacial (o físico) del trabajo empírico está localizado en la ciudad de Córdoba, y se sitúa en la periferia del área central. Esta localización permite comprender el surgimiento de las primeras expansiones urbanas como consecuencia del crecimiento demográfico y cómo estas, se transformaron en los primeros barrios. El recorte temporal se encuentra delimitado entre los años 2000 y 2016, respaldado intencionalmente por dos acontecimientos significativos: el censo de población (2001) y la celebración del Bicentenario de la Independencia en Argentina.
Los cambios materializados en ciertos espacios urbanos, tanto en ciudades latinoamericanas (Buenos Aires, Salvador de Bahía en Brasil, México Distrito Federal, etc.) como en otras partes del mundo (New Orleans en los Estados Unidos, el distrito de Kreuzberg- Friedrichshain en Berlín, el puerto de Hamburgo en Alemania, etc.) demuestran cómo estos espacios se van transformado acorde al modo de reproducción capitalista. Pues, se trataba de espacios que en algún momento cumplieron funciones económicas-sociales jerarquizadas y luego por la dinámica misma del capitalismo, la sobreacumulación, dejan de ser rentables y pasan a ser espacios “obsoletos”. En ese sentido, la omisión de acciones públicas y/o privadas, la desatención y el crecimiento de situaciones sociales conflictivas (delitos, inseguridad, degradación) en estos espacios, funciona como argumento para que los gobiernos locales comiencen a planear el futuro y modernizarlos.
De esta manera, se plantean políticas urbanas con el objetivo de impulsar acciones de renovación o rehabilitación para dinamizar económicamente determinados sectores. Dos elementos discursivos aparecen como posibilitadores del proceso de renovación urbana: el turismo y el patrimonio. En ese sentido, bajo la recuperación patrimonial de ciertos lugares se dinamizan los territorios, por lo que el turismo se vuelve una herramienta económica que produce un excedente de plusvalía. La puesta en valor de bienes tangibles e intangibles atrae la afluencia de visitantes y, a la vez, es rentable económicamente. Ahora bien, muchas veces los proyectos tienen en cuenta las variables morfológicas y físicas, dejando en un segundo plano el impacto en el espacio próximo y las relaciones entre los habitantes con su territorio. Actualmente los espacios elegidos por los municipios para la intervención pública y/o privada son los barrios, puesto que son espacios cercanos al centro y considerados estratégicos. Por lo general, el argumento es la necesidad de rehabilitar/renovar zonas poco aprovechadas o degradadas con el objetivo de mejorar la calidad de vida de la población y dinamizar el sector (Brites, 2017; Guevara, 2012). Desde los 2000 el barrio Güemes asiste a un proceso de crecimiento inusitado. La cantidad de artesanos se disparó y variedad de productos ofrecidos, emergieron los comercios que forman parte de la oferta comercial, gastronómica y cultural del barrio. Hace varios años, presenta nuevos actores económicos que se pueden observar en la apertura de galerías comerciales; ubicadas sobre el eje de las calles Belgrano, Achával Rodríguez, Fructuoso Rivera y la creciente aparición de edificaciones alrededor de la feria artesanal histórica; con la venta y exposición de piezas del arte plástico, gastronomía, negocios de diseñadores cordobeses y hasta la inclusión de la idea del del “desarrollo sustentable” en los techos de las galerías.
La modificación del corpus normativo, la aparición de edificación en altura y el boom económico tuvieron como resultado, la valorización del suelo urbano, la retroalimentación en el espacio con el emplazamiento de nuevas actividades comerciales y servicios culturales. A la par, en el espacio barrial se presentan nuevos residentes con otros hábitos y prácticas que ponen en disputa los modos de habitar en el espacio.
A riesgo de simplificar, estas transformaciones fueron producto de los cambios políticoideológicos, de los modelos e instrumentos de gestión urbana puestos en juego en los diversos momentos históricos y de las propias prácticas sociales y culturales de los habitantes. De esta manera, se centrará la mirada analítica en las transformaciones de las prácticas del habitar de los pobladores de los Barrios Güemes, en el marco de la metamorfosis del espacio urbano (atravesado por tendencias de mediatización y mercantilización de la experiencia) que conjugó un proceso de intersección y asociatividad entre políticas públicas y expansión inmobiliaria.
In recent years, the discussion of digitalization has arrived in the media, at conferences, and in committees of the construction and real estate industry. While some areas are producing innovations and some contributors can be described as pioneers, other topics still show deficits with regard to digital transformation. The building permit process can also be counted in this category. Regardless of how architects and engineers in planning offices rely on innovative methods, building documents have so far remained in paper form in too many cases, or are printed out after electronic submission to the authority. Existing resources – for example in the form of a building information model, which could provide support in the building permit process – are not being taken advantage of. In order to use digital tools to support decision-making by the building permit authorities, it is necessary to understand the current situation and to question conditions before pursuing the overall automation of internal authority processes as the sole solution.
With a substantive-organizational consideration of the relevant areas that influence building permit determination, an improvement of the building permit procedure within authorities is proposed. Complex areas – such as legal situations, the use of technology, as well as the subjective alternative action – are determined and structured. With the development of a model for the determination of building permitability, both an understanding of influencing factors is conveyed and an increase in transparency for all parties involved is created.
In addition to an international literature review, an empirical study served as the research method. The empirical study was conducted in the form of qualitative expert interviews in order to determine the current state in the field of building permit procedures. The collected data material was processed and subsequently subjected to a software-supported content analysis. The results were processed, in combination with findings from the literature review, in various analyses to form the basis for a proposed model.
The result of the study is a decision model that closes the gap between the current processes within the building authorities and an overall automation of the building permit review process. The model offers support to examiners and applicants in determining building permit eligibility, through its process-oriented structuring of decision-relevant facts. The theoretical model could be transferred into practice in the form of a web application.
Structures under wind action can exhibit various aeroelastic interaction phenomena, which can lead to destructive and catastrophic events. Such unstable interaction can be beneficially used for small-scale aeroelastic energy harvesting. Proper understanding and prediction of fluid−structure interactions (FSI) phenomena are therefore crucial in many engineering fields. This research intends to develop coupled FSI models to extend the applicability of Vortex Particle Methods (VPM) for numerically analysing the complex FSI of thin-walled flexible structures under steady and fluctuating incoming flows. In this context, the flow around deforming thin bodies is analysed using the two-dimensional and pseudo-three-dimensional implementations of VPM. The structural behaviour is modelled and analysed using the Finite Element Method. The partitioned coupling approach is considered because of the flexibility of using different mathematical procedures for solving fluid and solid mechanics. The developed coupled models are validated with several benchmark FSI problems in the literature. Finally, the models are applied to several fundamental and application field of FSI problems of different thin-walled flexible structures irrespective of their size.
Überwachungspraktiken und –technologien sind in der heutigen Welt omnipräsent und wohl nicht mehr wegzudenken. Ob CCTV-Systeme, Biometrie oder Data Mining – unsere Gesellschaft befindet sich in einem ständigen Überwachungsmodus, der sich weit über einen begrenzten Raum oder zeitlichen Rahmen hinausstreckt. Überwacht wird überall: privat, am Arbeitsplatz oder im Cyberspace, und alles: Interaktionen, Äußerungen, Verhalten. Es werden Unmengen von Daten gesammelt, strukturiert, kombiniert, gekauft und verkauft.
Dieser Modus stellt mehr als eine bloße Neuauflage des Bentham-Foucaultschen Panoptikons dar: der aktuelle Überwachungsmodus, die informationelle Asymmetrie als ihren tragenden Pfeiler beibehaltend, dient nicht nur der Disziplinierung, sondern viel mehr der Kontrolle, die nicht primär negativ-sanktionierend, sondern positiv-leistungssteigernd wirkt: es ist nicht das Ziel, die Individuen zu bestrafen und ein bestimmtes Verhalten zu verbieten, sondern sie durch Belohnung, Interaktion und spielerische Elemente dazu zu bringen, sich auf die gewünschte Art zu verhalten und im Endeffekt sich selbst zu überwachen. Die Kontrolle wird auf diese Weise zum zentralen Schauplatz der Machtausübung, die sich über das Beobachten, Speichern, Auswerten und Sortieren vollzieht. Diese Prozesse hinterlassen keinen Frei- oder Spielraum für Ambiguität; sie verwirklichen die Diktatur der klaren Kante, der Klassifizierung und Kategorisierung ohne Schattierungen. Die Macht selbst befindet sich in einem kontinuierlichen Fluss, sie ist ubiquitär, dennoch schwer lokalisierbar. Sie fungiert nicht mehr unter dem Signum einer pseudosakralen zentralen Instanz, sondern wird durch diverse Akteure und Assemblages kolportiert. Die durch sie implizierten Praktiken der Selbstkontrolle, kulturgeschichtlich ebenfalls religiös oder zumindest philosophisch konnotiert, sind die neuen Rituale des Sehens und Gesehen-Werdens.
Im Zeitalter der elektronischen Datentechnologien gibt es diverse Agenten der Überwachung. Vom besonderen Interesse sind dabei die Wearables, weil sie intim, affektiv und haptisch arbeiten und so, über das Sehen und Gesehen-Werden hinaus, das Berühren und Berührt-Werden und somit die Neuregulierung von Nähe und Distanz ins Spiel bringen. Sie schreiben sich zwar in eine Vermessungstradition eins, die ihre Ursprünge mindestens im 19. Jahrhundert hat, unterscheiden sich aber von dieser in ihrer Intensität und Sinnlichkeit.
The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked.
This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored.
Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others.
“How to understand the interaction between urban space and social processes” is a significant question in urban studies. To answer that, the city needs to be recognized as both a physical and a social entity and urban theory and practice need to connect these (Hillier 2007). The present research aims to re-examine the complex correlation between spatial and social inequality manifestations in the city of Tehran regarding the concept of segregation.
It observes the causes and consequences of segregation in Tehran and provides an insight into both concepts of socio-spatial segregation and neighborhood effects and creates a link between them. First, I argue when, where, and for whom spatial locations affect the chances of social networks in Tehran. Then, I discuss how neighborhood effects can emerge via social network mechanisms and thus affect the perceptions of residents in the neighborhoods.
Die interdisziplinäre Dissertationsschrift lässt sich im Horizont internationaler Forschungen zu Denkmalwerten, neuer Ansätze in der Kultur- und Wissensvermittlung rund um Baudenkmale sowie künstlerisch- ethnographischem Forschen an und mit Denkmalen verorten.
Der erste Teil der Arbeit widmet sich Denkmalen und der Denkmalpflege im Kontext künstlerischer und sozialwissenschaftlicher Allianzen. Ausgangspunkt ist die Feststellung, dass die Denkmalpflege zwar sehr vieles über Denkmale weiß, aber kaum etwas über deren Rezeption beim breiten Publikum. Im Mittelpunkt steht die Frage, wie hier Praktiken der bildenden Kunst und Arbeitsweisen der Kulturanthropologie die Disziplin der Denkmalpflege bereichern können, oder sogar müssen.
Den zweiten Teil bildet eine empirische Studie, in der die populäre Wahrnehmung von Denkmalen qualitativ erforscht wird. Das Schloss und Rittergut Bedheim im südlichen ländlichen Thüringen dient dabei als konkreter Untersuchungsort. Reaktionen von Besucherinnen und Besuchern werden mit Hilfe von drei künstlerischen Eingriffen angeregt und diese dann ethnographisch-offen dokumentiert und ausgewertet.
Auf dieser Basis werden Zugänge zum Denkmal ermittelt. Während die meisten BesucherInnen das Denkmal als „Arbeit“ wahrnehmen, geraten einige ins „Träumen“ oder „Erinnern“, man „genießt“ das Ensemble als authentische und ästhetische Ressource, oder findet Zugang über das spontane „Erklären“ baukonstruktiver oder baulicher Situationen. Für andere bedeutet der Besuch die „Teilhabe“ an einem Prozess. Schloss Bedheim wird als Ort stetiger Veränderung geschätzt. In der Wahrnehmung der BesucherInnen verquicken sich Aspekte des Bewunderns mit solchen des Abgrenzens. Die eigene Alltagswelt und das eigene Zuhause bilden hierbei Bezugspunkte. Schloss Bedheim wird auf diese Weise zum Imaginationsraum, zur Energietankstelle und zur gern besuchten Problemwelt.
Die Ergebnisse der Arbeit liegen in zwei Erkenntnisfeldern: Auf einer methodischen Ebene zeigt sie, wie in der Denkmalpflege vertiefte Fachlichkeit mit einer tatsächlichen Kontaktaufnahme mit dem Publikum verbunden werden kann und damit soziale Gefüge an Baudenkmalen qualitativ ermittelt werden können. Ebenso wird deutlich, dass künstlerische Eingriffe Auslöser von Gesprächen sind, als Kontaktflächen zur Alltagswelt dienen und so zu einer vielfältigen Auseinandersetzung mit Denkmalen führen.
Auf einer inhaltlichen Ebene liefert die Arbeit Erkenntnisse zu Wahrnehmungsweisen von Denkmalen. Neben den erwähnten Zugängen, wird die Existenz und Bedeutung einer regional vernetzten Wahrnehmung von Denkmalen aufgedeckt. Des Weiteren zeigen die Ergebnisse, dass das Öffnen von Baudenkmalen als und im Prozess ungenutzte Potentiale birgt und es wird angeregt, dies in zukünftigen denkmalpflegerischen Konzepten eine größere Rolle spielen zu lassen. Die Vision eines „Kompendiums der Zugänge“ wird entwickelt, mit dessen Hilfe sich ein enormes Wissen über Rollen und Bedeutungen die Baudenkmale in unserer Gesellschaft spielen, sammeln ließe.
This thesis examines urban partition in Nicosia, the capital of Cyprus, and how its changing roles and shifting perceptions in a post-conflict setting reflect power relations, and their constant renegotiation. Nicosia, the capital of Cyprus, was officially divided in 1974 in the aftermath of an eighteen-year-long conflict between the island’s Turkish- and Greek-Cypriot communities. As a result, a heavily militarized Buffer Zone, established as an emergency measure against perpetuation of intercommunal violence, has been cutting through its historic centre ever since.
This thesis departs from a genuine interest in the material and ideational dimensions of urban partition. How is it constructed, not merely in physical terms but in the minds of the societies affected by conflict? How is it established in official and everyday discourses? What kinds of mechanisms have been developed to maintain it, and make an inseparable part of the urban experience? Moreover, taking into account the consensus in relevant literature pertaining to the imperative for its removal, this thesis is inquiring into the relevance of peace agreements to overcoming urban partition. For this purpose, it also looks at narratives and practices that have attempted to contest it.
The examples examined in this thesis offer pregnant analytical moments to understand Nicosia’s Buffer Zone as a dynamic social construct, accommodating multiple visions of and for the city. Its space ‘in-between’ facilitates encounters between various actors, accommodates new meanings, socio-spatial practices and diverse imaginaries. In this sense, urban partition is explored in this thesis as a phenomenon that transcends scales as well as temporalities, entwining past, present, and future.
This work presents a robust status monitoring approach for detecting damage in cantilever structures based on logistic functions. Also, a stochastic damage identification approach based on changes of eigenfrequencies is proposed. The proposed algorithms are verified using catenary poles of electrified railways track. The proposed damage features overcome the limitation of frequency-based damage identification methods available in the literature, which are valid to detect damage in structures to Level 1 only. Changes in eigenfrequencies of cantilever structures are enough to identify possible local damage at Level 3, i.e., to cover damage detection, localization, and quantification. The proposed algorithms identified the damage with relatively small errors, even at a high noise level.
This thesis presents the advances and applications of phase field modeling in fracture analysis. In this approach, the sharp crack surface topology in a solid is approximated by a diffusive crack zone governed by a scalar auxiliary variable. The uniqueness of phase field modeling is that the crack paths are automatically determined as part of the solution and no interface tracking is required. The damage parameter varies continuously over the domain. But this flexibility comes with associated difficulties: (1) a very fine spatial discretization is required to represent sharp local gradients correctly; (2) fine discretization results in high computational cost; (3) computation of higher-order derivatives for improved convergence rates and (4) curse of dimensionality in conventional numerical integration techniques. As a consequence, the practical applicability of phase field models is severely limited.
The research presented in this thesis addresses the difficulties of the conventional numerical integration techniques for phase field modeling in quasi-static brittle fracture analysis. The first method relies on polynomial splines over hierarchical T-meshes (PHT-splines) in the framework of isogeometric analysis (IGA). An adaptive h-refinement scheme is developed based on the variational energy formulation of phase field modeling. The fourth-order phase field model provides increased regularity in the exact solution of the phase field equation and improved convergence rates for numerical solutions on a coarser discretization, compared to the second-order model. However, second-order derivatives of the phase field are required in the fourth-order model. Hence, at least a minimum of C1 continuous basis functions are essential, which is achieved using hierarchical cubic B-splines in IGA. PHT-splines enable the refinement to remain local at singularities and high gradients, consequently reducing the computational cost greatly. Unfortunately, when modeling complex geometries, multiple parameter spaces (patches) are joined together to describe the physical domain and there is typically a loss of continuity at the patch boundaries. This decrease of smoothness is dictated by the geometry description, where C0 parameterizations are normally used to deal with kinks and corners in the domain. Hence, the application of the fourth-order model is severely restricted. To overcome the high computational cost for the second-order model, we develop a dual-mesh adaptive h-refinement approach. This approach uses a coarser discretization for the elastic field and a finer discretization for the phase field. Independent refinement strategies have been used for each field.
The next contribution is based on physics informed deep neural networks. The network is trained based on the minimization of the variational energy of the system described by general non-linear partial differential equations while respecting any given law of physics, hence the name physics informed neural network (PINN). The developed approach needs only a set of points to define the geometry, contrary to the conventional mesh-based discretization techniques. The concept of `transfer learning' is integrated with the developed PINN approach to improve the computational efficiency of the network at each displacement step. This approach allows a numerically stable crack growth even with larger displacement steps. An adaptive h-refinement scheme based on the generation of more quadrature points in the damage zone is developed in this framework. For all the developed methods, displacement-controlled loading is considered. The accuracy and the efficiency of both methods are studied numerically showing that the developed methods are powerful and computationally efficient tools for accurately predicting fractures.
In the last decades, Finite Element Method has become the main method in statics and dynamics analysis in engineering practice. For current problems, this method provides a faster, more flexible solution than the analytic approach. Prognoses of complex engineer problems that used to be almost impossible to solve are now feasible.
Although the finite element method is a robust tool, it leads to new questions about engineering solutions. Among these new problems, it is possible to divide into two major groups: the first group is regarding computer performance; the second one is related to understanding the digital solution.
Simultaneously with the development of the finite element method for numerical solutions, a theory between beam theory and shell theory was developed: Generalized Beam Theory, GBT. This theory has not only a systematic and analytical clear presentation of complicated structural problems, but also a compact and elegant calculation approach that can improve computer performance.
Regrettably, GBT was not internationally known since the most publications of this theory were written in German, especially in the first years. Only in recent years, GBT has gradually become a fertile research topic, with developments from linear to non-linear analysis.
Another reason for the misuse of GBT is the isolated application of the theory. Although recently researches apply finite element method to solve the GBT's problems numerically, the coupling between finite elements of GBT and other theories (shell, solid, etc) is not the subject of previous research. Thus, the main goal of this dissertation is the coupling between GBT and shell/membrane elements. Consequently, one achieves the benefits of both sides: the versatility of shell elements with the high performance of GBT elements.
Based on the assumptions of GBT, this dissertation presents how the separation of variables leads to two calculation's domains of a beam structure: a cross-section modal analysis and the longitudinal amplification axis. Therefore, there is the possibility of applying the finite element method not only in the cross-section analysis, but also the development for an exact GBT's finite element in the longitudinal direction.
For the cross-section analysis, this dissertation presents the solution of the quadratic eigenvalue problem with an original separation between plate and membrane mechanism. Subsequently, one obtains a clearer representation of the deformation mode, as well as a reduced quadratic eigenvalue problem.
Concerning the longitudinal direction, this dissertation develops the novel exact elements, based on hyperbolic and trigonometric shape functions. Although these functions do not have trivial expressions, they provide a recursive procedure that allows periodic derivatives to systematise the development of stiffness matrices. Also, these shape functions enable a single-element discretisation of the beam structure and ensure a smooth stress field.
From these developments, this dissertation achieves the formulation of its primary objective: the connection of GBT and shell elements in a mixed model. Based on the displacement field, it is possible to define the coupling equations applied in the master-slave method. Therefore, one can model the structural connections and joints with finite shell elements and the structural beams and columns with GBT finite element.
As a side effect, the coupling equations limit the displacement field of the shell elements under the assumptions of GBT, in particular in the neighbourhood of the coupling cross-section.
Although these side effects are almost unnoticeable in linear analysis, they lead to cumulative errors in non-linear analysis. Therefore, this thesis finishes with the evaluation of the mixed GBT-shell models in non-linear analysis.
Natural Urban Resilience: Understanding general urban resilience through Addis Ababa’s inner city
(2021)
This dissertation describes the urban actors and spatial practices that contribute to natural urban resilience in Addis Ababa’s inner city. Natural urban resilience is a non-strategical and bottom-up, everyday form of general urban resilience – an urban system’s ability to maintain its essential characteristics under any change. This study gains significance by exposing conceptual gaps in the current un-derstanding of general urban resilience and highlighting its unconvincing applicability to African cities. This study attains further relevance by highlighting the danger of the ongoing large-scale redevelopment of the inner city. The inner city has naturally formed, and its urban memory, spaces, and social cohesion contribute to its primarily low-income population’s resilience. This thesis argues that the inner city’s demolition poses an incalculable risk of maladaptation to future stresses and shocks for Addis Ababa. The city needs a balanced urban discourse that highlights the inner city’s qualities and suggests feasible urban transformation measures. “Natural Urban Resilience” contributes an empirical study to the debate by identifying those aspects of the inner city that contribute to general resilience and identifies feasible action areas. This study develops a qualitative research design for a single case study in Addis Ababa. The data is obtained through expert interviews, interviews with resi-dents, and the analysis of street scene photos, which are abstracted using Grounded Theory. That way, this thesis provides first-time knowledge about who and what generates urban resilience in the inner city of Addis Ababa and how. Furthermore, the study complements existing theories on general urban resilience. It provides a detailed understanding of the change mechanisms in resilience, of which it identifies four: adaptation, upgrading, mitigation, and resistance. It also adapts the adaptive cycle, a widely used concept in resilience thinking, conceptually for urban environments. The study concludes that the inner city’s continued redevelopment poses an incalculable threat to the entire city. Therefore, “Natural urban resilience” recommends carefully weighing any intervention in the inner city to promote Addis Ababa’s overall resilience. This dissertation proposes a pattern language for natural urban resilience to support these efforts and to translate the model of natural urban resilience into practice.
Housing estates were fundamentally conceived upon state socialist utopia ideas to provide standard housing for citizens. While former state socialist housing estates have been extensively researched in the field of architecture, urban and sociology studies, there is still a gap in identifying how production processes affect morphological changes during the post-socialist era. This thesis compares the processes in the production of the largest housing estates of Marzahn in GDR and Petržalka in Czechoslovakia from 1970 to 1989 through contextual analysis of primary and secondary sources, which include visual maps, diagrams from professional architecture and planning journals, government documents and textbooks, as well as academic journals, books and newspaper articles. Then it discusses how these processes inadvertently created conducive conditions affecting their development in the market economy after 1989. It then interprets the results through application of Actor-Network Theory and Historical Institutionalism, while conceptualising them through David Harvey’s dialectical utopianism theory. Harvey (2000) delineates two types of utopia, one of spatial form and one of process. The former refers to materialised ideals in physical forms whereas the latter refers to the ongoing process of spatializing. The thesis aims to show how the production of Marzahn in GDR was more path dependent on policies established in 1950s and 1960s whereas Petržalka was a product of new Czechoslovakian policies in 1970s, changing aspects of the urban planning process, a manifestation of a more emphatic technocratic thinking on a wider scale. This ultimately influences the trajectories of development after 1989, showing more effects in Petržalka.
Transformation of the Environment: Influence of “Urban Reagents.” German and Russian Case Studies
(2021)
An urban regeneration manifests itself through urban objects operating as change agents. The en-tailed diverse effects on the surroundings demonstrate experimental origin - an experiment as a preplanned but unpredictable method. An understanding of influences and features of urban ob-jects requires scrutiny due to a high potential of the elements to force an alteration and reactions. This dissertation explores the transformation of the milieu and mechanisms of this transformation.
This dissertation investigates the interactions between urban form, allocation of activities, and pedestrian movement in the context of urban planning. The ability to assess the long-term impact of urban planning decisions on what people do and how they get there is of central importance, with various disciplines addressing this topic. This study focuses on approaches proposed by urban morphologists, urban economists, and transportation planners, each aiming the attention at a different part of the form-activity-movement interaction. Even though there is no doubt about the advantages of these highly focused approaches, it remains unclear what is the cost of ignoring the effect of some interactions while considering others. The general aim of this dissertation is to empirically test the validity of the individual models and quantify the impact of this isolationist approach on their precision and bias.
For this purpose, we propose a joined form-activity-movement interaction model and conduct an empirical study in Weimar, Germany. We estimate how the urban form and activities affect movement as well as how movement and urban form affect activities. By estimating these effects in isolation and simultaneously, we assess the bias of the individual models.
On the one hand, the empirical study results confirm the significance of all interactions suggested by the individual models. On the other hand, we were able to show that when these interactions are estimated in isolation, the resulting predictions are biased. To conclude, we do not question the knowledge brought by transportation planners, urban morphologists, and urban economists. However, we argue that it might be of little use on its own.
We see the relevance of this study as being twofold. On the one hand, we proposed a novel methodological framework for the simultaneous estimation of the form-activity-movement interactions. On the other hand, we provide empirical evidence about the strengths and limitations of current approaches.
Die Arbeit leistet einen wissenschaftlichen Beitrag zur Erforschung der Einsatzmöglichkeiten eines Immobilienportfoliomanagements für öffentliche museale Schlösserverwaltungen in Deutschland. Insbesondere wird ein für deren Organisation spezifisches Modell zur Investitionssteuerung herausgearbeitet und dessen Anwendbarkeit in der Praxis mit Experten diskutiert.
Strategien der Sichtbarkeit und Sichtbarmachung von ‚Wearable Enhancement‘ im Bereich Smart Health
(2022)
Die vorliegende Forschungsarbeit befasst sich mit der Entwicklung und Gestaltung von körpernahen, tragbaren Artefakten für den digitalisierten Gesundheitsbereich. Unter dem entwickelten Begriff des Wearable Enhancements werden die verschiedenen Termini aus smarten Textilien, Fashion Technologies, Wearable Technologies sowie elektronischen Textilien zusammengefasst und zwei zentrale Forschungsfragen untersucht. Wie kann Wearable Enhancement im Bereich Smart Health ethisch, sozial und ökologisch entwickelt und gestaltet werden? Inwiefern können textile Schnittstellen die Wahrnehmung und die Wahrnehmbarkeit des Körpers verändern? Mit der ersten Forschungsfrage sollen vorrangig Ansätze und Strategien der Sichtbarkeit für die Entwicklung und Gestaltung diskutiert werden, welche Aussagen für die Designpraxis, den Gestaltungs- und Designforschungsprozess sowie die Designlösungen selbst generieren sollen. Die zweite Forschungsfrage zielt darauf, Formen der Sichtbarmachung von sowie für Wearable Enhancement zu untersuchen.
Anhand von drei konkreten Fallstudien werden wesentliche Aspekte der Rezeption, Perzeption, Konstruktion, Konfiguration und Konzeption von soziotechnischen Artefakten zur Funktionssteigerung des menschlichen Körpers untersucht und verschiedene Formen der Sichtbarkeit und Sichtbarmachung entwickelt. In der Arbeit wird ein dual-angelegter transdisziplinärer Designforschungsansatz entwickelt und praktiziert, welcher sowohl die menschlichen Bedürfnisse der Nutzer*innen als auch die Weiterentwicklung von Technologien berücksichtigt. Auf dieser Grundlage wird versucht Anregungen für ein zukunftsfähiges und zugleich verantwortungsorientiertes Design zu geben.
The thesis addresses journalistic, administrative and judicial historical documentation to analyze the links between aridity and geographical imaginaries in the province of Catamarca (Argentina), from a historical point of view. The research aims to contribute to the understanding of the "non-hegemonic" versions of Modernity, its territoriality and the productions of geographic imaginaries that they involve. To provide a broad purpose, it raises as an object of study the ways in which "modern" practices, actors, links, discourses and expectations about the territory are mobilized when they are located in a space in "other" water conditions. those that are intended to "civilize" it.
The general objective of the research is to analyze time-space controversies around water in the city and valley of Catamarca towards 19th and 20th centuries. The specific objectives derived are a) analyzing how various actors are related to waters behavior - in other words, the local water regime – in Catamarca and the meanings built around it. b) to analyze the controversies about the place of Catamarca and its water regime in the local and national geographic imaginary. c) analyze controversies in which the relationships between actors and materialities involved in modernization projects are put into discussion.
These concerns by the experience of the actors and by the historical-spatial imagination of the territory, combined, led to the construction of an interdisciplinary methodology based on tools from anthropology, sociology, geography and history.
Open Innovation in kleinen und mittleren Unternehmen (KMU) hat sich stark ausdifferenziert. Dabei zeigt die Empirie, dass KMU unterschiedliche Wege in der offenen Entwicklung von Innovationen begehen. Um die bestehende Literatur zu erweitern, wurden mit dieser Dissertation die Ziele verfolgt 1) offene Innovationsaktivitäten in KMU aus einer Prozessperspektive aufzudecken und genau zu beschreiben und 2) zu erklären, warum sich die Öffnung von Innovationsprozessen in KMU unterscheidet. Dafür wurde auf eine multiple Fallstudienanalyse zurückgegriffen. Untersuchungsobjekte waren kleine etablierte High-Tech Unternehmen aus den neuen Bundesländern. Die Ergebnisse zeigen sechs Prozessmodelle der offenen Innovationsentwicklung, beschrieben als Open Innovation Muster. Deskriptionen dieser Muster unter Berücksichtigung von formenden Innovationsaktivitäten, ausgetauschtem Wissen, beteiligten externen Akteuren und Gründen für und gegen Open Innovation vermitteln ein über den bisherigen Forschungsstand hinausgehendes Verständnis von Open Innovation in KMU. Zudem zeigen die Ergebnisse, dass die Entrepreneurial Orientation erklärt, warum KMU bei der Ausgestaltung von offenen Innovationsprozessen unterschiedlich vorgehen. In der Dissertation wird detailliert dargelegt, welche Open Innovation Muster sich anhand der Entrepreneurial Orientation von KMU (nicht-entrepreneurial bis entrepreneurial) zeigen. Die Ergebnisse liefern sowohl wissenschaftliche Implikationen, als auch Handlungsempfehlungen für die Unternehmenspraxis.
Reine Calciumsulfatbindemittel weisen eine hohe Löslichkeit auf. Feuchteinwirkung führt zudem zu starken Festigkeitsverlusten. Aus diesem Grund werden diese Bindemittel ausschließlich für Baustoffe und -produkte im Innenbereich ohne permanenten Feuchtebeanspruchung eingesetzt. Eine Möglichkeit, die Feuchtebeständigkeit zu erhöhen, ist die Beimischung puzzolanischer und zementärer Komponenten. Diese Mischsysteme werden Gips-Zement-Puzzolan-Bindemittel (kurz: GZPB) genannt.
Mischungen aus Calciumsulfaten und Portlandzementen allein sind aufgrund der treibenden Ettringitbildung nicht raumbeständig. Durch die Zugabe von puzzolanischen Stoffen können aber Bedingungen im hydratisierenden System geschaffen werden, welche eine rissfreie Erhärtung ermöglichen. Hierfür ist eine exakte Rezeptierung der GZPB notwendig, um die GZPB-typischen, ettringitbedingten Dehnungen zeitlich zu begrenzen. Insbesondere bei alumosilikatischen Puzzolanen treten während der Hydratation gegenüber rein silikatischen Puzzolanen deutlich höhere Expansionen auf, wodurch die Gefahr einer potenziellen Rissbildung steigt. Für die Erstellung geeigneter GZPB-Zusammensetzungen bedarf es daher einer Methodik, um raumbeständig erhärtende Systeme sicher von destruktiven Mischungen unterscheiden zu können.
Sowohl für die Rezeptierung als auch für die Anwendung der GZPB existieren in Deutschland keinerlei Normen. Darüber hinaus sind die Hydratationsvorgänge sowie die entstehenden Produkte nicht konsistent beschrieben. Auch auf die Besonderheiten der GZPB mit alumosilikatischen Puzzolanen wird in der Literatur nur unzureichend eingegangen.
Ziel war es daher, ein grundlegendes Verständnis der Hydratation sowie eine sichere Methodik zur Rezeptierung raumbeständig und rissfrei erhärtender GZPB, insbesondere in Hinblick auf die Verwendung alumosilikatischer Puzzolane, zu erarbeiten. Darüber hinaus sollte systematisch der Einfluss der Einzelkomponenten auf Hydratation und Eigenschaften dieser Bindemittelsysteme untersucht werden. Dies soll ermöglichen, die GZPB für ein breites Anwendungsspektrum als Bindemittel zu etablieren, und somit vorteilhafte Eigenschaften der Calciumsulfate (geringe Schwindneigung, geringe CO2-Emission etc.) mit der Leistungs-fähigkeit von Zementen (Wasserbeständigkeit, Festigkeit, Dauerhaftigkeit etc.) zu verbinden.
Als Ausgangsstoffe der Untersuchungen zu den GZPB wurden Stuckgips und Alpha-Halbhydrat als Calciumsulfatbindemittel in unterschiedlichen Anteilen im GZPB verwendet. Die Puzzolan-Zement-Verhältnisse wurden ebenfalls variiert. Als Puzzolan kam für den Großteil der Untersuchungen ein alumosilikatisches Metakaolin zum Einsatz. Als kalkspendende Komponente diente ein reiner Portlandzement.
Das Untersuchungsprogramm gliederte sich in 4 Teile. Zuerst wurde anhand von CaO- und pH-Wert-Messungen in Suspensionen sowie dem Längenänderungsverhalten von Bindemittelleimen verschiedener Zusammensetzungen eine Vorauswahl geeigneter GZPB-Rezepturen ermittelt. Danach erfolgten, ebenfalls an Bindemittelleimen, Untersuchungen zu den Eigenschaften der als geeignet eingeschätzten GZPB-Mischungen. Hierzu zählten Langzeitbetrachtungen zur rissfreien Erhärtung bei unterschiedlichen Umgebungsbedingungen sowie die Festigkeitsentwicklung im trockenen und feuchten Zustand. Im nächsten Schritt wurde anhand zweier exemplarischer GZPB-Zusammensetzungen (mit silikatischen und alumosilikatischen Puzzolan) die prinzipiell mögliche Phasenzusammensetzung unter Variation des Puzzolan-Zement-Verhältnisses (P/Z-Verhältnis) und des Calciumsulfatanteils im thermodynamischen Gleichgewichtszustand berechnet. Hier wurde im Besonderen auf Unterschiede der silikatischen und alumosilikatischen Puzzolane eingegangen. Im letzten Teil der Untersuchungen wurden die Hydratationskinetik der GZPB sowie die Gefügeentwicklung näher betrachtet. Hierfür wurden die Porenlösungen chemisch analysiert und Sättigungsindizes berechnet, sowie elektronenmikropische, porosimetrische und röntgenografische Untersuchungen durchgeführt. Abschließend wurden die Ergebnisse gesamtheitlich interpretiert, da die Ergebnisse der einzelnen Untersuchungsprogramme miteinander in Wechselwirkung stehen.
Als hauptsächliche Hydratationsprodukte wurden Calciumsulfat-Dihydrat, Ettringit und
C-(A)-S-H-Phasen ermittelt, deren Anteile im GZPB neben dem Calciumsulfatanteil und dem Puzzolan-Zement-Verhältnis auch deutlich vom Wasserangebot und der Gefügeentwicklung abhängen. Bei Verwendung von alumosilikatischen Puzzolans kommt es wahrscheinlich zur teilweisen Substitution des Siliciums durch Aluminium in den C-S-H-Phasen. Dies erscheint aufgrund des Nachweises der für diese Phasen typischen, folienartigen Morphologie wahrscheinlich. Portlandit wurde in raumbeständigen GZPB-Systemen nur zu sehr frühen Zeitpunkten in geringen Mengen gefunden.
In den Untersuchungen konnte ein Teil der in der Literatur beschriebenen, prinzipiellen Hydratationsabläufe bestätigt werden. Bei Verwendung von Halbhydrat als Calciumsulfatkomponente entsteht zuerst Dihydrat und bildet die Primärstruktur der GZPB. In dieses existierende Grundgefüge kristallisieren dann das Ettringit und die C-(A)-S-H-Phasen. In den GZPB sorgen entgegen der Beschreibungen in der Literatur nicht ausschließlich die
C-(A)-S-H-Phasen zur Verbesserung der Feuchtebeständigkeit und der Erhöhung des Festigkeitsniveaus, sondern auch das Ettringit. Beide Phasen überwachsen im zeitlichen Verlauf der Hydratation die Dihydratkristalle in der Matrix und hüllen diese – je nach Calciumsulfatanteil im GZPB – teilweise oder vollständig ein. Diese Umhüllung sowie die starke Gefügeverdichtung durch die C-(A)-S-H-Phasen und das Ettringit bedingen, dass ein lösender Angriff durch Wasser erschwert oder gar verhindert wird. Gleichzeitig wird die Gleitfähigkeit an den Kontaktstellen der Dihydratkristalle verringert.
Eine rissfreie und raumbeständige Erhärtung ist für die gefahrlose Anwendung eines GZPB-Systems essentiell. Hierfür ist die Kinetik der Ettringitbildung von elementarer Bedeutung. Die gebildete Ettringitmenge spielt nur eine untergeordnete Rolle. Selbst ausgeprägte, ettringitbedingte Dehnungen und hohe sich bildende Mengen führen zu frühen Zeitpunkten, wenn die Dihydratkristalle noch leicht gegeneinander verschiebbar sind, zu keinen Schäden. Bleibt die Übersättigung bezüglich Ettringit und somit auch der Kristallisationsdruck allerdings über einen langen Zeitraum hoch, genügen bereits geringe Ettringitmengen, um das sich stetig verfestigende Gefüge stark zu schädigen.
Die für die raumbeständige Erhärtung der GZPB notwendige, schnelle Abnahme der Ettringitübersättigung wird hauptsächlich durch die Reaktivität des Puzzolans beeinflusst. Die puzzolanische Reaktion führt zur Bindung des aus dem Zement stammenden Calciumhydroxid durch die Bildung von C-(A)-S-H-Phasen und Ettringit. Hierdurch sinkt die Calcium- und Hydroxidionenkonzentration in der Porenlösung im Verlauf der Hydratation, wodurch auch die Übersättigung bezüglich Ettringit abnimmt. Je höher die Reaktivität des Puzzolans ist, desto schneller sinkt der Sättigungsindex des Ettringits und somit auch der Kristallisationsdruck. Nach Unterschreiten eines noch näher zu klärendem Grenzwert der Übersättigung stagnieren die Dehnungen. Das Ettringit kristallisiert bzw. wächst nun bevorzugt in den Poren ohne eine weitere, äußere Volumenzunahme zu verursachen.
Um eine schadensfreie Erhärtung des GZPB zu gewährleisten, muss gerade in der frühen Phase der Hydratation ein ausreichendes Wasserangebot gewährleistet werden, so dass die Ettringitbildung möglichst vollständig ablaufen kann. Andernfalls kann es bei einer Wiederbefeuchtung zur Reaktivierung der Ettringitbildung kommen, was im eingebauten Zustand Schäden verursachen kann. Die Gewährleistung eines ausreichenden Wasserangebots ist im GZPB-System nicht unproblematisch. In Abhängigkeit der GZPB-Zusammensetzung können sich große Ettringitmengen bilden, die einen sehr hohen Wasserbedarf aufweisen. Deshalb kann es, je nach verwendeten Wasser-Bindemittel-Wert, im Bindemittelleim zu einem Wassermangel kommen, welcher die weitere Hydratation verlangsamt bzw. komplett verhindert. Zudem können GZPB-Systeme teils sehr dichte Gefüge ausbilden, wodurch der Wassertransport zum Reaktionsort des Ettringits zusätzlich behindert wird.
Die Konzeption raumbeständiger GZPB-Systeme muss anhand mehrerer aufeinander aufbauender Untersuchungen erfolgen. Zur Vorauswahl geeigneter Puzzolan-Zementverhältnisse eignen sich die Messungen der CaO-Konzentration und des pH-Wertes in Suspensionen. Als alleinige Beurteilungsgrundlage reicht dies allerdings nicht aus. Zusätzlich muss das Längenänderungs-verhalten beurteilt werden. Raumbeständige Mischungen mit alumosilikatischen Puzzolanen zeigen zu frühen Zeitpunkten starke Dehnungen, welche dann abrupt stagnieren. Stetige – auch geringe – Dehnungen weisen auf eine destruktive Zusammensetzung hin.
Mit diesem mehrstufigen Vorgehen können raumbeständige, stabile GZPB-Systeme konzipiert werden, so dass die Zielstellung der Arbeit erreicht wurde und ein sicherer praktischer Einsatz dieser Bindemittelart gewährleistet werden kann.
Numerical simulation of physical phenomena, like electro-magnetics, structural and fluid mechanics is essential for the cost- and time-efficient development of mechanical products at high quality. It allows to investigate the behavior of a product or a system far before the first prototype of a product is manufactured.
This thesis addresses the simulation of contact mechanics. Mechanical contacts appear in nearly every product of mechanical engineering. Gearboxes, roller bearings, valves and pumps are only some examples. Simulating these systems not only for the maximal/minimal stresses and strains but for the stress-distribution in case of tribo-contacts is a challenging task from a numerical point of view.
Classical procedures like the Finite Element Method suffer from the nonsmooth representation of contact surfaces with discrete Lagrange elements. On the one hand, an error due to the approximate description of the surface is introduced. On the other hand it is difficult to attain a robust contact search because surface normals can not be described in a unique form at element edges.
This thesis introduces therefore a novel approach, the adaptive isogeometric contact formulation based on polynomial Splines over hierarchical T-meshes (PHT-Splines), for the approximate solution of the non-linear contact problem. It provides a more accurate, robust and efficient solution compared to conventional methods. During the development of this method the focus was laid on the solution of static contact problems without friction in 2D and 3D in which the structures undergo small deformations.
The mathematical description of the problem entails a system of partial differential equations and boundary conditions which model the linear elastic behaviour of continua. Additionally, it comprises side conditions, the Karush-Kuhn-Tuckerconditions, to prevent the contacting structures from non-physical penetration. The mathematical model must be transformed into its integral form for approximation of the solution. Employing a penalty method, contact constraints are incorporated by adding the resulting equations in weak form to the overall set of equations. For an efficient space discretization of the bulk and especially the contact boundary of the structures, the principle of Isogeometric Analysis (IGA) is applied. Isogeometric Finite Element Methods provide several advantages over conventional Finite Element discretization. Surface approximation with Non-Uniform Rational B-Splines (NURBS) allow a robust numerical solution of the contact problem with high accuracy in terms of an exact geometry description including the surface smoothness.
The numerical evaluation of the contact integral is challenging due to generally non-conforming meshes of the contacting structures. In this work the highly accurate Mortar Method is applied in the isogeometric setting for the evaluation of contact contributions. This leads to an algebraic system of equations that is linearized and solved in sequential steps. This procedure is known as the Newton Raphson Method. Based on numerical examples, the advantages of the isogeometric approach
with classical refinement strategies, like the p- and h-refinement, are shown and the influence of relevant algorithmic parameters on the approximate solution of the contact problem is verified. One drawback of the Spline approximations of stresses though is that they lack accuracy at the contact edge where the structures change their boundary from contact to no contact and where the solution features a kink. The approximation with smooth Spline functions yields numerical artefacts in the form of non-physical oscillations.
This property of the numerical solution is not only a drawback for the
simulation of e.g. tribological contacts, it also influences the convergence properties of iterative solution procedures negatively. Hence, the NURBS discretized geometries are transformed to Polynomial Splines over Hierarchical T-meshes (PHT-Splines), for the local refinement along contact edges to reduce the artefact of pressure oscillations. NURBS have a tensor product structure which does not allow to refine only certain parts of the geometrical domain while leaving other parts unchanged. Due to the Bézier Extraction, lying behind the transformation from NURBS to PHT-Splines, the connected mesh structure is broken up into separate elements. This allows an efficient local refinement along the contact edge.
Before single elements are refined in a hierarchical form with cross-insertion, existing basis functions must be modified or eliminated. This process of truncation assures local and global linear independence of the refined basis which is needed for a unique approximate solution. The contact boundary is a priori unknown. Local refinement along the contact edge, especially for 3D problems, is for this reason not straight forward. In this work the use of an a posteriori error estimation procedure, the Super Convergent Recovery Solution Based Error Estimation Scheme, together with the Dörfler Marking Method is suggested for the spatial search of the contact edge.
Numerical examples show that the developed method improves the quality of solutions along the contact edge significantly compared to NURBS based approximate solutions. Also, the error in maximum contact pressures, which correlates with the pressure artefacts, is minimized by the adaptive local refinement.
In a final step the practicability of the developed solution algorithm is verified by an industrial application: The highly loaded mechanical contact between roller and cam in the drive train of a high-pressure fuel pump is considered.
Revisiting vernacular technique: Engineering a low environmental impact earth stabilisation method
(2022)
The major drawbacks of earth as a construction material — such as its low water stability and moderate strength — have led mankind to stabilize earth. Different civilizations developed vernacular techniques mainly focussing on lime, pozzolan or gypsum stabilization. Recently, cement has become the most commonly used additive in earth stabilization as it improves the strength and durability of plain earth. Also, it is a familiar and globally available construction material. However, using cement as an additive reduces the environmental advantages of earth and run counter to global targets regarding the reduction of CO2 emissions. Alternatives to cement stabilization are currently neither efficient enough to reduce its environmental impact nor allow the possibility of obtaining better results than those of cement. As such, this thesis deals with the rediscovery of a reverse engineering approach for a low environmental impact earth stabilization technique, aiming to replace cement in earth stabilization.
The first step in the method consists in a comprehensive review of earth stabilization with regards to earthen building standards and soil classification, which allows us to identify the research gap. The review showed that there is great potential in using other additives which result in similar improvements as those achieved by cement. However, the studies that have been conducted so far either use expansive soils, which are not suitable for earth constructions or artificial pozzolans that indirectly contribute to CO2 emissions. This is the main research gap.
The key concept for the development in the second step of the method is to combine vernacular additives to both improve the strength and durability of plain earth and to reduce the CO2 emissions. Various earth-mixtures were prepared and both development and performance tests were done to investigate the performance of this technique. The laboratory analyses on mix-design have proven a high durability and the results show a remarkable increase in strength performance. Furthermore, a significant reduction in CO2 emissions in comparison to cement stabilization could be shown.
The third step of the method discusses the results drawn from the experimental programme. In addition, the potential of the new earth mixture with regards to its usability in the field of building construction and architectural design is further elaborated on.
The method used in this study is the first of its kind that allows investors to avoid the very time-consuming processes such as finding a suitable source for soil excavation and soil classification. The developed mixture has significant workability and suitability for production of stabilized earthen panels — the very first of its kind. Such a panel is practically feasible, reasonable, and could be integrated into earthen building standards in general and in particular to DIN 18948, which is related to earthen boards and published in 2018.