Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
Bisherige Untersuchungen zum hydraulischen Grundbruch im bindigen Baugrund haben gezeigt, dass der Versagensmechanismus durch hydraulisch induzierte Risse ausgelöst wird. Um umströmte Bauwerke im Grundwasser sicher zu dimensionieren, ist daher ein Nachweis gegen hydraulisch induzierte Rissentstehung unerlässlich. Ein solcher existiert bisher jedoch nicht, da die Rissentstehung in bindigen Böden äußerst komplex ist und die zahlreichen Einflussgrößen nicht ausreichend untersucht sind. Aus diesem Grund wurde im Rahmen dieser Dissertation eine Laborstudie zu hydraulisch induzierter Rissbildung in verschiedenen feinkörnigen Böden in einem neuartigen Triaxialversuch durchgeführt. Aus den zahlreichen Versuchsvarianten lassen sich die wichtigsten Einflussgrößen auf den Widerstand des Bodens gegen Rissentstehung ermitteln. Die experimentelle Arbeit wird durch eine numerische Analyse der Versuchsvariationen ergänzt. Daraus lässt sich eine Hypothese zur Rissentstehung in bindigen Böden ableiten, die in Einklang mit der klassischen Bruchmechanik steht.
Ziel der Arbeit ist es, einen Beitrag zur Weiterentwicklung und Adaption der Holz-Beton-Verbundbauweise auf den Straßenbrückenbau zu leisten. Dabei stehen differenzierte Untersuchungen zum Trag- und Verformungsverhalten hybrider Holzbrückentragwerke sowie die Entwicklung geeigneter Verbundelemente im Vordergrund. Um die Einführung dieser innovativen Bauweise in der Praxis zu unterstützen, werden Bemessungs- und Konstruktionshinweise erarbeitet. Aufbauend auf eine Analyse des derzeitigen Forschungs- und Entwicklungsstandes auf dem Gebiet des Holz-Beton-Verbundbaus erfolgt die Untersuchung des Trag- und Verformungsverhaltens von Holz-Beton-Verbundbrücken anhand einer umfangreichen Parameterstudie. Dabei wird der Einfluss verschiedener Geometrie- und Steifigkeitsparameter auf die Tragfähigkeit und Gebrauchstauglichkeit von Holz-Beton-Verbundbrücken quantifiziert. Spezielle Untersuchungen dienen der Evaluation der Ermüdungssicherheit und der Ermittlung der Steifigkeitsdegradation unter Langzeitbeanspruchung auf der Basis einer realitätsnahen Abbildung des differenten zeit- und klimaabhängigen Tragverhaltens der Verbundbaustoffe. Praxisgerechte Empfehlungen für die optimierte konstruktive Durchbildung hybrider Holzbrückentragwerke fassen die Ergebnisse der Parameterstudie zusammen. Aus den Parameteranalysen leitet sich ein Anforderungsprofil bezüglich der Steifigkeit und Tragfähigkeit geeigneter Verbundelemente für den Straßenbrückenbau ab. Das Tragverhalten von drei ausgewählten Verbundelementtypen, welche diesem Profil entsprechen, wird anhand systematischer Scherversuche unter Kurzzeit-, Langzeit- und dynamischer Belastung analysiert. Aufbauend auf diese Testreihen werden weiterführende umfangreiche Versuchsserien mit dem Verbundelement Dübelleiste zur Bestimmung der mechanischen Kennwerte und zur Analyse des Gesamttragverhaltens vorgestellt. In Auswertung der umfangreichen Bauteilversuche und rechnerischer Simulationen auf der Basis Finiter-Elemente-Modelle wird ein Bemessungskonzept erarbeitet und die Eignung des Verbundelementes Dübelleiste für den Einsatz im Hybridbrückenbau nachgewiesen.
This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher
based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of
hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier.
We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable.
This thesis deals with the basic design and rigorous analysis of cryptographic schemes and primitives, especially of authenticated encryption schemes, hash functions, and password-hashing schemes.
In the last decade, security issues such as the PS3 jailbreak demonstrate that common security notions are rather restrictive, and it seems that they do not model the real world adequately. As a result, in the first part of this work, we introduce a less restrictive security model that is closer to reality. In this model it turned out that existing (on-line) authenticated encryption schemes cannot longer beconsidered secure, i.e. they can guarantee neither data privacy nor data integrity. Therefore, we present two novel authenticated encryption scheme, namely COFFE and McOE, which are not only secure in the standard model but also reasonably secure in our generalized security model, i.e. both preserve full data inegrity. In addition, McOE preserves a resonable level of data privacy.
The second part of this thesis starts with proposing the hash function Twister-Pi, a revised version of the accepted SHA-3 candidate Twister. We not only fixed all known security issues
of Twister, but also increased the overall soundness of our hash-function design.
Furthermore, we present some fundamental groundwork in the area of password-hashing schemes. This research was mainly inspired by the medial omnipresence of password-leakage incidences. We show that the password-hashing scheme scrypt is vulnerable against cache-timing attacks due to the existence of a password-dependent memory-access pattern. Finally, we introduce Catena the first password-hashing scheme that is both memory-consuming and resistant against cache-timing attacks.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
Self-healing materials have recently become more popular due to their capability to autonomously and autogenously repair the damage in cementitious materials. The concept of self-healing gives the damaged material the ability to recover its stiffness. This gives a difference in comparing with a material that is not subjected to healing. Once this material is damaged, it cannot sustain loading due to the stiffness degradation. Numerical modeling of self-healing materials is still in its infancy. Multiple experimental researches were conducted in literature to describe the behavior of self-healing of cementitious materials. However, few numerical investigations were undertaken.
The thesis presents an analytical framework of self-healing and super healing materials based on continuum damage-healing mechanics. Through this framework, we aim to describe the recovery and strengthening of material stiffness and strength. A simple damage healing law is proposed and applied on concrete material. The proposed damage-healing law is based on a new time-dependent healing variable. The damage-healing model is applied on isotropic concrete material at the macroscale under tensile load. Both autonomous and autogenous self-healing mechanisms are simulated under different loading conditions. These two mechanisms are denoted in the present work by coupled and uncoupled self-healing mechanisms, respectively. We assume in the coupled self-healing that the healing occurs at the same time with damage evolution, while we assume in the uncoupled self-healing that the healing occurs when the material is deformed and subjected to a rest period (damage is constant). In order to describe both coupled and uncoupled healing mechanisms, a one-dimensional element is subjected to different types of loading history.
In the same context, derivation of nonlinear self-healing theory is given, and comparison of linear and nonlinear damage-healing models is carried out using both coupled and uncoupled self-healing mechanisms. The nonlinear healing theory includes generalized nonlinear and quadratic healing models. The healing efficiency is studied by varying the values of the healing rest period and the parameter describing the material characteristics. In addition, theoretical formulation of different self-healing variables is presented for both isotropic and anisotropic maerials. The healing variables are defined based on the recovery in elastic modulus, shear modulus, Poisson's ratio, and bulk modulus. The evolution of the healing variable calculated based on cross-section as function of the healing variable calculated based on elastic stiffness is presented in both hypotheses of elastic strain equivalence and elastic energy equivalence. The components of the fourth-rank healing tensor are also obtained in the case of isotropic elasticity, plane stress and plane strain.
Recent research revealed that self-healing presents a crucial solution also for the strengthening of the materials. This new concept has been termed ``Super Healing``. Once the stiffness of the material is recovered, further healing can result as a strengthening material. In the present thesis, new theory of super healing materials is defined in isotropic and anisotropic cases using sound mathematical and mechanical principles which are applied in linear and nonlinear super healing theories. Additionally, the link of the proposed theory with the theory of undamageable materials is outlined. In order to describe the super healing efficiency in linear and nonlinear theories, the ratio of effective stress to nominal stress is calculated as function of the super healing variable. In addition, the hypotheses of elastic strain and elastic energy equivalence are applied. In the same context, new super healing matrix in plane strain is proposed based on continuum damage-healing mechanics.
In the present work, we also focus on numerical modeling of impact behavior of reinforced concrete slabs using the commercial finite element package Abaqus/Explicit. Plain and reinforced concrete slabs of unconfined compressive strength 41 MPa are simulated under impact of ogive-nosed hard projectile. The constitutive material modeling of the concrete and steel reinforcement bars is performed using the Johnson-Holmquist-2 damage and the Johnson-Cook plasticity material models, respectively. Damage diameters and residual velocities obtained by the numerical model are compared with the experimental results and effect of steel reinforcement and projectile diameter is studied.
Web applications that are based on user-generated content are often criticized for containing low-quality information; a popular example is the online encyclopedia Wikipedia. The major points of criticism pertain to the accuracy, neutrality, and reliability of information. The identification of low-quality information is an important task since for a huge number of people around the world it has become a habit to first visit Wikipedia in case of an information need. Existing research on quality assessment in Wikipedia either investigates only small samples of articles, or else deals with the classification of content into high-quality or low-quality. This thesis goes further, it targets the investigation of quality flaws, thus providing specific indications of the respects in which low-quality content needs improvement. The original contributions of this thesis, which relate to the fields of user-generated content analysis, data mining, and machine learning, can be summarized as follows:
(1) We propose the investigation of quality flaws in Wikipedia based on user-defined cleanup tags. Cleanup tags are commonly used in the Wikipedia community to tag content that has some shortcomings. Our approach is based on the hypothesis that each cleanup tag defines a particular quality flaw.
(2) We provide the first comprehensive breakdown of Wikipedia's quality flaw structure. We present a flaw organization schema, and we conduct an extensive exploratory data analysis which reveals (a) the flaws that actually exist, (b) the distribution of flaws in Wikipedia, and, (c) the extent of flawed content.
(3) We present the first breakdown of Wikipedia's quality flaw evolution. We consider the entire history of the English Wikipedia from 2001 to 2012, which comprises more than 508 million page revisions, summing up to 7.9 TB. Our analysis reveals (a) how the incidence and the extent of flaws have evolved, and, (b) how the handling and the perception of flaws have changed over time.
(4) We are the first who operationalize an algorithmic prediction of quality flaws in Wikipedia. We cast quality flaw prediction as a one-class classification problem, develop a tailored quality flaw model, and employ a dedicated one-class machine learning approach. A comprehensive evaluation based on human-labeled Wikipedia articles underlines the practical applicability of our approach.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Ausgehend von den klassischen Variationsprinzipien der Mechanik werden kinematische und gemischte Extremalprinzipe abgeleitet, die zur Beschreibung geometrisch und physikalisch nichtlinearen Tragverhaltens geeignet sind. Ein Schwerpunkt der Arbeit besteht in der Anwendung der Prinzipe zur Analyse und Bemessung von Stahlbeton-, Spannbeton- und Verbundquerschnitten. Aus einem einheitlichen Berechnungsmodell wird eine Vielzahl praxisrelevanter Problemstellungen abgeleitet. Ein weiterer Schwerpunkt ist die Anwendung der kinematischen Extremalformulierung für die geometrisch und physikalisch nichtlineare Berechnung von Stabtragwerken.
Die vorliegende Arbeit beschäftigt sich mit der geometrischen Suffosionsbeständigkeit von Erdstoffen. Mit dem wahrscheinlichkeitstheoretischen Ansatz der Perkolationstheorie wurde ein analytisches Verfahren gewählt, mit dem suffosive Materialtransportprozesse modelliert und quantifiziert werden können. Mit dem verwendeten Perkolationsmodell wurde eine beliebige Porenstruktur eines realen Erdstoffes im 3-Dimensionalen modelliert. Mögliche Materialtransportprozesse innerhalb der modellierten Porenstruktur wurden anschließend simuliert. Allgemein gültige Gesetzmäßigkeiten wurden hergeleitet und Grenzbedingungen formuliert. Diese sind vom Erdstoff unabhängig und beschreiben Zusammenhänge zwischen Materialtransport und Porenstruktur. Anwendbar sind diese Ergebnisse auf homogene, isotrope und selbstähnliche Erdstoffgefüge. Aussagen über konkrete Erdstoffe können über die Transformationsmethode erfolgen. Für die Verwendung der Transformationsmethode ist vorab die relevante Porenstruktur, d. h. die Porenengstellenverteilung, zu ermitteln.
Die meisten traditionellen Methoden der Systemidentifikation beruhen auf der Abbildung der Meßwerte entweder im Zeit- oder im Frequenzbereich. In jüngerer Zeit wurden im Zusammenhang mit der Systemidentifikation Verfahren entwicklet, die auf der Anwendung der Wavelet-Transformation beruhen. Das Ziel dieser Arbeit war, einen Algorithmus zu entwickeln, der die Identifikation von Parametern eines Finite-Elemente-Modells, das ein experimentell untersuchtes mechanisches System beschreibt, ermöglicht. Es wurde eine Methode erarbeitet, mit deren Hilfe die gesuchten Parameter durch Lösen eines Systems von Bewegungsgleichungen im Zeit-Skalen-Bereich ermittelt werden. Durch die Anwendung dieser Darstellung können Probleme, die durch Rauschanteile in den Meßdaten entstehen, reduziert werden. Die Ergebnisse numerischer Simulation und einer experimentellen Studie bestätigen die Vorteile einer Anwendung der Wavelet-Transformation in der vorgeschlagenen Weise. ...
Diese Dissertation beschäftigt sich mit Kunstwerken, die das alltägliche Ding in den Blick nehmen. Nährboden dieser Kunstform sind die soziokulturellen Entwicklungen des 20. Jahrhunderts, mit denen wesentliche Veränderungen hinsichtlich des Verhältnisses von Mensch und Ding einhergingen.
Daraus resultierte eine allgemeine künstlerische Zuwendung zu den Dingen und eine einzigartige Kulmination aus verschiedenartigen Auseinandersetzungen mit ihnen als kunstfähige Gegenstände, über die sich die neue Dingwelt erschlossen wurde und deren Kunstwerke einen Spiegel dieser Entwicklungen darstellen.
Die Dissertation stellt ebenfalls die Dinge selbst in den Fokus. Vier Aspekte von Dingen (Materialität, Funktionalität, Repräsentationalität und Relationalität) werden gesondert ins Auge gefasst und in den theoretischen Diskurs des 20. Jahrhunderts eingeordnet, um sie als Teil der gelebten Realität besser zu verstehen, von der sich der ästhetische Blick nicht trennen lässt. Anhand der künstlerischen Positionen von Robert Rauschenberg, Christo und Jeanne-Claude, Daniel Spoerri und Arman sowie Claes Oldenburg werden die verschiedenen Aspekte der Dinge näher betrachtet und analysiert, wie diese speziell in den Kunstwerken thematisiert werden und welche Relevanz sie für deren Rezeptionserfahrung haben.
Die Korrelation dieser beiden Ebenen - die Dinge als konstitutiver Bestandteil im sozialen Raum und die Dinge als Elemente in Kunstwerken -, die im Fokus der vorliegenden Untersuchung steht, ermöglicht es, die künstlerische Zuwendung zu den Dingen in den 1960er-Jahren neu einzuordnen. Darüber hinaus wird dadurch ein differenziertes Bild von der Kunst dieser Zeit sowie den Dingen in der Kunst im Allgemeinen gezeichnet.
Die vorliegende Arbeit beschäftigt sich mit der Berechnung der Sicherheit von Strukturen mit sowohl geometrisch als auch physikalisch nichtlinearem Verhalten. Die Berechnung der Versagenswahrscheinlichkeit einer Struktur mit Hilfe von Monte-Carlo-Simulationsmethoden erfordert, dass die Funktion der Strukturantwort implizit berechnet wird, zum Beispiel durch nichtlineare Strukturanalysen für jede Realisation der Zufallsvariablen. Die Strukturanalysen bilden jedoch den Hauptanteil am Berechnungsaufwand der Zuverlässigkeitsanalyse, so dass die Analyse von realistischen Strukturen mit nichtlinearem Verhalten durch die begrenzten Computer-Ressourcen stark eingeschränkt ist. Die klassischen Antwortflächenverfahren approximieren die Funktion der Strukturantwort oder aber die Grenzzustandsfunktion durch Polynome niedriger Ordnung. Dadurch ist für die Auswertung des Versagens-Kriteriums nur noch von Interesse, ob eine Realisation der Basisvariablen innerhalb oder außerhalb des von der Antwortflächenfunktion gebildeten Raumes liegt - die Strukturanalyse kann dann entfallen. Bei stark nichtlinearen Grenzzustandsfunktionen versagt die polynomiale Approximation. Das directional sampling neigt bei Problemen mit vielen Zufallsvariablen zu einem systematischen Fehler. Das adaptive importance directional sampling dagegen beseitigt diesen Fehler, verschenkt jedoch Informationen über den Verlauf der Grenzzustandsfunktion, da die aufgefundenen Stützstellen aus den vorangegangenen Simulationsläufen nicht berücksichtigt werden können. Aus diesem Grund erscheint eine Kombination beider Simulationsverfahren und eine Interpolation mittels einer Antwortfläche geeignet, diese Probleme zu lösen. Dies war die Motivation für die Entwicklung eines Verfahren der adaptiven Simulation der Einheitsvektoren und anschließender Interpolation der Grenzzustandsfunktion durch eine Antwortflächenfunktion. Dieses Vorgehen stellt besondere Anforderungen an die Antwortflächenfunktion. Diese muss flexibel genug sein, um stark nichtlineare Grenzzustandsfunktionen beliebig genau annähern zu können. Außerdem sollte die Anzahl der verarbeitbaren Stützstellen nicht begrenzt sein. Auch ist zu berücksichtigen, dass die Ermittlung der Stützstellen auf der Grenzzustandsfunktion nicht regelmäßig erfolgt. Die in dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen. ungen. dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen.
Im Gegensatz zu Industrieländern wird das barrierefreie und behindertengerechte Planen und Bauen von öffentlichen Gebäuden in Entwicklungsländern aus wirtschaftlichen und sozialen Gründen nur ungenügend berücksichtigt und realisiert. Die Analyse von international vorhandenen Normen und Richtlinien zeigte, dass in Vietnam die Integration behindertengerechter Konzepte in Bauplanungen erst seit dem Jahr 2002 stattfindet, wohingegen diese in China bereits seit den 80er Jahren und in den Industrienationen wie Deutschland und Amerika sogar schon seit drei Jahrzehnten Anwendung findet. Die ungenügende Berücksichtigung behindertengerechter Baukonzepte in öffentlichen Einrichtungen, so auch vor allem in Berufsschulen bewirkt eine drastische Reduzierung des Ausbildungsplatzangebotes und eine resultierende Perspektivlosigkeit für behinderte Menschen. Durch die schnelle Errichtung barrierefreier, behindertengerechter Ausbildungseinrichtungen sollen sich die Chancen auf einen Ausbildungsplatz für behinderte Vietnamesen deutlich verbessern. Mit dem Erhalt eines Ausbildungsplatzes wird diesen Menschen nicht nur eine Integration in die Gesellschaft sondern langfristig gesehen auch finanzielle Selbständigkeit und somit Unabhängigkeit von der Familie ermöglicht. Als Grundlage des angestrebten Umwandlungsprozesses von der herkömmlichen barrierebelasteten Bauplanung zur Berücksichtigung von behinderten Menschen durch behindertengerechte Planungskonzepte wurden Bauzeit, Bauumfang und Baukosten eingehend analysiert. Dieser vergleichenden Betrachtung der Bauplanungen entwuchsen zwei neue barrierefreie Berufschultypen. Der neue Berufsschultyp 1 – Der Dezentralisierungstyp zeichnet sich durch einen geringfügigen Bauumfang und durch seine einfache Baukonstruktion aus und ermöglicht somit eine schnelle Reaktion auf den gravierenden Ausbildungsplatzmangel für behinderte Menschen. Dieser kostengünstige Berufsschultyp wurde entwickelt, um sehr kurzfristig eine schnelle Erhöhung des Ausbildungsplatzangebotes für behinderte Menschen zu schaffen. Siedlungs- und Wohngebiete bzw. Dörfer eignen sich am besten als Standort für den Berufsschultyp 1. Das ursprüngliche Wohnumfeld bliebe den behinderten Schülern erhalten und damit einhergehend auch die seelische Unterstützung durch deren Familien. Der familiennahe Standort der Berufsschule würde somit sowohl den Lehrern als auch den Schülern eine große seelische Last abnehmen. Des Weiteren ließe sich eine Berufsschule vom Typ 1 schnellstens errichten, so dass die Ausbildung der behinderten und nicht behinderten Schüler sofort aufgenommen werden könnte. Im Zuge der Entwicklung des neuen Berufsschultyps 2 – Dem Zentralisierungstyp - wurden internationale Standards angestrebt. Dieser Berufsschultyp bietet eine umfangreichere Flexibilität in seiner Nutzungsart, ein umfassenderes Angebot an Ausbildungsgängen und ein weitaus größeres Feld der Integration. Der Berufsschultyp 2 ist ein komplexer Bau, mit einem größeren Bauumfang als Berufsschultyp 1. Bei der Errichtung dieser Berufsschultypen ist mit einer langfristigen Planungs- und Bauzeit zu rechnen. Der Stadtrand wird als der optimale Standort zur Errichtung der Berufsschule vom Typ 2 angesehen. Von dort aus ließen sich die öffentlichen Service der Stadt effizient nutzen. Als Bewertungsgrundlage für eine optimale Entwicklung der beiden neuen Berufsschultypen dienen Basisdaten aus umfassenden Analysen über verschiedenste Betrachtungsebenen. Unter Nutzung der in Deutschland und USA bestehenden gesetzlichen Grundlagen sollen barrierefreie Planungsempfehlungen, gezielt für die Errichtung behindertengerechter berufsausbildender Schulen in Vietnam, abgleitet werden, um ein gemeinsames Lernen von seh- und mobilitätsbehinderten sowie von nicht behinderten Menschen zu ermöglichen. Bei den Planungsempfehlungen finden nicht nur die unterschiedlichen menschlichen Körpergrößen der verschiedenen Bevölkerungsgruppen sondern auch die unterschiedliche Lebensweise der Vietnamesen sowie die Klimabedingungen in Vietnam Berücksichtigung. Bei der Planung von behindertengerechten Ausbildungs- und Schuleinrichtungen ist es wichtig, die Körpergröße der Menschen des jeweiligen Landes zu berücksichtigen. Als Orientierungsmaß für die Körpergröße vietnamesischer Menschen wurde ein Richtfaktor definiert und eingesetzt. Anhand der o.g. Richtfaktorgrößen wurden detaillierte Planungsempfehlungen für barrierefreies Lernen und Wohnen herausgearbeitet.
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Abstract In the first part of this research, the utilization of tuned mass dampers in the vibration control of tall buildings during earthquake excitations is studied. The main issues such as optimizing the parameters of the dampers and studying the effects of frequency content of the target earthquakes are addressed.
Abstract The non-dominated sorting genetic algorithm method is improved by upgrading generic operators, and is utilized to develop a framework for determining the optimum placement and parameters of dampers in tall buildings. A case study is presented in which the optimal placement and properties of dampers are determined for a model of a tall building under different earthquake excitations through computer simulations.
Abstract In the second part, a novel framework for the brain learning-based intelligent seismic control of smart structures is developed. In this approach, a deep neural network learns how to improve structural responses during earthquake excitations using feedback control.
Abstract Reinforcement learning method is improved and utilized to develop a framework for training the deep neural network as an intelligent controller. The efficiency of the developed framework is examined through two case studies including a single-degree-of-freedom system and a high-rise building under different earthquake excitation records.
Abstract The results show that the controller gradually develops an optimum control policy to reduce the vibrations of a structure under an earthquake excitation through a cyclical process of actions and observations.
Abstract It is shown that the controller efficiently improves the structural responses under new earthquake excitations for which it was not trained. Moreover, it is shown that the controller has a stable performance under uncertainties.
Die Abkürzung PCC bezieht sie sich hier auf Polymer modified Cement Concrete, also mit Kunststoffen modifizierte Mörtel und Betone. Hierfür hat sich diese Abkürzung auch international durchgesetzt. Sie bezeichnet Baustoffe, die neben dem mineralischen Bindemittel Zement auch Kunststoffe enthalten. Zement und Kunststoff erzielen im späteren Mörtel bzw. Beton eine gemeinschaftliche Bindemittelwirkung. Wiederholter Gegenstand von Schadensfällen ist das Versagen des Haftverbundes zu anderer Bausubstanz. Da PCC häufig als dünne Schutzschicht auf vorhandenen Beton aufgetragen werden, führt ein Versagen der Adhäsion früher oder später auch zu einem Versagen dieser Schutzfunktion. Umgekehrt kann ein Versagen des Schutzes infolge von Rissen im PCC auch im Nachhinein zum Ablösen der Beschichtung führen. Ursächlich für dieses kohäsive Versagen sind dabei i. d. R. die Auswahl falscher bzw. nicht aufeinander abgestimmter Baustoffsysteme oder schlicht Verarbeitungsfehler. Das Ziel dieser Arbeit war es zu untersuchen, welchen Einfluss die kohäsiven und adhäsiven Eigenschaften von PCC auf deren Dauerhaftigkeit, insbesondere bei der Anwendung als Beschichtungsmaterial, haben. Dazu wurden vier maßgebliche Schwerpunkte bearbeitet. Eine zentrale Rolle für die Dauerhaftigkeit eines Beschichtungsmaterials spielt dessen Längenänderungsverhalten. Der Betrag der positiven und negativen Längenänderungen ist bestimmend für die Spannungen, die im Beschichtungsmaterial entstehen können. Sind die auftretenden Spannungen höher als die Zugfestigkeit des PCC erfolgt der Spannungsabbau durch Risse. Es kommt also zum Kohäsionsversagen im Mörtel. Wird der PCC als Beschichtungsmaterial genutzt, werden die Spannungen im Idealfall über die Verbundebene zum Beschichtungsuntergrund übertragen. Übersteigen dabei diese Spannungen die maximal aufnehmbaren Verbundspannungen, kommt es zum Adhäsionsversagen zwischen Beschichtung und Untergrund. In Modellversuchen werden die Effekte des Längenänderungsverhaltens kunststoffmodifizierter Zementsteine auf den Haftverbund zu einer Gesteinskörnung untersucht. Dadurch werden Rückschlüsse auf die Kohäsion innerhalb der PCC durch die Beschreibung des adhäsiven Verbundes zwischen Zementsteinmatrix und Gesteinskörnung gezogen. Neben der Längenänderung sind auch die Festigkeitseigenschaften der PCC bedeutsam für deren Dauerhaftigkeit. Es werden die Festigkeitseigenschaften kunststoffmodifizierter Mörtel und Betone nicht nur von der mechanischen Seite betrachtet. Der Focus liegt vielmehr auf der Beschreibung der durch die Kunststoffe beeinflussten kohäsiven Eigenschaften bei mechanischer Belastung. Es wird das Verhalten der polymeren Matrix nach einer Kurzzeitbelastung untersucht. Damit werden die Vorgänge, die letztlich zu einer Beeinflussung der Festigkeitseigenschaften führen, dargestellt. In diesem Zusammenhang wird auch der Einfluss der Temperatur auf die Festigkeit der PCC betrachtet. Die Untersuchung des Frost-Taumittel-Widerstandes mittels CDF- bzw. CIF-Verfahrens ist eine gute Möglichkeit, neben der Beurteilung der Dauerhaftigkeit auch Rückschlüsse auf die kohäsiven als auch, im mikroskopischen Maßstab betrachtet, die adhäsiven Eigenschaften der PCC zu ziehen. Damit ist gemeint, dass die Kohäsion von PCC durch deren adhäsive Eigenschaften zwischen kunststoffmodifizierter Zementsteinmatrix und Gesteinskörnern maßgeblich bestimmt wird. Einerseits kann bei starkem Abfall des relativen dynamischen E-Moduls von einer geringeren Kohäsion des PCC ausgegangen werden. Dies würde dann bei einem Mörtel eher zu Rissen führen, über die wiederum betonaggressive Medien eindringen können. Im Gegensatz dazu deutet ein konstant bleibender relativer dynamischer E-Modul auf eine hohe Kohäsion und damit, bei Anwendung des PCC als Beschichtungsmaterial, auf ein höheres adhäsives Versagensrisiko der Beschichtung hin. Andererseits stellt eine höhere Abwitterung, also sozusagen das schichtenweise kohäsive Versagen, eine Gefahr bei dünnen Beschichtungen dar. Dies könnte noch durch die Anwendung anderer Taumittel (z. B. organischer) verstärkt werden. Unter diesen Gesichtspunkten wurden Untersuchungen auf der Basis des CDF-Testes sowie zur Lösungsaufnahmefähigkeit der PCC durchgeführt. Der adhäsive Verbund von PCC zu Beton ist von vielen Faktoren abhängig. Bisher kaum betrachtet wurde die Art des Aufbringens oder der Einfluss der Probengeometrie bei Laborversuchen. Diese sowie der Einfluss einer Salzbelastung des Untergrundes bzw. der Beschichtung wurden untersucht. Ein Teil der durchgeführten Untersuchungen wurde im Rahmen des Teilprojektes B3 „Dauerhaftigkeit polymermodifizierter Mörtel und Betone“ des von der DFG geförderten Sonderforschungsbereiches 524 „Werkstoffe und Konstruktionen für die Revitalisierung von Bau-werken“ realisiert.
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
The phenomenon of aerodynamic instability caused by the wind is usually a major design criterion for long-span cable-supported bridges. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary, therefore, requires accurate and robust models. The complexity and uncertainty of models for such engineering problems demand strategies for model assessment. This study is an attempt to use the concepts of sensitivity and uncertainty analyses to assess the aeroelastic instability prediction models for long-span bridges. The state-of-the-art theory concerning the determination of the flutter stability limit is presented. Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of structural and aerodynamic models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the coupled model.