Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen.
Increasingly powerful hard- and software allows for the numerical simulation of complex physical phenomena with high levels of detail. In light of this development the definition of numerical models for the Finite Element Method (FEM) has become the bottleneck in the simulation process. Characteristic features of the model generation are large manual efforts and a de-coupling of geometric and numerical model. In the highly probable case of design revisions all steps of model preprocessing and mesh generation have to be repeated. This includes the idealization and approximation of a geometric model as well as the definition of boundary conditions and model parameters. Design variants leading to more resource-efficient structures might hence be disregarded due to limited budgets and constrained time frames.
A potential solution to above problem is given with the concept of Isogeometric Analysis (IGA). Core idea of this method is to directly employ a geometric model for numerical simulations, which allows to circumvent model transformations and the accompanying data losses. Basis for this method are geometric models described in terms of Non-uniform rational B-Splines (NURBS). This class of piecewise continuous rational polynomial functions is ubiquitous in computer graphics and Computer-Aided Design (CAD). It allows the description of a wide range of geometries using a compact mathematical representation. The shape of an object thereby results from the interpolation of a set of control points by means of the NURBS functions, allowing efficient representations for curves, surfaces and solid bodies alike. Existing software applications, however, only support the modeling and manipulation of the former two. The description of three-dimensional solid bodies consequently requires significant manual effort, thus essentially forbidding the setup of complex models.
This thesis proposes a procedural approach for the generation of volumetric NURBS models. That is, a model is not described in terms of its data structures but as a sequence of modeling operations applied to a simple initial shape. In a sense this describes the "evolution" of the geometric model under the sequence of operations. In order to adapt this concept to NURBS geometries, only a compact set of commands is necessary which, in turn, can be adapted from existing algorithms. A model then can be treated in terms of interpretable model parameters. This leads to an abstraction from its data structures and model variants can be set up by variation of the governing parameters.
The proposed concept complements existing template modeling approaches: templates can not only be defined in terms of modeling commands but can also serve as input geometry for said operations. Such templates, arranged in a nested hierarchy, provide an elegant model representation. They offer adaptivity on each tier of the model hierarchy and allow to create complex models from only few model parameters. This is demonstrated for volumetric fluid domains used in the simulation of vertical-axis wind turbines. Starting from a template representation of airfoil cross-sections, the complete "negative space" around the rotor blades can be described by a small set of model parameters, and model variants can be set up in a fraction of a second.
NURBS models offer a high geometric flexibility, allowing to represent a given shape in different ways. Different model instances can exhibit varying suitability for numerical analyses. For their assessment, Finite Element mesh quality metrics are regarded. The considered metrics are based on purely geometric criteria and allow to identify model degenerations commonly used to achieve certain geometric features. They can be used to decide upon model adaptions and provide a measure for their efficacy. Unfortunately, they do not reveal a relation between mesh distortion and ill-conditioning of the equation systems resulting from the numerical model.
6 Zusammenfassung und Ausblick
Die hydrothermal induzierte Phasentransformation konnte für ATZ-Keramik mit tiefenge-mittelten und tiefenaufgelösten Methoden charkterisiert und quantifiziert werden.
Die zeit- und temperaturabhängige Alterungskinetik von ATZ wurde durch neun Tempera-turstufen in einem Temperaturbereich von 50 °C bis 134 °C untersucht und die kinetischen Parameter nummerisch bestimmt. Für 3Y-TZP wurde diese Prozedur bei drei Temperaturen im Temperaturbereich von 70 °C bis 134 °C angewendet. Aufgrund des ARRHENIUS-Verhaltens der Umwandlungskinetik konnte der zeitliche Verlauf der isotherm stattfinden-den hydrothermal induzierten Phasentransformation bei Körpertemperatur simuliert wer-den. Die Simulation dient zur Bewertung der Langzeitstabilität von medizinischen Implanta-ten aus ATZ bzw. 3Y-TZP. Die Untersuchungen wurden in Wasser und in Wasserdampf bzw. wasserdampfgesättigter Luft durchgeführt. Die Langzeitsimulation für 3Y-TZP wurde an-hand von Explantat-Untersuchungen verifiziert.
ATZ zeigt gegenüber 3Y-TZP eine höhere Alterungsstabilität bezogen auf die zeitliche Ent-wicklung der monoklinen Phase. Im Hinblick auf die Oberflächenhärte, die durch die Pha-senumwandlung stark beeinflusst wird, erweist sich ATZ über einen langen Alterungszeit-raum stabiler als 3Y-TZP. Bis zu einem monoklinen Gehalt von 40 % beweist ATZ einen deutlichen Härtevorteil gegenüber 3Y TZP, dieser entspricht in der Langzeitsimulation für die Wasserlagerung ca. 35 Jahre. Das wirkt sich insbesondere bei Verschleißpaarungen wie beim künstlichen Hüftgelenk positiv aus.
Verschleißuntersuchungen an einer neu entwickelten Kugel-auf-Scheibe-Geometrie mit li-nearer Kinematik, die dem Hüftgelenk nachempfunden wurde, belegen die vorteilhaften Verschleißeigenschaften von ATZ in Form von sehr geringen Abtragsraten und einer intak-ten Oberfläche nach 720 000 absolvierten Zyklen. Dabei wurde sogar eine Aufhärtung der Oberfläche durch die Verschleißbeanspruchung um bis zu 8 % nachgewiesen.
Bei der tiefengemittelten Charakterisierung der hydrothermalen Alterung wurde in beiden Materialtypen festgestellt, dass die Geschwindigkeit der Phasentransformation neben der Temperatur merklich von der Änderung der H2O-Stoffmengenkonzentrantion an der Ober-fläche der Keramik abhängig ist, was sich mit den unterschiedlichen Aktivierungsenergien für Wasser- bzw. Wasserdampflagerung belegen lässt. Die Aktivierungsenergie Ea der hyd-rothermalen Phasentransformation wurde mit Hilfe der ARRHENIUS-Beziehung ermittelt und beträgt für ATZ bei Wasserdampflagerung 102 kJ/mol und bei Wasserlagerung 92 kJ/mol. Für Y-TZP beträgt die Aktivierungsenergie 114 kJ/mol bei Wasserdampflagerung und 102 kJ/mol bei Wasserlagerung. Der resultierende präexponentielle Faktor k0 unterscheidet sich für Wasserlagerung und Wasserdampflagerung um eine Größenordnung, was auf einen leicht andersartigen thermisch aktivierten Gesamtprozess hinweist.
Der Avrami-Exponent n, der einen Hinweis auf den Mechanismus der Keimbildung sowie deren geometrische Ordnung geben kann, zeigte keine signifikante Abhängigkeit von der Temperatur und vom Umgebungsmedium. Er ist dagegen zeitabhängig und fällt mit zuneh-mender Alterungszeit, d.h. mit zunehmendem monoklinem Gehalt von ca. 4 auf 0,5 ab, was auf eine abnehmende Keimbildungsrate hindeutet. In Verbindung mit weiteren Untersu-chungen durch unabhängige und zum Teil tiefenauflösende Methoden wie GIXRD, NRA und Knoop-Mikrohärte-Messungen lässt sich der Alterungsmechanismus, bzw. sein zeitlicher und örtlicher Ablauf, durch die drei Stadien A, B und C beschreiben:
A 0-5 ma. % m-ZrO2 Quasi-homogene Keimbildung an bevorzugten Orten wie Kornkan-ten und Kornecken (n≈4), Wassertransport wahrscheinlich via Korngrenzendiffusion, Aufhärtung der Oberfläche
B 5-40 ma. % m-ZrO2 Keimbildung an den Korngrenzflächen bis zur Keimsättigung (n≈2), monokline Randschicht wächst zeitlich linear, Wassertransport konvektiv über Mikrorisse, deutlicher Härteverlust der Oberfläche
C ≥ 40 ma. % m-ZrO2 Wachstum der monoklinen Kristallite von den Korngrenzflächen in die tetragonalen Kristallite unter starker Verzwillingung (n≈0,5), Abnahme der tetragonalen Kristallitgröße, starke Mikrorissbildung, dramatischer Rückgang der Oberflächenhärte
Die Kristallitgröße der monoklinen Phase verbleibt im ATZ über alle drei Abschnitte bei 30 ±5 nm. Ein Anwachsen der Kristallite ist mechanische behindert. Kleinere monokline Kristallite sind im ATZ thermodynamisch instabil. Die Kristallitgröße der tetragonalen Phase fällt in den Abschnitten A und B sehr langsam und in C sehr schnell bis auf 25 nm ab. Bei dieser Kristallitgröße ist die tetragonale Phase gegenüber der monoklinen Phase thermody-namisch stabil. Diese residualen tetragonalen Kristallite weisen nach vollständigem Reakti-onsablauf einem Anteil von 7 ma. % auf. Der Sättigungsgehalt der monoklinen Phase betrug in beiden Materialen unabhängig von der Temperatur bzw. dem Umgebungsmedium 75 % der ZrO2-Phase.
In Abschnitt C besitzt die residuale tetragonale Phase eine starke Orientierung. Dadurch wird die geometrische Bedingtheit der hydrothermal induzierten Phasenumwandlung ver-deutlicht. Die monokline Phase ist über den gesamten Alterungsprozess stark nach m(1 1 1) orientiert, was mit einer bevorzugten Umklapprichtung der c-Achse zur freien Oberfläche hin verbunden ist.
Mit Hilfe der tiefenaufgelösten Phasenanalyse konnte die Wachstumsgeschwindigkeit der monoklinen Randschicht von der Oberfläche in das Volumen untersucht werden. Die Ge-schwindigkeit des Schichtwachstums ist in Abschnitt B nicht zeit- und tiefenabhängig, son-dern konstant mit ausgeprägtem ARRHENIUS-Verhalten (Temperaturabhängigkeit). Die Akti-vierungsenergie der Schichtwachstumsgeschwindigkeit km liegt in der gleichen Größenord-nung wie die der Transformationskonstante k.
Die Umwandlungszone schreitet also mit konstanter Geschwindigkeit in das Volumen fort und hinterlässt ein verzweigtes Mikro- und Nanoriss-System. FESEM-Aufnahmen bestätigen das Vorhandensein einer porösen Randschicht, durch die das Wasser nahezu ungehindert eindringen kann.
NRA Untersuchungen deuten in Stadium A auf Korngrenzendiffusion hin und bestätigen in Stadium B einen konvektiven Transport des Wassers an die Transformationszone. Eine Dif-fusion über Sauerstoffleerstellen im Gitter konnte anhand von Proben aus 8YSZ nicht nach-gewiesen werden. Dagegen kommt es in dem verzweigten Riss- und Porensystem in der gealterten Randschicht zum Rücktransport des Wassers an die Oberfläche, sobald die Pro-ben aus der hydrothermalen Atmosphäre genommen, an Luft gelagert oder in die Hochva-kuumkammer der NRA-Messapparatur eingeschleust werden.
Mikrostrukturelle Untersuchungen an eigens entwickelten Verschleißpaarungen zeigten nach 720000 Zyklen ähnliche Oberflächeneigenschaften wie im Alterungsstadium A. Man kann daher davon ausgehen, dass die Stadien B und C aus Stabilitätsgründen in der tribolo-gischen Kontaktzone nicht existieren können und es dass sich im Falle einer gleichzeitigen, hydrothermalen und tribologischen Beanspruchung um einen stationären Alterungs- und Verschleißprozess handelt. Durch quasiplastische Deformation der monoklinen und tetra-gonalen Kristallite wird die Verschleißrate und die Abriebpartikel bei einer hart /hart Paa-rung aus ATZ deutlich minimiert, so dass ATZ für die Hüftendoprothetik ein durchaus geeig-neten Werkstoff darstellt, der sich auf der Grundlage der in dieser Arbeit gewonnenen Daten über eine Imlantationsdauer von .mehr als 15 Jahre stabil verhalten kann.
Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren.
Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen.
Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT).
Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a.
There is a continuous exacerbation of environmental problems in big cities of today’s world, thereby, diminishing the quality of life in them. Of particular concern is the fact that today’s megacities are evolving in the developing world without corresponding growth in the economy, infrastructure and other human development indices. As urban population continues to grow in these cities of the Global South, governing institutions are usually unable to keep pace with their social responsibilities, thus, making the issue of urban governance very critical. This is because effective and efficient urban governance is highly essential for the creation, strengthening and sustenance of governing institutions.
Lagos, a mega-city of over 15.45 million people and the most populous metropolitan area on the African continent epitomizes the fundamental grave characteristics of the emerging megacities of the Global South, thereby, constituting an apt choice in understanding the emerging megacities of the next generation. Two out of every three Lagos residents live in slums and de-humanizing physical and social conditions. Many of them sleep, work, eat and cook under highway bridges, at the mercy of weather elements.
This research, therefore, evaluated urban governance through housing administration in Africa’s largest megacity. It examines the extent of housing problems in the city, the causal factors and the culpability of government agencies statutorily responsible for the provision, control and management of housing development in Lagos - the tenth largest city in the world. A representative geographic part of the city which manifests classic characteristics of slum life, listed by Mike Davis as the largest slum in Africa and the 6th largest in the world – Ajegunle - was adopted for case study. The research design combined rigorous literature search (desk research) with quantitative and, especially, qualitative approaches to data collection. The qualitative approach was more intensely adopted because government officials often respond to enquiries with ‘official answers and data’ which may not be reliable and the study had to rely on keen observation of physical traces, social interaction and personal investigation. The cross-sectional research method was adopted. Information was solicited from house-owners, building industry professionals, sociologists and officials of relevant government agencies, through research tools like questionnaires, interviews, focused group discussions and personal observations.
The analysis and discussion of these field data, in conjunction with the information from the desk research gave a better understanding of the status-quo, which informed the recommendations proposed in the dissertation for mitigating the problems. The research discovered that many of the statutory housing agencies have the capacity to effectively discharge their responsibilities. However, it was also shown that corruption and abdication of responsibilities by the staff of these agencies constitute primary causes of the chasm between the anticipated lofty outcome from the laudable building regulations/bye-laws and the appalling reality. It also discovered that lack of political will and apathy on the part of successive Governments of Lagos State to the improvement of housing conditions of the poor masses are major causes of the housing debacle in Lagos.
Several germane and realistic recommendations for redressing the situation were subsequently proffered. These include amongst others, the conduction of an accurate census for Lagos, in conjunction with credible international agencies, as a requisite basis for effective planning of any sort. The process of obtaining legal titles for land should also be made less cumbersome, while the housing administration process should be computerized; in order to reduce inter-personal contacts between applicants and government officials to the barest minimum, as a means of curbing the wide spread corruption in the system.
This thesis explores how architecture aids in the performance of open-ended narratives by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architecture old and new stems from specific cultural and social forms, and is dictated by processes of remembering and forgetting. It is through interaction (between inhabitant and object) that architecture is given innate meanings within an urban environment that makes its role in the interplay one of investigative interest.
To enable the study of this performance, I develop a framework based on various theoretical paradigms to investigate three broad questions: 1) How does one study the performance of memory and forgetting through architecture in dynamic urban landscapes? 2) Is there a way to identify markers and elements within the urban environment that enable such a study? 3) What is the role that urban form plays within this framework and does the transformation of urban form imply the transformation of memory and forgetting?
The developed framework is applied to a macro (an urban level study of Bangalore, India) and micro level study (a singular or object level study of Stari Most/ Old Bridge, Mostar, BiH), to analyse the performance of remembering and forgetting in various urban spheres through interaction with architecture and form. By means of observations, archival research, qualitative mapping, drawings and narrative interviews, the study demonstrates that certain sites and characteristics of architecture enable the performance of remembering and the questioning of forgetting by embodying features that support this act.
Combining theory and empirical studies this thesis is an attempt to elucidate on the processes through which remembering and forgetting is initiated and experienced through architectural forms. The thesis argues for recognising the potential of architecture as one that embodies and supports the performance of memory and forgetting, by acting as an auratic contact zone.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.
Metakaolin made from kaolin is used around the world but rarely in Vietnam where abundant deposits of kaolin is found. The first studies of producing metakaolin were conducted with high quality Vietnamese kaolins. The results showed the potential to produce metakaolin, and its effect has on strength development of mortars and concretes. However, utilisation of a low quality kaolin for producing Vietnamese metakaolin has not been studied so far.
The objectives of this study were to produce a good quality metakaolin made from low quality Vietnamese kaolin and to facilitate the utilisation of Vietnamese metakaolin in composite cements.
In order to reach such goals, the optimal thermal conversion of Vietnamese kaolin into metakaolin was carried out by many investigations, and as such the optimal conversion is found using the analysis results of DSC/TGA, XRD and CSI. During the calcination in a range of 500 – 800 oC lasting for 1 – 5 hours, the characterisation of calcinated kaolin was also monitored for mass loss, BET surface, PSD, density as well as the presence of the residual water. It is found to have a well correlation between residual water and BET surface.
The pozzolanic activity of metakaolin was tested by various methods regarding to the saturated lime method, mCh and TGA-CaO method. The results of the study showed which method is the most suitable one to characterise the real activity of metakaolin and can reach the greatest agreement with concrete performance. Furthermore, the pozzolanic activity results tested using methods were also analysed and compared to each other with respect to the BET surface.
The properties of Vietnam metakaolin was established using investigations on water demand, setting time, spread-flowability, and strength. It is concluded that depending on the intended use of composite cement and weather conditions of cure, each Vietnamese metakaolin can be used appropriately to produce (1) a composite cement with a low water demand (2) a high strength of composite cement (3) a composite cement that aims to reduce CO2 emissions and to improve economics of cement products (4) a high performance mortar.
The durability of metakaolin mortar was tested to find the needed metakaolin content against ASR, sulfat and sulfuric acid attacks successfully.
Modern digital material approaches for the visualization and simulation of heterogeneous materials allow to investigate the behavior of complex multiphase materials with their physical nonlinear material response at various scales. However, these computational techniques require extensive hardware resources with respect to computing power and main memory to solve numerically large-scale discretized models in 3D. Due to a very high number of degrees of freedom, which may rapidly be increased to the two-digit million range, the limited hardware ressources are to be utilized in a most efficient way to enable an execution of the numerical algorithms in minimal computation time. Hence, in the field of computational mechanics, various methods and algorithms can lead to an optimized runtime behavior of nonlinear simulation models, where several approaches are proposed and investigated in this thesis.
Today, the numerical simulation of damage effects in heterogeneous materials is performed by the adaption of multiscale methods. A consistent modeling in the three-dimensional space with an appropriate discretization resolution on each scale (based on a hierarchical or concurrent multiscale model), however, still contains computational challenges in respect to the convergence behavior, the scale transition or the solver performance of the weak coupled problems. The computational efficiency and the distribution among available hardware resources (often based on a parallel hardware architecture) can significantly be improved. In the past years, high-performance computing (HPC) and graphics processing unit (GPU) based computation techniques were established for the investigationof scientific objectives. Their application results in the modification of existing and the development of new computational methods for the numerical implementation, which enables to take advantage of massively clustered computer hardware resources. In the field of numerical simulation in material science, e.g. within the investigation of damage effects in multiphase composites, the suitability of such models is often restricted by the number of degrees of freedom (d.o.f.s) in the three-dimensional spatial discretization. This proves to be difficult for the type of implementation method used for the nonlinear simulation procedure and, simultaneously has a great influence on memory demand and computational time.
In this thesis, a hybrid discretization technique has been developed for the three-dimensional discretization of a three-phase material, which is respecting the numerical efficiency of nonlinear (damage) simulations of these materials. The increase of the computational efficiency is enabled by the improved scalability of the numerical algorithms. Consequently, substructuring methods for partitioning the hybrid mesh were implemented, tested and adapted to the HPC computing framework using several hundred CPU (central processing units) nodes for building the finite element assembly. A memory-efficient iterative and parallelized equation solver combined with a special preconditioning technique for solving the underlying equation system was modified and adapted to enable combined CPU and GPU based computations.
Hence, it is recommended by the author to apply the substructuring method for hybrid meshes, which respects different material phases and their mechanical behavior and which enables to split the structure in elastic and inelastic parts. However, the consideration of the nonlinear material behavior, specified for the corresponding phase, is limited to the inelastic domains only, and by that causes a decreased computing time for the nonlinear procedure. Due to the high numerical effort for such simulations, an alternative approach for the nonlinear finite element analysis, based on the sequential linear analysis, was implemented in respect to scalable HPC. The incremental-iterative procedure in finite element analysis (FEA) during the nonlinear step was then replaced by a sequence of linear FE analysis when damage in critical regions occured, known in literature as saw-tooth approach. As a result, qualitative (smeared) crack initiation in 3D multiphase specimens has efficiently been simulated.
Gaze based human-computer-interaction has been a research topic for over a quarter century. Since then, the main scenario for gaze interaction has been helping handicapped people to communicate an interact with their environment. With the rapid development of mobile and wearable display technologies, a new application field for gaze interaction has appeared, opening new research questions.
This thesis investigates the feasibility of mobile gaze based interaction, studying deeply the use of pie menus as a generic and robust widget for gaze interaction as well as visual and perceptual issues on head mounted (wearable) optical see-through displays.
It reviews conventional gaze-based selection methods and investigates in detail the use of pie menus for gaze control. It studies and discusses layout issues, selection methods and applications. Results show that pie menus can allocate up to six items in width and multiple depth layers, allowing a fast and accurate navigation through hierarchical levels by using or combining multiple selection methods. Based on these results, several text entry methods based on pie menus are proposed. Character-by-character text entry, text entry with bigrams and with text entry with bigrams derived by word prediction, as well as possible selection methods, are examined in a longitudinal study. Data showed large advantages of the bigram entry methods over single character text entry in speed and accuracy. Participants preferred the novel selection method based on saccades (selecting by borders) over the conventional and well established dwell time method.
On the one hand, pie menus showed to be a feasible and robust widget, which may enable the efficient use of mobile eye tracking systems that may not be accurate enough for controlling elements on conventional interface. On the other hand, visual perception on mobile displays technologies need to be examined in order to deduce if the mentioned results can be transported to mobile devices.
Optical see-through devices enable observers to see additional information embedded in real environments. There is already some evidence of increasing visual load on the respective systems. We investigated visual performance on participants with a visual search tasks and dual tasks presenting visual stimuli on the optical see-through device, only on a computer screen, and simultaneously on both devices. Results showed that switching between the presentation devices (i.e. perceiving information simultaneously from both devices) produced costs in visual performance. The implications of these costs and of further perceptual and technical factors for mobile gaze-based interaction are discussed and solutions are proposed.
Texts from the web can be reused individually or in large quantities. The former is called text reuse and the latter language reuse. We first present a comprehensive overview of the different ways in which text and language is reused today, and how exactly information retrieval technologies can be applied in this respect. The remainder of the thesis then deals with specific retrieval tasks. In general, our contributions consist of models and algorithms, their evaluation, and for that purpose, large-scale corpus construction.
The thesis divides into two parts. The first part introduces technologies for text reuse detection, and our contributions are as follows: (1) A unified view of projecting-based and embedding-based fingerprinting for near-duplicate detection and the first time evaluation of fingerprint algorithms on Wikipedia revision histories as a new, large-scale corpus of near-duplicates. (2) A new retrieval model for the quantification of cross-language text similarity, which gets by without parallel corpora. We have evaluated the model in comparison to other models on many different pairs of languages. (3) An evaluation framework for text reuse and particularly plagiarism detectors, which consists of tailored detection performance measures and a large-scale corpus of automatically generated and manually written plagiarism cases. The latter have been obtained via crowdsourcing. This framework has been successfully applied to evaluate many different state-of-the-art plagiarism detection approaches within three international evaluation competitions.
The second part introduces technologies that solve three retrieval tasks based on language reuse, and our contributions are as follows: (4) A new model for the comparison of textual and non-textual web items across media, which exploits web comments as a source of information about the topic of an item. In this connection, we identify web comments as a largely neglected information source and introduce the rationale of comment retrieval. (5) Two new algorithms for query segmentation, which exploit web n-grams and Wikipedia as a means of discerning the user intent of a keyword query. Moreover, we crowdsource a new corpus for the evaluation of query segmentation which surpasses existing corpora by two orders of magnitude. (6) A new writing assistance tool called Netspeak, which is a search engine for commonly used language. Netspeak indexes the web in the form of web n-grams as a source of writing examples and implements a wildcard query processor on top of it.
Die Qualität von Beplankungselementen wirkt sich deutlich auf den Feuerwiderstand von Metallständer-Wandkonstruktionen aus. Daher wurde im Rahmen dieser Arbeit der Einfluss von Zusätzen in Gipsplatten bezüglich einer möglichen Verbesserung dieser Eigenschaft untersucht.
Zu diesem Zweck wurden spezielle, den jeweiligen Untersuchungsbedingungen angepasste Probekörper unter Verwendung verschiedenster Zusätze gefertigt. Die Beurteilung deren Auswirkungen erfolgte insbesondere mittels nachfolgender fünf Kriterien:
1) dem Zeitpunkt der Temperaturerhöhung nach der Probekörperentwässerung,
2) dem Maximalwert der Plattenrückseitentemperatur,
3) der Größe und der Anzahl der Risse,
4) der Plattenstabilität nach der Wärmebeanspruchung,
5) der Verkürzung von prismatischen Probekörpern.
Besonders wichtig war hierbei die Charakterisierung der Auswirkungen einer simulierten Brandbeanspruchung von 970 °C über 90 Minuten auf Labor-Gipsplatten. Dabei wurde die Temperaturänderung auf der Plattenrückseite über den gesamten Prüfzeitraum kontinuierlich erfasst. Die Bewertung des Zusammenhalts der Platten nach der thermischen Beanspruchung erfolgte erstmals quantitativ über Anzahl und Größe der an den Proben entstandenen Risse. Ursächlich für die Rissbildung ist die Verringerung des Probekörpervolumens infolge des ausgetriebenen Kristallwassers. Da dieser Parameter im Plattenversuch nicht bestimmt werden kann, wurde ergänzend das Längenänderungsverhalten von Prismen im Ergebnis einer 90minütigen Temperung bei 1000 °C im Muffelofen ermittelt.
Besonders vorteilhaft hat sich die Zugabe von 80 g/m2 Glasfasern und 7,75 % Kalksteinmehl auf das Verhalten von Gipsplatten bei Brandbeanspruchung ausgewirkt. Diese Verbesserung ist insbesondere auf höhere Stabilität und geringere Schrumpfung der Gipsplatte zurückzuführen.
Basierend auf den im Labormaßstab erhaltenen Ergebnissen wurden Rezepturvorschläge zur Verbesserung des Feuerwiderstandsverhaltens von Gipsplatten unter Praxisbedingungen entwickelt. Die Herstellung der erforderlichen großformatigen Platten erfolgte auf der Bandstraße der Knauf Gips KG. Diese Platten wurden als Wandkonstruktion mit zweilagiger Beplankung einer großtechnischen Prüfung erfolgreich unterzogen. Eine geringere Durchbiegung der Wandkonstruktion, eine verminderte Volumenreduzierung der Platten sowie eine erhöhte Plattenstabilität belegen die verbesserten Eigenschaften dieser modifizierten Feuerschutzplatte.
Weitere durchgeführte Untersuchungen ergaben, dass es unerheblich ist, ob die Platten auf Basis von Natur- oder REA-Gips bzw. mit hohem oder niedrigem Flächengewicht gefertigt wurden. Das eindeutig beste Ergebnis mit einer Feuerwiderstandsdauer von 118 Minuten hat eine Wandkonstruktion aus Feuerschutzplatten auf Basis eines Stuckgipses aus 100 % REA-Gips mit einem Anteil von 83,9 g/m2 Glasfasern und 1 % Vermiculit und einem Flächengewicht von 10,77 kg/m2, bei einer Plattenstärke von 12,5 mm.
Die als Ziel vorgebende Feuerwiderstandsdauer von 120 Minuten bei zweilagiger Beplankung ohne Dämmstoff könnte künftig erreicht werden, wenn es gelingt, die Volumenreduzierung noch besser zu kompensieren und die Plattenstabilität zu steigern. Eine Möglichkeit hierzu ist die Substitution der beidseitigen Kartonlagen durch eine Glasfaser-Vliesummantelung. Die Wandkonstruktion W112 ohne Dämmstoff erreicht dabei eine Feuerwiderstandsdauer von weit über 120 Minuten, wobei der Gipskern mit Glasfasern armiert ist.
Kampf gegen die Sonne
(2013)
Kampf gegen die Sonne,
Extrakt (Abdulbari Madi genannt Hakim Madi):
Wenn wir unsere Vergangenheit betrachten, schauen wir auch in das Gesicht unserer Gegenwart und Zukunft. Wir müssen danach streben, unser kulturelles Erbe und unsere traditionellen Wurzeln zu bewahren, um gleichzeitig von den Erfahrungen der Vergangenheit in den verschiedenen Bereichen des Lebens zu profitieren und sie mit unserer heutigen Umwelt und Kultur in Einklang zu bringen. Die von der UNESCO geschützte alte Stadt Ghadames mitten in der Wüste von Libyen ist ein solcher Ort, an dem mehr als 2.000 Jahre Geschichte spürbar zu greifen sind.
Die Arbeit beschäftige sich zum einen mit dem baulichen Erbe der Stadt Ghadames als kulturelle Errungenschaft im Wandel aktueller Besiedlungsformen unter besonderer Berücksichtigung des Phänomens „Licht und Schatten“. Die einzigartigen Licht- und Schatten-Effekte in Ghadames sind aber, verbunden mit einem Seitenblick auf die theoretischen Beschäftigung damit, Anlass für eine praktische künstlerische Auseinandersetzung mit diesem Aspekt auf photographischer Ebene. So ist als fester Bestandteil dieser Arbeit eine Fotoserie entstanden.
Titel der Arbeit ist „Kampf gegen die Sonne“. Er hat seine Berechtigung, denn der Sonne sind die Bewohner der Wüstenstadt Ghadames schon seit jeher ausgesetzt und haben daher verschiedene Strategien entwickelt, sich vor der sengenden Sonne zu schützen. Das spiegelt sich vor allem in der Architektur, aber auch in der speziellen Palmenbepflanzung.
Gebauter Schatten – ans Klima angepasste Architektur
Architektur sollte idealerweise mit den Bedingungen ihres Umfelds in Einklang stehen. Die arabische Welt ist besonders von ihren klimatischen Bedingungen und der Weite der Wüste geprägt, wobei die Sonneneinstrahlung eine wichtige Rolle spielt. Diese Naturelemente bestimmen die arabische Architektur tiefgreifend.
Architektur, die wie in Ghadames über viele Jahrhunderte als Reaktion auf ein heißes, trockenes Klima entstanden ist, ist gerade heute in Zeiten des sich bereits vollziehenden Klimawandels von besonderem Interesse. Auch in den gemäßigten Klimazonen Europas wird die Sonneneinstrahlung kontinuierlich intensiver und damit wird die Nachfrage nach einer den neuen klimatischen Bedingungen angepassten Bauweise zukünftig zunehmen. An dieser Stelle kann man sicher von den architektonischen Errungenschaften und der langen Erfahrung mit Architektur als gebauter Schatten, wie sie in der Altstadt von Ghadames praktiziert wird, profitieren. Gerade im Vergleich mit der Neustadt von Ghadames, bei der man eben nicht traditionelle Bauweisen und Materialien der Wüstenstadt berücksichtigt hat, sondern eine standardisierte Architektur unabhängig von klimatischen Besonderheiten eingesetzt wurde, wird deutlich, wie groß der Unterschied in der Lebensqualität ist.
Die Stadtplaner der Altstadt von Ghadames dagegen haben auf Klima und Wüstenlage Rücksicht genommen. Die Arbeit analysiert Punkt für Punkt, wie sich die Anpassung in Bauform und Material traditionell vollzieht: So wurden Gebäude mit geeigneten und vor Ort vorhandenen Baustoffen errichtet, die eine angemessene Klimatisierung erlauben. Eine spezielle Lehmbauweise passte sich den Bedingungen der Sahara mit glühender Hitze während des Tages und mit bitterer Kälte in der Nacht optimal an. Gebäude wurden mit sehr dicken Wänden errichtet und so konstruiert, dass durch winkelartige Aufbauten an den Außenwänden, Schatten auf die Oberflächen fallen und damit eine gewisse Feuchtigkeit entsteht, die Wärme absorbiert. Ausdehnung und Kontraktion der Baumaterialien konnten so kompensiert werden.
Diese Art der Lehmbauweise findet man bei verschiedenen Stämmen und Kulturen im weitläufigen Saharagebiet wie z.B. in Mali. Aber einzigartig in Ghadames ist, dass nicht einzelne Bauwerke, sondern eine komplette Stadt wie aus einem Guss gestaltet wurde. Nicht nur Häuser und Moscheen, sondern auch Straßen und Verbindungswege sind überdacht, so dass Ghadames bis auf einige wenige Lichthöfe als ein komplett gegen die Sonne nach oben abgeschirmtes Labyrinth bezeichnet werden kann. Manchmal wird Ghadames auch als unterirdische Stadt betitelt, was zwar gut den atmosphärischen Eindruck, der an einen Keller erinnert, beschreibt, aber sachlich falsch ist, da sie überirdisch erbaut ist. Die ganze Architektur ist ein Bollwerk gegen das sengende Sonnenlicht. Dabei geht es nicht darum, es vollständig abzuwehren, sondern es zu mildern.
Licht- und Schatten-Spiel
Dabei entstehen einzigartige Lichteffekte, die photographisch äußerst reizvoll sind. Dabei ist der Schatten wie allgemein bekannt ist, ein flüchtiges Phänomen, verändert sich je nach geographischer Lage und mit dem täglichen Lauf der Sonne. Die Bewegung der Schatten ist für die Entwicklung und Gestaltung von Räumen und Architektur von weitreichender Bedeutung. Am Baukörper zeigt sich das Wechselspiel von Körper und modellierendem Licht.
In der Stadt Ghadames gab es bis vor kurzem nur eine natürliche Beleuchtung, die über kleinere, verschließbare Öffnungen in der Decke erfolgte. Diese Straßenbeleuchtung hat so ihre eigene Ästhetik im Rhythmus von Licht und Schatten, dass in den Straßen selbst exzeptionelle Lichtkunstwerke sichtbar werden. Ähnliches gilt für die Wohnräume, bei denen das von oben einfallende Licht zusätzlich durch zahlreiche Spiegel vervielfacht und entsprechend den jeweiligen Bedürfnissen umgelenkt wurde.
Auch auf den Dächern zeigen sich architektonische Elemente, die nicht allein aus der Ästhetik erwachsen, sondern gleichzeitig praktischen Nutzen besitzen. Die Oberstadt war allein den Frauen vorbehalten, die sich hier unter sich frei bewegen konnten, aber selbstverständlich auch hier die Schattenplätze bevorzugten. Die Ecken der Häuser sind daher segelförmig ausgewölbt, so dass sich darunter bequem Schatten finden ließ. Sie verleihen der Stadt Ghadames ihre typische, von weitem sichtbare Zackenform.
Die Identität stiftende Rolle von Ghadames für Libyen
Es wird zunächst herausgearbeitet, welche Identität stiftende Rolle Ghadames für Libyen spielt und wie sich die für Ghadames typische eigene Kultur und Lebensform entwickeln konnte. Dabei werden die Bedingungen der Anpassung der Bewohner von Ghadames, geprägt durch verschiedene Einwanderungswellen, an Land und Umgebung, untersucht.
Die Arbeit bestätigt durch eine Analyse der aktuellen Photoszene, wobei sowohl traditionelle als auch moderne Photographien von Ghadames exemplarisch untersucht werden, die Vermutung, dass Ghadames Kristallisationspunkt des Umschwungs innerhalb der libyschen Photographie ist.
Ein weiteres Ziel der Arbeit war, anhand von eigenen künstlerischen Photos die Besonderheit von Licht und Schatten in der Stadt Ghadames aufzuzeigen. Dabei wird der Blick geöffnet für die außergewöhnlichen Perspektiven, die durch die Anwendung unterschiedlicher Phototechniken entstehen, und die dadurch hervorgerufenen künstlerischen Verfremdungseffekte.
Geschichte und Kultur von Ghadames
Dargestellt wird, wie sich diese Entwicklung im Laufe der Zeit verändert hat, wie Urbanisierung und Zivilisation der Menschen in der Vergangenheit auf die Gewohnheiten der Menschen in der Gegenwart eingewirkt haben und noch immer weiter einwirken. Dazu wird eine ausführliche Klimabeschreibung geliefert, sowie ein Abriss der verschiedenen historischen Epochen in Ghadames.
Rezeptionsgeschichte von Ghadames in der Photographie
Daran schließt sich ein Teil an, bei dem gezeigt werden konnte, dass Ghadames schon bei den Afrikaforschern im 19. Jh z.B. bei den Briten Gordon Leng und James Richardson sowie bei dem Deutsche Gerhard Rohlfs von besonderem Interesse war. Berichte bebilderte man zunächst mit Zeichnungen, wenig später dann mit Fotografien. Der erste Afrikareisende mit Fotodokumenten war Victor Langeau gegen Ende des 19.Jh. Daran schließt sich eine Betrachtung der Rezeption von Ghadames in der historischen Fotografie von Marcel und Roselyne Hongrois an, deren Photomaterial die Basis für die Betrachtung der zeitgenössischen Fotografie in Libyen bildet.
Dabei wird aufgezeigt welche Entwicklungsstufen die Photographie in Libyen durchlaufen hat. Repräsentative professionelle Auftragsarbeiten stehen am Anfang, dann folgt eine Phase stereotyper Familienphotos. Überschattes wird beides von der Propagandarolle der Fotografie, die nicht nur alle offiziellen Fotos bestimmt, sondern auch ein freies Photographieren aufgrund der strengen Zensur behindert. Daher entwickelt sich, trotz technischer Voraussetzungen erst verhältnismäßig spät die freie künstlerische Photographie. Da aber internationale Vorbilder in Form von Büchern, Seminaren, Ausstellungen oder andere Informationsquellen fehlen, gibt es kaum Anregungen und wenig eigene Themen.
Dieser Mangel an eigenen Ideen in Libyen ist der wichtigste Grund, diesbezüglich zu forschen und aktiv zu werden. „Licht und Schatten am Beispiel von Ghadames“ ist aber ein Thema, das auch für andere Photographen in Libyen hilfreich sein kann. Es eröffnet den Dialog und unterstützt die im Aufschwung befindliche Photographie in Libyen. Diese Arbeit ist als ein Beitrag zur wissenschaftlichen Forschung im Bereich Photographie gedacht, die in libyschen Bibliotheken und Archiven fehlt. Sie soll Anstoß geben, dass libysche Photographen in den internationalen Dialog einsteigen und immer wieder darüber nachdenken, was ist die Bedeutung und das Ziel der eigenen photographischen Arbeit ist.
Das Phänomen „Licht und Schatten“ in der Photographie und Malerei
Die Arbeit zeigt, dass das Spiel von Licht und Schatten auch in der eigenen Photoarbeit nicht nur rein ästhetisches Phänomen ist, sondern sich darin für Libyen so charakteristische Lichtverhältnisse spiegeln. Durch die geographische Lage ist die Sonneneinstrahlung intensiver, die Kontraste sind härter, die Schatten tiefer als in eher gemäßigten Zonen wie Europa oder Nordamerika. Die Sonne ist daher auch bedeutungsmäßig anders aufgeladen.
In der Malerei und Photographie spielen Licht und Schatten als Gestaltungsmittel eine bedeutende Rolle. Ein Überblick über einige der wichtigsten Vertreter in der Malerei und in der Photographie macht das im Rahmen der Arbeit deutlich. Dabei gilt es einen grundlegenden Unterschied zwischen den Gattungen zu beachten: Der Maler kann verschiedene Licht- und Farbeffekte für seine Bilder erfinden, der Photograph dagegen geht mit der Wirklichkeit um, er muss sich die Farben und die Beleuchtung suchen. Natürlich gibt es jetzt Photoshop, man kann damit manipulieren, aber entscheidend ist das gewünschte Resultat. Wenn man dokumentarisch arbeitet, dann muss man versuchen, das Bild so aufzunehmen, dass alles darauf ist, was man zeigen will. Und wenn man verblüffen will, etwa expressive Wirkungen haben will, muss man die entsprechenden Mittel einsetzen.
Mein eigener photographischer Ansatz
Mein photographischer Ansatz unterscheidet sich grundlegend von diesen Beispielen und entsteht aus einer Mittlerposition zwischen der europäischen und der arabischen Kultur. In meinen freien Arbeiten versuche ich mit einer nahezu abstrakten Bildauffassung, dem für Ghadames typischen Phänomen von Licht und Schatten näher zu kommen. Ghadames entstand als architektonische Gesamtkomposition, als gebauter Schattenfänger über einer Quelle mitten in der von der Sonne beherrschten Wüste. Schatten wird hier anders als in der europäischen Tradition als positiver, Leben spendender Zustand im Gegensatz zur sengenden und alles verbrennenden Sonne aufgefasst. Die Architektur der Stadt ist in idealer und einzigartiger Weise an die klimatischen Bedingungen und an den Lauf der Sonne angepasst. Diese gebaute Schattenskulptur ist mehr als Kulisse und Motiv für meine Photographie, denn in meiner Arbeit spiegeln sich Licht und Schatten auch als grundlegendes Thema der Photographie, bei der Hell- und Dunkelwerte das Lichtbild erschaffen. Photographie ist auf enge Weise mit dem Thema Licht und Schatten verbunden. Die Malerei versucht, die Dreidimensionalität mittels abgestufter Helligkeitswerte der einzelnen Farbtöne darzustellen und ist darin ziemlich frei, in der Photographie aber wird das Bild allein aus dem Licht geboren. Das Motiv wird aus Licht und Schatten moduliert. Wenn Licht auf einen dreidimensionalen Körper trifft, werden verschiedene Schattenformen wie Schlagschatten, Eigenschatten und Schattierungen erzeugt. Der Schatten spiegelt die Form eines Lebewesens oder Gegenstandes, der von Licht getroffen wird. Wo Schatten ist, ist auch Licht. Er ist zeitabhängig, vergänglich und wechselhaft.
Für mich als Photograph ist daher dieser Aspekt von Licht und Schatten in der Stadt Ghadames außerordentlich interessant. Im Arabischen steht der Begriff „Gamalyate“ für Schönheit. Das Hauptziel dieser Arbeit besteht für mich darin, die herausragende Schönheit und Ästhetik des Lichts über die physikalisch-technischen Gegebenheiten hinaus durch meine künstlerische Photographie erfahrbar werden zu lassen,
Kontrastausgleich - Aufnahmen mit HDR
Die Malerei, insbesondere die Freilichtmalerei der Impressionisten, hat schon immer mit dem Problem gekämpft, die unterschiedlichen Lichtqualitäten von Außen- und Innenraum in einem Bild zu integrieren. Das ist ihnen mit malerischen Mitteln einfacher gelungen, weil sie sich vom Gegenstand insofern entfernen konnten, als sie einen Kontrastausgleich innerhalb ihrer Malerei vornahmen. Fensteransichten waren ein beliebtes Motiv, wobei man sowohl das Drinnen als auch das Draußen erkennt. Das Problem des Kontrastausgleiches habe ich bei meiner photographischen Arbeit gelöst, indem ich ein spezielles digitales Verfahren angewendet habe. Die Technik heißt HDR. Diese Technik lässt Modulationen in den Schattenbereichen zu und gleichzeitig moderiert sie auch die intensiven Lichter. Deshalb komme ich hier in diesen Ansichten zu einem dem natürlichen Seheindruck recht nahen Abbild, so wie die Besucher die Gänge erleben, weil das menschliche Auge von Natur aus in der Lage ist, den Kontrastumfang in einer viel besseren Art und Weise auszugleichen als es das Filmmaterial oder auch das digitale Material kann.
Die erwähnte HDR Technik führt mich zu Bildern, die fast ein wenig wie Zebras aussehen.
Schwarz und Weiß wechseln sich ab, gefolgt von Graunuancen. Diese Farbigkeit ist für mich neben diesen anderen beiden Werkgruppen der Gänge sehr interessant, weil dadurch auch die Darstellung der Verschachtelung und auch der Perspektiven in meinen Bildern gelingt. Besonders deutlich wird das, wenn man Aufnahmen des gleichen Motivs zu verschiedenen Tageszeiten, einmal mit weichem, einmal mit hartem Licht aufgenommen, gegenüberstellt.
Die historische Entwicklung frühneuzeitlicher Wohngebäude (1450 bis 1637) der Stadt Meißen wird hier vorwiegend mit bauarchäologischen und baugeschichtlichen Methoden unter zusätzlicher Nutzung farbarchäologischer, dendrochronologischer und archivalischer Quellen untersucht. Eine bau- und raumstrukturelle Differenzierung der Wohnformen unterschiedlicher sozialer Gruppierungen- Handwerker, frühes Bürgertum sowie hoher und niederer Klerus- scheint dabei möglich zu sein. Die Untersuchung fußt auf der teilweise sehr detaillierten Auswertung von Befunden, die in zwanzig Wohngebäuden gewonnen wurden.
This dissertation attempts to describe, analyze and evaluate how the settlement spaces of Chinese clans in rural areas were shaped by local clan lives in ancient times and transformed along with the transition of those clan organizations in modern China. In approaching this subject, two major questions are raised: what was the role of ancient Chinese rural clans in the spatial formation of their settlements and, nowadays, do they still play the same role as before?
To approach these answers, this dissertation sets out to draw on systematically interdisciplinary research from the perspectives of socio-culture and architecture- planning to have an overall understanding of a Chinese clan organization and clan settlement. Then, the basic characteristics of traditional Chinese clans and their importance to the Chinese people are discussed by tracing the history and evolution of Chinese clan organizations in the dissertation.
Two old villages, Furong and Cangpo in now Wenzhou, Zhejiang Province, are selected for case study research. And the research reveals that it was the clans that took charge of planning and managing the various construction activities, especially those of communal buildings and facilities, within their own settlements, and the clan lives exerted a decisive impact on shaping the settlement spaces, branding the characteristics of the clan lives clearly and deeply on the spaces. Following that, in the dissertation is described the transformation process of traditional Chinese clans in modern and contemporary China. The clan lives in rural areas have been reshaped and this exerts a great impact on clan settlement spaces. It is shown in the case studies of Furong and Cangpo.
Bentonite sind quellfähige Tone, die häufig in der Umwelttechnik (in Abdichtungsbauwerken oder in der Bodensanierung) eingesetzt werden. Ziel der Arbeit war die Klärung, wie eine unterschiedliche Kationenbelegung mit Cu2+ und NH4+ die Eigenschaften der Bentonite bei Raumtemperatur und nach moderater Wärmebehandlung (300 – 450°C) beeinflusst. Im Blickpunkt stand insbesondere die gleichzeitige Präsenz von Kupfer- und Ammoniumionen, die als Vertreter für häufig auftretende Inhaltsstoffe von Wässern in der Umgebung von technischen Bentoniten ausgewählt wurden.
Die Untersuchungen zur Cu2+-Sorption bei Raumtemperatur und nach moderater Wärmebehandlung (300 – 450°C) erfolgten an Pulverproben von zwei technischen Bentoniten, die sich in der ursprünglichen Kationenbelegung, Art und Anteil an Nebengemengteilen, sowie der Schichtladungsverteilung in den Montmorilloniten unterscheiden. Vor der Wärmebehandlung wurden die Bentonite durch Kontakt mit verschieden konzentrierten Kupfer- und Ammoniumlösungen mit unterschiedlichen Gehalten der Kationen Cu2+, NH4+, Na+, Ca2+, Mg2+ belegt.
Der Eintrag von Kupferionen in die Bentonite durch Kationenaustausch bei Raumtemperatur wurde erwartungsgemäß durch präsente Nebengemengteile (wie Carbonat) beeinflusst, so dass die Kupferionen zusätzlich spezifisch adsorbiert und in festen Phasen angereichert wurden.
Die Cu2+-Fixierung infolge der Wärmebehandlung wurde vom Cu2+-Totalgehalt in den Bentoniten, der Präsenz von Nebengemengteilen und die Schichtladungsverteilung in den Montmorilloniten beeinflusst. Es waren generell Behandlungstemperaturen von > 400°C erforderlich, um Cu2+-Fixierungsraten von > 95% zu erzielen.
Waren während der Wärmebehandlung neben Cu2+-Ionen gleichzeitig NH4+-Ionen in den Bentoniten präsent, konnte die Cu2+-Fixierungstemperatur herabgesetzt werden. Die Deammonisierung (NH4+ --> NH3 + H+) der NH4+-belegten Bentonite fand größtenteils unterhalb der Dehydroxylierungstemperatur der Bentonite statt.
Durch Untersuchungen (XRD, FTIR, NMR, ESR) zum Mechanismus der Cu2+-Einbindung in die Bentonite an speziell aufbereiteten Proben (carbonatfrei, < 2 µm) konnte nachgewiesen werden, dass in den Cu2+-belegten Montmorilloniten die Cu2+-Ionen infolge der Wärmebehandlung nicht bis in die Oktaederschicht der Tonminerale vordringen, sondern nur bis in die Tetraederschicht wandern. In den NH4+-belegten Montmorilloniten treten im Zusammenhang mit der Deammonisierung keine zusätzlichen Strukturänderungen (wie Auflösung der Oktaederschicht) infolge der Wärmebehandlung auf.
Der Einsatz ungeeigneter Materialien ist eine der häufigsten Ursachen für Bauwerksschäden. Da die Beseitigung dieser Schäden oft mit hohen Kosten verbunden ist, besteht in der Baupraxis der Bedarf an einer Identifizierungsmethode für eingesetzte Baustoffe. Daneben wäre eine Kenntnis der in einem Bauwerk vorliegenden Materialien auch für Instandhaltungsarbeiten hilfreich.
Die Identifizierung der in einem Festbeton oder Festmörtel vorliegenden Zementart gilt auch gegenwärtig noch als schwierig oder sogar unmöglich. Die Schwierigkeiten ergeben sich in erste Linie daraus, dass die Hydratationsprodukte verschiedener Zementarten oft nur geringe Unterschiede in ihrer chemischen und mineralogischen Zusammensetzung aufweisen und die Hydratationsmechanismen bei einigen Zementarten noch nicht vollständig erforscht sind.
Primäres Ziel der vorliegenden Arbeit war es zu untersuchen, ob anhand des Mineralphasenbestandes, der sich während einer thermischen Behandlung von Zementsteinen einstellt, eine Identifizierung der vorliegenden Zementart möglich ist. Weiterhin sollte die Übertragbarkeit dieser Ergebnisse auf Betone und Mörtel eingeschätzt werden.
Zur Schaffung von Identifizierungsmerkmalen wurden die (angereicherten) Zementsteine bei Temperaturen im Bereich zwischen 600 °C und 1400 °C thermisch behandelt. An den getemperten Proben wurde der Mineralphasenbestand mittels Röntgendiffraktometrie bestimmt. Mit der gleichen Methode wurden die Ausgangszemente und die (angereicherten) Zementsteine untersucht. Aus der Gegenüberstellung der nachgewiesenen Mineralphasen konnten die gesuchten Identifizierungsmerkmale abgeleitet werden. Um den Einfluss der Gesteinskörnungen auf die Identifizierungsmöglichkeiten gesondert zu erfassen, wurde das Versuchsprogramm auf 3 Abstraktionsebenen angelegt. Für die Auswertung der Ergebnisse wurden die Proben zu Klassen zusammengefasst, welche jeweils charakteristische Zusammensetzungen der Ausgangszemente repräsentieren. Für die Analyseergebnisse wurden die klassenspezifischen die Mittel- und Grenzwerte bestimmt.
Als die effektivste Methode zur Anreicherung der Zementsteinmatrix aus Mörtel- und Betonproben erwies sich die Kombination aus einer Zerkleinerung in einem Laborbackenbrecher. Die fein partikulären Fraktionen, welche Zementsteingehalte von 70-80 Ma.-% aufwiesen, wurden als Analyseproben verwendet. Es zeigte sich aber auch, dass das Anreicherungsergebnis von der Gesteinskörnungsart abhängt. Bei Laborbetonen mit einer Kalkstein-Gesteinskörnung wurde mit der gleichen Methode lediglich eine Anreicherung des Zementsteins auf etwa 50 Ma.-% erreicht.
Die Untersuchungen auf Abstraktionsebene 1 lieferten die Erkenntnis, dass der Hydratationsprozess der Klinkerphasen, der Klinkerphasengemische sowie des Hüttensandes, auch in Gegenwart des Sulfatträgers für Behandlungstemperaturen im Bereich des Klinkerbrandes vollständig reversibel ist. Im Hinblick auf die Identifizierungsmöglichkeiten wurde 1100 °C als optimale Behandlungstemperatur ermittelt, da hier eine Schmelzphasenbildung ausgeschlossen werden kann.
Durch eine Gegenüberstellung der chemischen Zusammensetzung der Ausgangszemente und des Phasenbestandes nach der Temperung konnte nachgewiesen werden, dass bei reinen Zementsteinen grundsätzlich alle Bestandteile an der Reaktion, die während der thermischen Behandlung bei 1100 °C stattfindet, beteiligt sind. Der sich einstellende Phasen bestand ist nur von der chemischen Zusammensetzung der Probe und dabei besonders von derem CaO-Gehalt abhängig. Empirisch wurde eine Prioritätenfolge für die Phasenbildung ermittelt. Daraus geht hervor, dass bevorzugt CaO-reiche Phasen, wie Aluminatferritphase, Belit und Ye‘elimit entstehen und dass überschüssiger Kalk als freies CaO vorliegt. Nur wenn der CaO-Gehalt der Probe nicht für die vollständige Bildung der – in der Summe – kalkreichsten Phasen ausreicht, entstehen partiell oder vollständig kalkärmere Phasen, wie Merwinit und Melilith. Basierend auf den Prioritäten zur Phasenbildung wurde ein Satz von Berechnungsgleichungen aufgestellt, mit denen der CaO-Typ aus der Phasenzusammensetzung der bei 1100 °C getemperten Probe bestimmt werden kann. CaO-Typen repräsentieren Bereiche für die chemische Zusammensetzung der Ausgangsprobe, welche bei der Temperaturbehandlung zu einer charakteristischen qualitativen Phasenzusammensetzung führen. Die CaO-Typen der marktüblichen Zementarten wurden anhand der in der Norm EN 197 festgelegten Bereiche für die Zusammensetzung der Zemente aus ihren Hauptbestandteilen sowie der aus der Fachliteratur ermittelten Bereiche für die chemische Zusammensetzung dieser Hauptbestandteile ermittelt. Damit kann für die Zementarten der Phasenbestand vorhergesagt werden, welcher sich während der Temperaturbehandlung des entsprechenden Zementsteins einstellt. Ein Vergleich mit dem gemessenen Phasenbestand erlaubt so die Identifizierung der Zementart.
Die Übertragbarkeit der durch die Untersuchungen an den Zementsteinen gewonnenen Erkenntnisse und die daraus abgeleiteten Identifizierungsmöglichkeiten auf Zementsteine, welche aus quarzsandhaltigen Normmörteln angereichert wurden, konnte nachgewiesen werden. Dabei wurde eine leichte Verschiebung des Phasenbestandes hin zu kalkärmeren Phasen beobachtet, welche auf die Reaktionsbeteiligung eines Teils der in den Proben enthaltenen Restgesteinskörnung zurückzuführen ist. Die Unterscheidungsmöglichkeiten zwischen den Zementarten blieben jedoch überwiegend erhalten.
Bei Betonen nimmt der Einfluss der Gesteinskörnung auf den Phasenbestand deutlich zu und kann zum Teil nicht mehr vernachlässigt werden. Die Identifizierungsmöglichkeiten müssen deshalb nach der chemischen Zusammensetzung und der Reaktivität der Gesteinskörnung differenziert ermittelt werden. Dazu sind weitere Untersuchungen notwendig.
Für Zementsteine, zementsteinreiche Systeme sowie Mörtel und Betone mit wenig reaktiven Gesteinskörnungen kann die Zementart bereits mit der in dieser Arbeit vorgestellten Methode identifiziert werden. In Fällen, für die sich die Bereiche der chemischen Zusammensetzung mehrerer Zementarten überschneiden, kann es dabei notwendig sein, zusätzliche chemische bzw. mineralogische Untersuchungen durchzuführen, z. B. am unbehandelten Zementstein.
Der Entwurfsraum für den Entwurf eines Tragwerks ist ein n-dimensionaler Raum, der aus allen freien Parametern des Modells aufgespannt wird.
Traditionell werden nur wenige Punkte dieses Raumes durch eine numerische (computergestützte) Simulation evaluiert, meist auf Basis der Finite-Elemente-Methode.
Mehrere Faktoren führen dazu, dass heute oft viele Revisionen eines Simulationsmodells durchlaufen werden: Zum einen ergeben sich oft Planungsänderungen, zum anderen ist oft die Untersuchung von Planungsalternativen und die Suche nach einem Optimum wünschenswert.
In dieser Arbeit soll für ein vorhandenes Finite-Elemente-Framework die sequentielle Datei-Eingabeschnittstelle durch eine Netzwerkschnittstelle ersetzt werden, die den Erfordernissen einer interaktiven Arbeitsweise entspricht. So erlaubt die hier konzipierte Schnittstelle interaktive, inkrementelle Modelländerungen sowie Status- und Berechnungsergebnis-Abfragen durch eine bidirektionale Schnittstelle.
Die Kombination aus interaktiver numerischer Simulation und Interoperabilität durch die Anwendung von Konzepten zur Bauwerks-Informations-Modellierung im Tragwerksentwurf ist Ziel dieser Dissertation. Die Beschreibung der Konzeption und prototypischen Umsetzung ist Gegenstand der schriftlichen Arbeit.
The planning process in civil engineering is highly complex and not manageable in its entirety.
The state of the art decomposes complex tasks into smaller, manageable sub-tasks. Due to the close interrelatedness of the sub-tasks, it is essential to couple them. However, from a software engineering point of view, this is quite challenging to do because of the numerous incompatible software applications on the market. This study is concerned with two main objectives: The first is the generic formulation of coupling strategies in order to support engineers in the implementation and selection of adequate coupling strategies. This has been achieved by the use of a coupling pattern language combined with a four-layered, metamodel architecture, whose applicability has been performed on a real coupling scenario. The second one is the quality assessment of coupled software. This has been developed based on the evaluated schema mapping. This approach has been described using mathematical expressions derived from the set theory and graph theory by taking the various mapping patterns into account. Moreover, the coupling quality has been evaluated within the formalization process by considering the uncertainties that arise during mapping and has resulted in global quality values, which can be used by the user to assess the exchange. Finally, the applicability of the proposed approach has been shown using an engineering case study.
Das Bauwesen hat sich in den letzten Jahren durch die Globalisierung des Marktes verbunden mit einer verstärkten Nutzung moderner Technologien stark gewandelt. Die Planung und die Durchführung von Bauvorhaben werden zunehmend komplexer und sind mit erhöhten Risiken verbunden. Geld- und Zeitressourcen werden bei einem immer härter werdenden Konkurrenzkampf knapper.
Das Projektmanagement stellt Lösungsansätze bereit, um Bauvorhaben auch unter erschwerten Bedingungen und erhöhten Risiken erfolgreich zum Abschluss zu bringen. Dabei hat ein systematisches Risikomanagement beginnend bei der Projektentwicklung bis zum Projektabschluss eine für den Projekterfolg entscheidende Bedeutung.
Ziel der Arbeit ist es, eine quantitative Risikoerfassung für Projektmanager als professionelle Bauherrenvertretung und die Simulation der Risikoauswirkungen auf den Verlauf eines Projektes während der Planungs- und Bauphase zu ermöglichen. Mit Hilfe eines abstrakten Modells soll eine differenzierte, praxisnahe Simulation durchführbar sein, die die verschiedenen Arten der Leistungs- und Kostenentstehung widerspiegelt. Parallel dazu soll die Beschreibung von Risiken so abstrahiert werden, dass beliebige Risiken quantitativ erfassbar und anschließend ihre Auswirkungen inklusive mögliche Gegenmaßnahmen in das Modell integrierbar sind.
Anhand zweier Beispiele werden die unterschiedlichen Einsatzmöglichkeiten der quantitativen Erfassung von Projektrisiken und der anschließenden Simulation ihrer Auswirkungen aufgezeigt. Bei dem ersten Beispiel, einem realen, bereits abgeschlossenen Schieneninfrastrukturprojekt, wird die Wirksamkeit einer vorbeugenden Maßnahme gegen ein Projektrisiko untersucht. Im zweiten Beispiel wird ein Planspielansatz zur praxisnahen Aus- und Weiterbildung von Projektmanagern entwickelt. Inhalt des Planspiels ist die Planung und Errichtung eines privatfinanzierten, öffentlichen Repräsentationsbaus mit teilweiser Fremdnutzung.
Der Komplexität einer großen Baumaßnahme steht meist ein relativ unpräzises Termincontrolling gegenüber. Die Gründe dafür liegen in unzureichenden Baufortschrittsinformationen und der Schwierigkeit, eine geeignete Steuerungsmaßnahme auszuwählen. In der Folge kommt es häufig zu Terminverzügen und Mehrkosten.
Ziel der Arbeit war es, die realen Bau-Ist-Zustände eines Bauprojektes so genau zu erfassen, dass es möglich wird, täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes zu schaffen und mit Hilfe eines Simulationswerkzeuges nachzubilden. Zu diesem Zweck sollte ein Erfassungskonzept ausgearbeitet werden, mit dessen Hilfe unter Verwendung von Erfassungstechniken aussagekräftige sowie belastbare Daten zu einer auf die Anforderungen der Simulation abgestimmten Datenbasis zusammengeführt werden.
Um der Zielstellung gerecht zu werden, wurde anhand eines Beispiels ein Prozessmodell aufgebaut und definiert, welche Informationen zum Aufbau eines Simulationsmodells, das die reaktive Ablaufplanung unterstützt, erfasst werden müssen. Die einzelnen Prozessgrößen wurden detailliert beschrieben und die Erfassungsgrößen daraus abgeleitet. Weiterhin wurden Aussagen zur Prozessstrukturierung erarbeitet. Somit wurden Informationsstützstellen definiert.
Es wurden Methoden zur Erfassung des Bau-Ist-Zustandes hinsichtlich ihrer Eignung sowie Anwendungsmöglichkeiten analysiert und ausgewählte Anwendungsbeispiele für RFID, Barcodes und Bautagebücher dargestellt. Außerdem wurde betrachtet, welche Daten der baustelleneigenen Bauablaufdokumentation zur Belegung der Informationsstützstellen genutzt werden können. Diese Betrachtung stellte Dokumente in den Fokus, welche aufgrund von Vorschriften oder Vertragsbedingungen ohnehin auf Baustellen erfasst werden müssen.
Schließlich wurden die vorangegangenen Betrachtungen hinsichtlich der Erfassungsgrößen und der Erfassungsmethoden in einem Erfassungskonzept zusammengeführt und eine geeignete Kombination von Erfassungsmethoden entwickelt.
Der Baufortschritt soll anhand der Beschreibung, welchen Status die einzelnen Vorgänge angenommen haben, mit Hilfe eines digitalen Bautagebuchs erfasst werden. Die Randbedingungen, wie die Verfügbarkeit von Personal-, Material- und Geräteressourcen, werden mit Hilfe von RFID-Tags identifiziert, auf denen alle weiteren benötigten Informationen hinterlegt sind. Informationen über Ressourcen, welche geplante Termine wiedergeben, müssen ebenfalls im digitalen Bautagebuch hinterlegt und aktuell gehalten werden. Traditionelle Lieferscheine in Papierform müssen durch digitale Lieferscheine ersetzt werden.
Abgeschlossen wurde die Ausarbeitung des Erfassungskonzeptes durch Ansätze, mit deren Hilfe der Erfassungsaufwand reduziert werden kann. Zu diesem Zweck wurde eine hierarchische Ordnung des Erfassungskonzeptes eingeführt.
Im Ergebnis ist somit ein Erfassungskonzept entstanden, mit dessen Hilfe die realen Bau-Ist-Zustände einer Baumaßnahme so genau erfasst werden können, dass täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes in einer Simulations¬umgebung generiert werden kann. Die Erfassungskonzeption liefert eine Datenbasis, die auf die Anforderungen der Simulation abgestimmt ist.
This thesis presents two new methods in finite elements and isogeometric analysis for structural analysis. The first method proposes an alternative alpha finite element method using triangular elements. In this method, the piecewise constant strain field of linear triangular finite element method models is enhanced by additional strain terms with an adjustable parameter a, which results in an effectively softer stiffness formulation compared to a linear triangular element. In order to avoid the transverse shear locking of Reissner-Mindlin plates analysis the alpha finite element method is coupled with a discrete shear gap technique for triangular elements to significantly improve the accuracy of the standard triangular finite elements.
The basic idea behind this element formulation is to approximate displacements and rotations as in the standard finite element method, but to construct the bending, geometrical and shear strains using node-based smoothing domains. Several numerical examples are presented and show that the alpha FEM gives a good agreement compared to several other methods in the literature.
Second method, isogeometric analysis based on rational splines over hierarchical T-meshes (RHT-splines) is proposed. The RHT-splines are a generalization of Non-Uniform Rational B-splines (NURBS) over hierarchical T-meshes, which is a piecewise bicubic polynomial over a hierarchical
T-mesh. The RHT-splines basis functions not only inherit all the properties of NURBS such as non-negativity, local support and partition of unity but also more importantly as the capability of joining geometric objects without gaps, preserving higher order continuity everywhere and allow local refinement and adaptivity. In order to drive the adaptive refinement, an efficient recovery-based error estimator is employed. For this problem an imaginary surface is defined. The imaginary surface is basically constructed by RHT-splines basis functions which is used for approximation and interpolation functions as well as the construction of the recovered stress components. Numerical investigations prove that the proposed method is capable to obtain results with higher accuracy and convergence rate than NURBS results.
Das Hauptziel der Arbeit war es zu klären, ob alkalihaltige Enteisungsmittel eine Alkali-Kieselsäure-Reaktion (AKR) auslösen und/oder beschleunigen können und was die dabei ggf. zugrunde liegenden Mechanismen sind. Die Untersuchungen dazu ergaben, dass die auf Verkehrsflächen eingesetzten alkalihaltigen Enteisungsmittel auf Basis von Natriumchlorid (Fahrbahndecken) bzw. auf Basis der Alkaliacetate und -formiate (Flugbetriebsflächen) den Ablauf einer AKR in Betonen mit alkalireaktiven Gesteinskörnungen auslösen und mitunter stark beschleunigen können. Dabei nimmt die AKR-fördernde Wirkung der Enteisungsmittel in der Reihenfolge Natriumchlorid - Alkaliacetate - Alkaliformiate erheblich zu.
Es zeigte sich, dass im Fall der Alkaliacetate und -formiate nicht allein die Zufuhr von Alkalien von Bedeutung ist, sondern dass es außerdem zu einer Freisetzung von OH-Ionen aus dem Portlandit und folglich zu einem Anstieg des pH-Wertes in der Porenlösung kommt. Dadurch wird der Angriff auf alkalireaktives SiO2 in Gesteinskörnungen verstärkt und der Ablauf einer AKR beschleunigt. Unter äußerer NaCl-Zufuhr kommt es hingegen nicht zu einem Anstieg des pH-Wertes, was der Grund für die weniger stark AKR-fördernde Wirkung von NaCl ist. Von Bedeutung sind hier die zugeführten Na-Ionen und offenbar ein sich andeutender, direkter Einfluss von NaCl auf das SiO2-Löseverhalten. Sind pH-Wert und Na-Konzentration in der Porenlösung ausreichend hoch, wird sich thermodynamisch bedingt AKR-Gel bilden. Die Bildung von FRIEDEL’schem Salz ist dabei nur eine Begleiterscheinung, aber keine Voraussetzung für den Ablauf einer AKR unter äußerer NaCl-Zufuhr.
Es zeigte sich weiter, dass sich mit der FIB-Klimawechsellagerung als Performance-Prüfung das AKR-Schädigungspotential von Betonen für Fahrbahndecken und Flugbetriebsflächen zuverlässig beurteilen lässt. Die Vorteile der FIB-Klimawechsellagerung liegen in der Prüfung kompletter, projektspezifischer Betonzusammensetzungen unter Beachtung aller praxisrelevanten klimatischen Einwirkungen und vor allem in der Berücksichtigung einer äußeren Alkalizufuhr. Innerhalb von 36 Wochen kann das AKR-Schädigungspotential einer Betonzusammensetzung für eine Nutzungsdauer von 20-30 Jahren in der Praxis sicher beurteilt werden.
Die Arbeit zeigt die wesentlichen Gründe auf, warum betahalbhydratreiche Niederbranntgipsbinder (industriell als Stuckgips bezeichnet) oft sehr unterschiedliche Eigenschaften aufweisen.
Der Anteil an Halbhydrat, welches aus dem stark hygroskopischen Anhydrit III (A III) durch die Reaktion mit Luftfeuchtigkeit entsteht, stellt einen erheblichen, bislang vollkommen unbeachteten Einfluss dar. Dieses Halbhydrat aus A III zeigt andere Oberflächeneigenschaften und ein Reaktionsverhalten, das von frisch gebranntem Betahalbhydrat abweicht.
Es zeigt sich, wie weitreichend der Einfluss physiko-chemischer Oberflächenprozesse wie Adsorption und Kondensation ist. Hierdurch wird nicht nur die Oberflächenenergie der Partikel abgebaut, sondern auch eine Verminderung der Hydratationswärme verursacht. Somit wirken sich physikalische Vorgänge thermodynamisch aus. Einwirkende und resultierende Parameter einer Alterung wirken wie folgt äußerst komplex zusammen:
Die dominierenden Bindemitteleigenschaften Abbindeverhalten und Wasseranspruch verändern sich durch eine Alterung sowohl aufgrund der Phasenumwandlungen als auch infolge der Veränderungen der Kristallite. Ebenso einflussreich ist die Veränderung der Oberflächencharakteristik. Die Auswirkung der Alterung auf die Reaktivität geht deutlich über den Abbau von Anhydrit III, die Dezimierung von abbindefähigem Material und die beschleunigende Wirkung von Alterungsdihydrat hinaus. Das Wachstum der Kristallite von Halbhydrat und die Verringerung der inneren Energie sowie die energetisch günstige spontane Beladung der Kristallgitterkanäle kleinster Anhydrit III-Kristallite mit dampfförmigem Wasser müssen als maßgebliche Ursachen für die Abnahme der Reaktivität infolge der Alterung herausgestellt werden. Die Abnahme der spezifischen Oberfläche und der Oberflächenenergie wirken sich außerdem auf den Lösungs- und den Hydratationsprozess aus. Der auf der Oberfläche von Anhydrit III kristallisierte Anhydrit II wirkt sich auch nach der Umwandlung von A III in Halbhydrat lösungshemmend aus. Infolge der alterungsbedingten Dihydratbildung, die bei anhaltender Feuchteeinwirkung einsetzt, wird diese Wirkung aufgehoben bzw. vermindert. Obgleich Dihydrat für seinen Beschleunigungseffekt bekannt ist, entfaltet Alterungsdihydrat infolge seiner besonderen Ausbildung innerhalb der wenige Moleküllagen umfassenden Kondenswasserschicht nur eine geringe keimbildende Wirkung.
Eine wesentliche Erkenntnis betrifft den Bindungscharakter des Überstöchiometrischen Wassers. Diesbezüglich ist eine rein physikalische Bindung nachweisbar. Das in der Arbeit als stärker adsorptiv gebunden bezeichnete Wasser kommt neben der Freien Feuchte ausschließlich bei Anwesenheit von Halbhydrat vor. Dieser Zusammenhang wird erstmalig hergestellt und mit Hilfe der kristallchemisch bedingten höheren Oberflächenenergie von Halbhydrat erklärt.
In der praktischen Anwendung werden den Calciumsulfatbindemitteln Kombinationen verschiedenster Zusätze beigegeben. Ein Verständnis für die Wirkungsweise der verschiedenen Zusätze wird folglich mit steigender Komplexität moderner Bindemittelrezepturen zunehmend wichtiger. In der vorliegenden Arbeit werden die Auswirkungen von Alkalisalzen und Fließmitteln auf die verschiedenen Phasen der Hydratation von Calciumsulfathalbhydrat systematisch analysiert und anschließend diskutiert.
Im ersten Teil der Arbeit wird gezeigt, dass Alkalisulfate und Alkalichloride die Hydratation von Calciumsulfathalbhydrat in unterschiedlicher Weise beeinflussen. Die Beschleunigungswirkung der gleichionigen Zusätzen K2SO4 und Na2SO4 wird sowohl durch eine verbesserte Keimbildung als auch durch einen Anstieg der Kristallwachstumsgeschwindigkeit verursacht. Während Alkalisulfate die Dihydratkeimbildung begünstigen, wird diese bei Zugabe von KCl und NaCl verzögert. Ein Beschleunigungseffekt setzt erst später in der Phase des Kristallwachstums ein. Die Wirkung der zugegebenen Ionen lässt sich entsprechend der Hofmeister-Serie einordnen.
Der zweite Teil der vorliegenden Arbeit präsentiert eine systematische Betrachtung der Wirkungsweise dreier Fließmittelgruppen im Calciumsulfatsystem (Polykondensat, Polycarboxylatether, Kammpolymer mit Phosphatgruppen). Untersuchungen zur Verflüssigungswirkung der Fließmittel zeigen, dass diese in der Reihenfolge Polykondensat < Polycarboxylatether < Kammpolymer mit Phosphatgruppen zunimmt. Eine direkte Korrelation zwischen Verflüssigungswirkung und Adsorptionsneigung besteht nicht. Neben den gewünschten Effekten weisen Fließmittel häufig auch eine Verzögerung der Hydratation des Bindemittels als unerwünschte Nebenwirkung auf. Ursächlich für diese fließmittelinduzierte Verzögerung ist eine Behinderung der Keimbildung und des Kristallwachstums. Untersuchungen zur Auflösung von Calciumsulfathalbhydrat zeigen eine Behinderung des Auflösungsprozesses in Anwesenheit der Fließmittel. Die Ergebnisse lassen eine partielle Belegung der Halbhydratoberflächen mit Fließmittelmolekülen vermuten. Die veränderte Morphologie der Dihydratkristalle verweist auf eine selektive Belegung der Dihydratoberflächen mit Fließmittelmolekülen.
Im Rahmen der Arbeit wird das Querkrafttragverhalten bewehrter Bauteile aus Porenbeton untersucht. Die vorherrschende Beschreibung des inneren Kräftezustandes basiert auf der Modellvorstellung eines Fachwerks oder Sprengwerks mit Stahlzugstreben und Betondruckstreben. Ziel ist die Entwicklung eines alternativen Verfahrens zur Ermittlung des inneren Kräftezustandes.
Ausgehend vom Prinzip des Minimums des elastischen Gesamtpotentials wird eine Extremalaufgabe für das mechanische Problem formuliert. Die numerische Umsetzung basiert auf der Überführung der Extremalaufgabe in eine nichtlineare Optimierungsaufgabe. Diese lässt sich mit Standardsoftware lösen. Der Vorteil dieser Vorgehensweise besteht darin, dass das grundlegende Verfahren unabhängig vom verwendeten Materialmodell ist. Nichtlineare Spannungs-Dehnungs-Beziehungen oder die Berücksichtigung der Rissbildung erfordern keine Anpassung des Berechnungsalgorithmus.
Bewehrte Porenbetonbauteile besitzen im Hinblick auf das Trag- und Verformungsverhalten einige Besonderheiten. Berechnungsansätze für Stahlbetonelemente lassen sich nicht ohne entsprechende Modifikationen übertragen lassen. Die Bewehrung wird aus glatten Stäben hergestellt, so dass nach der Herstellung nur ein Haftverbund wirksam ist. Dieser kann über die Lebensdauer teilweise oder vollständig versagen. Die Kraftübertragung zwischen den Verbundelementen muss durch entsprechende Kopplungselemente (z.B. Querstäbe, Bügel, Endwinkel) sichergestellt werden.
Der Bewehrungskorb ist im Porenbeton gebettet. Aufgrund der relativ niedrigen Festigkeit bzw. Steifigkeit des Porenbetons und des teilweise unwirksamen Verbundes treten Relativverschiebungen zwischen beiden Verbundmaterialien auf. Hier sind die Ursachen dafür zu finden, dass die Beanspruchung der Querkraftbewehrung viel geringer ist als bei vergleichbaren Stahlbetonbalken. Der Querkraftbewehrungsgrad erlaubt keine Rückschlüsse auf den Querkraftwiderstand.
Das zentrale Anliegen der Arbeit ist die Implementierung nichtlinearer Materialansätze, der Rissbildung des Porenbetons sowie der porenbetonspezifischen Besonderheiten verschieblicher Verbund, diskrete Verankerung der Bewehrung und Relativverschiebungen zwischen Porenbeton und Bewehrung) in das Berechnungsmodell.
Die Leistungsfähigkeit des entwickelten Berechnungsmodells wird anhand von Beispielen demonstriert. Die Kräfte in der Bewehrung sowie das Tragwerksverhalten werden realitätsnah bestimmt.
In dieser Arbeit werden die Ergebnisse von experimentellen Untersuchungen an unbewehrten und bewehrten modifizierten Betonen unter monoton steigender Belastung bis zum Bruch, einfacher Kurzzeitbelastung im Grenzbereich der Tragfähigkeit und mehrfach wiederholter Belastung mit kontinuierlicher Be- und Entlastungsgeschwindigkeit vorgestellt und ausgewertet. Für die Modifizierung der Betone wurden zwei grundsätzliche Vorgehens¬weisen angewendet: die Variation der Gesteinskörnung und die Modifizierung der Bindemittelphase mit thermoplastischen Polymeren. Die Auswirkungen der Modifikationen auf die Festigkeitseigenschaften und das Formänderungsverhalten des Betons bei Kurzzeitbelastung waren dabei von besonderem Interesse.
Die beobachteten Veränderungen der Festbetoneigenschaften sowie der nichtlineare Zu-sammenhang zwischen den elastischen und nichtelastischen Verformungsanteilen signali-sieren, dass derartige Modifizierungen das Verformungs- und Bruchverhalten von Beton sig-nifikant beeinflussen und somit beim Nachweis der Tragfähigkeit und Gebrauchstauglichkeit berücksichtigt werden müssen. Neben der Evaluierung des beanspruchungsabhängigen Formänderungsverhaltens werden die etablierten Ansätze zur Beschreibung der Gefügezu-standsbereiche bei Druckbelastung weiter entwickelt, so dass die Übergänge zwischen den Bereichen exakt ermittelt und die Ausprägung der Bereiche quantifiziert werden können. Damit ist ein genauerer Vergleich der durch die Modifizierungen hervorgerufenen Verände-rungen möglich.
The automotive industry requires realistic virtual reality applications more than other domains to increase the efficiency of product development. Currently, the visual quality of virtual invironments resembles reality, but interaction within these environments is usually far from what is known in everyday life. Several realistic research approaches exist, however they are still not all-encompassing enough to be usable in industrial processes. This thesis realizes lifelike direct multi-hand and multi-finger interaction with arbitrary objects, and proposes algorithmic and technical improvements that also approach lifelike usability. In addition, the thesis proposes methods to measure the effectiveness and usability of such interaction techniques as well as discusses different types of grasping feedback that support the user during interaction. Realistic and reliable interaction is reached through the combination of robust grasping heuristics and plausible pseudophysical object reactions. The easy-to-compute grasping rules use the objects’ surface normals, and mimic human grasping behavior. The novel concept of Normal Proxies increases grasping stability and diminishes challenges induced by adverse normals. The intricate act of picking-up thin and tiny objects remains challenging for some users. These cases are further supported by the consideration of finger pinches, which are measured with a specialized finger tracking device. With regard to typical object constraints, realistic object motion is geometrically calculated as a plausible reaction on user input. The resulting direct finger-based
interaction technique enables realistic and intuitive manipulation of arbitrary objects. The thesis proposes two methods that prove and compare effectiveness and usability. An expert review indicates that experienced users quickly familiarize themselves with the technique. A quantitative and qualitative user study shows that direct finger-based interaction is preferred over indirect interaction in the context of functional car assessments. While controller-based interaction is more robust, the direct finger-based interaction provides greater realism, and becomes nearly as reliable when the pinch-sensitive mechanism is used. At present, the haptic channel is not used in industrial virtual reality applications. That is why it can be used for grasping feedback which improves the users’ understanding of the grasping situation. This thesis realizes a novel pressure-based tactile feedback at the fingertips. As an alternative, vibro-tactile feedback at the same location is realized as well as visual feedback by the coloring of grasp-involved finger segments. The feedback approaches are also compared within the user study, which reveals that grasping feedback is a requirement to judge grasp status and that tactile feedback improves interaction independent of the used display system. The considerably stronger vibrational tactile feedback can quickly become annoying during interaction. The interaction improvements and hardware enhancements make it possible to interact with virtual objects in a realistic and reliable manner. By addressing realism and reliability, this thesis paves the way for the virtual evaluation of human-object interaction, which is necessary for a broader application of virtual environments in the automotive industry and other domains.
Interactive scientific visualizations are widely used for the visual exploration and examination of physical data resulting from measurements or simulations. Driven by technical advancements of data acquisition and simulation technologies, especially in the geo-scientific domain, large amounts of highly detailed subsurface data are generated. The oil and gas industry is particularly pushing such developments as hydrocarbon reservoirs are increasingly difficult to discover and exploit. Suitable visualization techniques are vital for the discovery of the reservoirs as well as their development and production. However, the ever-growing scale and complexity of geo-scientific data sets result in an expanding disparity between the size of the data and the capabilities of current computer systems with regard to limited memory and computing resources.
In this thesis we present a unified out-of-core data-virtualization system supporting geo-scientific data sets consisting of multiple large seismic volumes and height-field surfaces, wherein each data set may exceed the size of the graphics memory or possibly even the main memory. Current data sets fall within the range of hundreds of gigabytes up to terabytes in size. Through the mutual utilization of memory and bandwidth resources by multiple data sets, our data-management system is able to share and balance limited system resources among different data sets. We employ multi-resolution methods based on hierarchical octree and quadtree data structures to generate level-of-detail working sets of the data stored in main memory and graphics memory for rendering. The working set generation in our system is based on a common feedback mechanism with inherent support for translucent geometric and volumetric data sets. This feedback mechanism collects information about required levels of detail during the rendering process and is capable of directly resolving data visibility without the application of any costly occlusion culling approaches. A central goal of the proposed out-of-core data management system is an effective virtualization of large data sets. Through an abstraction of the level-of-detail working sets, our system allows developers to work with extremely large data sets independent of their complex internal data representations and physical memory layouts.
Based on this out-of-core data virtualization infrastructure, we present distinct rendering approaches for specific visualization problems of large geo-scientific data sets. We demonstrate the application of our data virtualization system and show how multi-resolution data can be treated exactly the same way as regular data sets during the rendering process. An efficient volume ray casting system is presented for the rendering of multiple arbitrarily overlapping multi-resolution volume data sets. Binary space-partitioning volume decomposition of the bounding boxes of the cube-shaped volumes is used to identify the overlapping and non-overlapping volume regions in order to optimize the rendering process. We further propose a ray casting-based rendering system for the visualization of geological subsurface models consisting of multiple very detailed height fields. The rendering of an entire stack of height-field surfaces is accomplished in a single rendering pass using a two-level acceleration structure, which combines a minimum-maximum quadtree for empty-space skipping and sorted lists of depth intervals to restrict ray intersection searches to relevant height fields and depth ranges. Ultimately, we present a unified rendering system for the visualization of entire geological models consisting of highly detailed stacked horizon surfaces and massive volume data. We demonstrate a single-pass ray casting approach facilitating correct visual interaction between distinct translucent model components, while increasing the rendering efficiency by reducing processing overhead of potentially invisible parts of the model. The combination of image-order rendering approaches and the level-of-detail feedback mechanism used by our out-of-core data-management system inherently accounts for occlusions of different data types without the application of costly culling techniques.
The unified out-of-core data-management and virtualization infrastructure considerably facilitates the implementation of complex visualization systems. We demonstrate its applicability for the visualization of large geo-scientific data sets using output-sensitive rendering techniques. As a result, the magnitude and multitude of data sets that can be interactively visualized is significantly increased compared to existing approaches.
This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher
based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of
hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier.
We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable.
Web applications that are based on user-generated content are often criticized for containing low-quality information; a popular example is the online encyclopedia Wikipedia. The major points of criticism pertain to the accuracy, neutrality, and reliability of information. The identification of low-quality information is an important task since for a huge number of people around the world it has become a habit to first visit Wikipedia in case of an information need. Existing research on quality assessment in Wikipedia either investigates only small samples of articles, or else deals with the classification of content into high-quality or low-quality. This thesis goes further, it targets the investigation of quality flaws, thus providing specific indications of the respects in which low-quality content needs improvement. The original contributions of this thesis, which relate to the fields of user-generated content analysis, data mining, and machine learning, can be summarized as follows:
(1) We propose the investigation of quality flaws in Wikipedia based on user-defined cleanup tags. Cleanup tags are commonly used in the Wikipedia community to tag content that has some shortcomings. Our approach is based on the hypothesis that each cleanup tag defines a particular quality flaw.
(2) We provide the first comprehensive breakdown of Wikipedia's quality flaw structure. We present a flaw organization schema, and we conduct an extensive exploratory data analysis which reveals (a) the flaws that actually exist, (b) the distribution of flaws in Wikipedia, and, (c) the extent of flawed content.
(3) We present the first breakdown of Wikipedia's quality flaw evolution. We consider the entire history of the English Wikipedia from 2001 to 2012, which comprises more than 508 million page revisions, summing up to 7.9 TB. Our analysis reveals (a) how the incidence and the extent of flaws have evolved, and, (b) how the handling and the perception of flaws have changed over time.
(4) We are the first who operationalize an algorithmic prediction of quality flaws in Wikipedia. We cast quality flaw prediction as a one-class classification problem, develop a tailored quality flaw model, and employ a dedicated one-class machine learning approach. A comprehensive evaluation based on human-labeled Wikipedia articles underlines the practical applicability of our approach.
Text classification deals with discovering knowledge in texts and is used for extracting, filtering, or retrieving information in streams and collections. The discovery of knowledge is operationalized by modeling text classification tasks, which is mainly a human-driven engineering process. The outcome of this process, a text classification model, is used to inductively learn a text classification solution from a priori classified examples. The building blocks of modeling text classification tasks cover four aspects: (1) the way examples are represented, (2) the way examples are selected, (3) the way classifiers learn from examples, and (4) the way models are selected.
This thesis proposes methods that improve the prediction quality of text classification solutions for unseen examples, especially for non-standard tasks where standard models do not fit. The original contributions are related to the aforementioned building blocks: (1) Several topic-orthogonal text representations are studied in the context of non-standard tasks and a new representation, namely co-stems, is introduced. (2) A new active learning strategy that goes beyond standard sampling is examined. (3) A new one-class ensemble for improving the effectiveness of one-class classification is proposed. (4) A new model selection framework to cope with subclass distribution shifts that occur in dynamic environments is introduced.
The present thesis studies the effects of rice husk ash (RHA) as a pozzolanic admixture and the combination of RHA and ground granulated blast-furnace slag (GGBS) on properties of ultra-high performance concrete (UHPC). The ultimate purpose of this study is to replace completely silica fume (SF) and partially Portland cement by RHA and GGBS to achieve sustainable UHPC. To reach this aim, characteristics of RHA in dependence of grinding period, especially its pozzolanic reactivity in saturated Ca(OH)2 solution and in a cementitious system at a very low water binder ration (w/b) were assessed. The influences of RHA on compatibility between superplasticizer and binder, workability, compressive strength, shrinkage, internal relative humidity, microstructure and durability of UHPC were also evaluated. Furthermore, synergic effects of RHA and GGBS on the properties of UHPC were investigated to produce more sustainable UHPC. Finally, various heat treatments were applied to study the properties of UHPC under these conditions. All the characteristics of these UHPCs containing RHA were compared to those of mixtures containing SF.
Der Film BERLIN – DIE SINFONIE DER GROSSTADT (1927, Walter Ruttman) gilt bis heute als der Sinfonische Dokumentarfilm schlechthin. Er präsentiert nicht nur die Traditionslinien, die ihre Wurzeln in der neuen Sachlichkeit und den ersten Dokumentarfilmtheorien fanden, sondern auch die künstlerische und filmische Vorstellung von Ruttmann. Um den höchsten Grad an Objektivität in der Realitätsdarstellung zu erreichen, hat dieser Film einerseits treu alle theoretischen und ästhetischen Gedanken der neusachlichen Kunst zum ersten Mal filmisch in einem DOKUMENTARFILM dargestellt. Noch dazu drückt der Berlin-Film seinen kulturellen Beitrag mit ausschliesslich filmischen Mitteln aus, also mit rein visuellen Mitteln, oder anders gesagt mit FILMSPRACHE.
Im Gegensatz zur ersten Ankündigung des Films und der Filmliteratur, die den Film als Dokumentarfilm ansehen, ist er in Wirklichkeit einer der ersten innovativen Musikfilme in seinem historischen Kontext, welcher mit der Montage von Wirklichkeitsabbilden autonome Musik zu interpretieren versucht. Seine sachlichen, dokumentarischen Reportage-Bilder ordnen sich der abstrakten Struktur und dem Taktmaß der Musik unter. Als Folge entsteht laut Ruttmann eine VISUELLE SINFONIE, die eigentlich vielmehr eine Vision von Berlin darstellte, als zukünftige industrielle Musterstadt. Mit anderen Worten ist Berlin in diesem Film eine realistische Illusion, aber keineswegs ein reales Bild. Er bildet ein neues Filmgenre, den KUNSTDOKUMENTARFILM, das den Grundprinzipien des Dokumentarfilms nicht folgt.
Dies unterscheidet ihn aber auch von den KÜNSTLERISCHEN DOKUMENTARFILMEN, die einerseits dem Film BERLIN – DIE SINFONIE DER GROSSTADT zwar formalstilistisch und ästhetisch ähneln. Aber im Gegensatz zu ihm erfüllen diese die elementaren Voraussetzungen für einen Dokumentarfilm. Beispiele dafür sind: DER MANN MIT DER KAMERA (1929, Dsiga Vertov), KOYAANISQATSI (1982,Godfry Reggio) und das Remake BERLIN, SINFONIE EINER GROßSTADT (2002, Thomas Schadt).
BERLIN – DIE SINFONIE DER GROSSTADT von Walter Ruttmann stellt nicht nur ein neues Filmgenre dar, er ist auch eine singuläre Erscheinung in der Filmgeschichte. In diesem Sinne spielte er, laut dem Filmkritiker Helmut Korte, eine entscheidende Rolle in der Weiterentwicklung des absoluten Films „als Musterbeispiel für die Möglichkeiten des künstlerisch-dokumentarischen Films“ (Korte 1991: 76).
The aim of this doctoral thesis was to investigate whether the German term “shrinking city” is appropriate to depopulating Polish cities. In order to do so an attempt to define the currently still vague notion of “shrinking city” was made. The urban development of Eastern Germany was thoroughly examined both in a short term perspective and in a wide historical as well as international context, with the Polish urban development used as reference. 25 cities (kreisfreie Städte) in Eastern Germany and depopulating Polish cities: Łódź and the Metropolis Silesia were chosen as case studies.
On the basis of the gathered information a “shrinking city” in Eastern Germany was defined as a city with a long-lasting population decrease coupled with over-dimensioned, growth-oriented development policies carried out for decades. Such a development path is triggering negative consequences in the spatial, economic and also demographic dimension, which tend to intensify each other.
The thesis postulates that the definition of the “shrinking city in Eastern Germany” is not appropriate to depopulating cities in Poland. Polish cities are characterized by a short-lasting population decrease and this trend is not triggering negative spatial and economic consequences. Oversized growth development policies were never present in the cities and they still suffer from great deficiencies in housing and other basic infrastructure, which derive from the socialist period. Furthermore, radical de-economization, known from Eastern German cities, did not occur in the Polish cities. Both Łódź and the Metropolis Silesia remain main production centers of the country.
This doctoral thesis presents a contradictory view to contemporary publications on “shrinking cities”, in which this phenomenon is regarded as having occurred suddenly after the collapse of the socialism. It proved that “shrinking cities” in Eastern Germany are not the outcome of short-lasting processes, but are deeply rooted in the past. Moreover, they represent a very distinct development pattern that highly differentiates from the one found in Central Eastern Europe and the one in Western Europe. In this way the doctoral thesis provided a new, critical approach to the discourse on “shrinking cities” in Germany. It also draws attention to the importance of the historical analysis in cities’ development research, particularly in cross border studies. In time of European integration peculiarities resulting from centuries of different spatial, economic and social development paths should not be underestimated.
Post Conflict Reconstruction is a very complex topic, whether it is to be undertaken by the Local or the International Community. The process of the Post Conflict Development is to be very hard to investigate, primarily for the combination of socio-cultural phenomena, war and political instability; having difficulties of conducting solid empirical analysis (obtaining reliable data) and dealing with war-torn communities. The multifaceted process of the reconstruction is ought to touch a lot of countries vital segments, whereas each of them requires different approach; coordination with one another; and unification in their common aim.
The emergency of the assistance programs are not equal, same as with the priority and weight when compared with each other, therefore occasionally there are programs for the success of which the other less important actions are violated or neglected.
The case is with the International Community presence ( the set up), which aside from their mission and projects, it is considered to play a very important role on the urban development of a post conflict city; the setting was never planned or considered in a holistic manner, therefore IC establishment was done ad hoc and it was guided by issues which did not help at its greatest to the urban development of the city and more over to the citizens who were most in need.
The study is about the Urban Development, due to the fact that the biggest concentration of the International Community is likely to be in the urban centers, and the experienced changes are of a much considerable magnitude. The reconstruction phase is likely to be lasting at about 10 years and more , consequently the International Community for that time being tends to be recognized as temporary citizens of the city, and it is inevitably that they will be having an impact on the urban development of the city; in that basis it is considered to be significant that the International Community Establishment/Set Up be included into the International Organizations mission and assist in the overall mission of the reconstruction.
Environmental and operational variables and their impact on structural responses have been acknowledged as one of the most important challenges for the application of the ambient vibration-based damage identification in structures. The damage detection procedures may yield poor results, if the impacts of loading and environmental conditions of the structures are not considered.
The reference-surface-based method, which is proposed in this thesis, is addressed to overcome this problem. In the proposed method, meta-models are used to take into account significant effects of the environmental and operational variables. The usage of the approximation models, allows the proposed method to simply handle multiple non-damaged variable effects simultaneously, which for other methods seems to be very complex. The input of the meta-model are the multiple non-damaged variables while the output is a damage indicator.
The reference-surface-based method diminishes the effect of the non-damaged variables to the vibration based damage detection results. Hence, the structure condition that is assessed by using ambient vibration data at any time would be more reliable. Immediate reliable information regarding the structure condition is required to quickly respond to the event, by means to take necessary actions concerning the future use or further investigation of the structures, for instance shortly after extreme events such as earthquakes.
The critical part of the proposed damage detection method is the learning phase, where the meta-models are trained by using input-output relation of observation data. Significant problems that may encounter during the learning phase are outlined and some remedies to overcome the problems are suggested.
The proposed damage identification method is applied to numerical and experimental models. In addition to the natural frequencies, wavelet energy and stochastic subspace damage indicators are used.
In this research work, an energy approach is employed for assessing quality in dynamic soil-structure interaction (SSI) models, and energy measures are introduced and investigated as general indicators of structural response.
Dynamic SSI models with various abstraction levels are then investigated according to different coupling scenarios for soil and structure models.
The hypothesis of increasing model uncertainty with decreasing complexity is investigated and a mathematical framework is provided for the treatment of model uncertainty. This framework is applied to a case study involving alternative models for incorporating dynamic SSI effects. In the evaluation process, energy measures are used within the framework of the \textit{adjustment factor} approach in order to quantitatively assess the uncertainty associated with SSI models. Two primary types of uncertainty are considered, namely the uncertainty in the model framework and the uncertainty in the model input parameters.
Investigations on model framework uncertainty show that the more complex three-dimensional FE model has the best quality of the models investigated, whereas the Wolf SSI model produces the lowest model uncertainty of the simpler models. The fixed-base model produces the highest estimated uncertainty and accordingly the worst quality of all models investigated.
These results confirm the hypothesis of increasing model uncertainty with decreasing complexity only when the assessment is based on the ratio of structural hysteretic energy to input energy as a response indicator.
Einleitung:
Die Kunst und der Kunstbetrieb haben sich in den letzten Jahrzehnten stark verändert und werden sich aller Voraussicht nach in Zukunft noch weit rascher und durchgreifender ändern. In meiner Dissertation geht es um eine Analyse des Jetzt-Zustandes des Kunstbetriebs und um die Konsequenzen die daraus für die zu erwartende Entwicklung zu ziehen sind, insbesondere bezüglich der Ausbildung von Künstlern an Kunsthochschulen. Dort sollten meines Erachtens die beruflichen Aspekte des künstlerischen Feldes (in und außerhalb der Akademie) verstärkt erläutert und vermittelt werden.
Der Fokus der Arbeit liegt auf den folgenden 4 Aspekten: Der Künstler, die Arbeitswelt, die Ausbildung und das Netz und die Vernetzung und ihren Zusammenhängen.
Diese Feststellungen basieren auf meinen Recherchen zu den vier Hauptthemen im Rahmen meiner Arbeit in der Lehre und der eigenen künstlerischen Praxis der letzten Jahre und spiegeln diese wider und sollen gleichzeitig als Beispiel für ihre Anwendung dienen und bieten einen Überblick in deren Ausführung in der Praxis.
Hinweis
Die hier vorliegende Dateien (in 5 Teilen) sind die digitale Veröffentlichung meiner Dissertation im Rahmen der Promotion im Studiengang "Kunst und Design" an der Bauhaus-Universität Weimar.
Diese Publikation ist open source und wird in einem offenen und kollaborativen Prozess weiterentwickelt werden. Die jeweils aktuelle Version wird hier zu finden sein: http://phd.nts.is Dort befinden sich auch weitere Formate zum Download, ebenso wie der vollständige (markdown-formatierte) Quelltext.
(Aus urheber- und lizenzrechtlichen Gründen sind in dieser Version der Bildtafeln einige Bilder ausgelassen. Die gedruckte Ausgabe enthält alle Bildtafeln, diese liegt in der Bibliothek der Bauhaus-Universität aus.)
Teile:
- Thesenpapier
- PhD Dissertation
- Bildtafeln
- Der 5-Jahres-Plan
- KIOSK09-Katalog
Resumen
La pregunta de investigación que guía el trabajo es: ¿cuál es la lógica de reproducción urbana de una ciudad intermedia en el contexto de los territorios possocialista? y ¿por qué referimos a esa lógica en términos de desarrollo urbano posfordista? Lo que se demuestra con esta investigación es cómo la forma particular de entrecruzamiento de territorialidades - estrategias espacializadas de los agentes - y las sinergias que de ellas se derivan con sus respectivas expresiones en el espacio, caracterizan el desarrollo urbano de Weimar.
El objetivo general del trabajo es interpretar el tipo de desarrollo urbano posfordista alcanzado por esta ciudad intermedia, que se configura en relación a su hinterland inmediato como una ciudad-región en una región de ciudades. Los objetivos específicos son: contextualizar geohistóricamente la ciudad-región Weimar, analizar los factores que posibilitan y condicionan el desarrollo urbano, identificar la constelación de agentes sociales que participan en el proceso de governance de la ciudad considerando sus estrategias, e indagar sobre las sinergias territoriales a partir del cruce y convergencia de esas estrategias convertidas en territorialidades.
En el trabajo se aplico una lógica metodológica cualitativa de investigación basada en: relevamiento bibliográfico, lectura de periódicos locales y regionales, observaciones in situ, captación de atmósfera, entrevistas complementadas con estadísticas oficiales y recolección de folletos informativos.
Uno de los principales aportes del trabajo es la definición del concepto de desarrollo urbano posfordista como una modalidad de reproducción urbana en el contexto de relaciones capitalistas de producción caracterizadas por producción flexible, terciarización de servicios públicos, creación de nuevos niveles territoriales de regulación, flexibilización de los mercados de trabajo urbano y precarización de las condiciones de vida. En las últimas décadas se asiste a cambios profundos en las ciudades. Así, es posible hablar de ciudades en transición que ensayan diversidad de modalidades ante los desafíos que implican estos cambios. En efecto, en muchos espacios urbanos comenzaron a suceder procesos de rápida desindustrialización y/o reindustrialización, con lo cual las ciudades han perdido parcialmente su base económica o han debido reestructurarse como un lugar vinculado a la economía de servicios. Incluso en aquellas ciudades que mantuvieron industrias de producción masiva, propias de las llamadas economía fordista, como por ejemplo la industria automotriz, requirieron importantes cambios en sus planificaciones espaciales. De este modo, los cambios en las modalidades de producción y sus impactos socioterritoriales en el contexto de la glocalización permiten observar el paso de una sociedad fordista a una posfordista.
A more careful consideration of food waste is needed for planning the urban environment. The research signals links between the organization of individuals, the built environment and food waste management through a study conducted in Mexico. It recognizes the different scales within which solid waste management operates, explores food waste production at household levels, and investigates the urban circumstances that influence its management. This is based on the idea that sustainable food waste management in cities requires a constellation of processes through which a ‘people centered’ approach offers added value to technical and biological facts. This distinction addresses how urban systems react to waste and what behavioral and structural factors affect current sanitary practices in Mexico. Food waste is a resource-demanding item, which makes for a considerable amount of refuse being disposed of in landfills in developing cities. The existing data shortage on waste generation at household levels debilitates implementation strategies and there is a need for more contextual knowledge associated with waste. The evidence-based study includes an explorative phase on the culture of waste management and a more in-depth examination of domestic waste composition. Mixed data collection tools including a household based survey, a food waste diary and weighing recording system were developed to enquire into the daily practices of waste disposal in households. The contrasting urban environment of Mexico City Metropolitan Area holds indistinctive boundaries between the core and the periphery, which hinder the implementation of integrated environmental plans. External determinants are different modes of urban transformation and internal determinants are building features and their consolidation processes. At the household level, less and more affluents groups responded differently to external environmental stressors. A targeted planning proposition is required for each group. Local alternative waste management is more likely to be implement in less affluent contexts. Further, more effective demand-driven service delivery implies better integration between the formal and informal sectors. The results show that efforts toward securing long-term changes in Mexico and other cities with similar circumstances require creating synergy between education, building consolidation, local infrastructure and social engagement.
Alkali-silica reaction causes major problems in concrete structures due to the rapidity of its deformation which leads to the serviceability limit of the structure being reached well before its time. Factors that affect ASR vary greatly, including alkali and silica content, relative humidity, temperature and porosity of the cementitious matrix,all these making it a very complex phenomenon to consider explicitly. With this in mind, the finite element technique was used to build models and generate expansive pressures and damage propagation due to ASR under the influence of thermo-hygrochemoelastic loading. Since ASR initializes in the mesoscopic regions of the concrete,
the accumulative effects of its expansion escalates onto the macroscale level with the development of web cracking on the concrete surface, hence solution of the damage model as well as simulation of the ASR phenomenon at both the macroscale and mesoscale levels have been performed. The macroscale model realizes the effects of ASR expansion as a whole and shows how it develops under the influence of moisture, thermal and mechanical loading. Results of the macroscale modeling are
smeared throughout the structure and are sufficient to show how damage due to ASR expansion orientates. As opposed to the mesoscale model, the heterogeneity of the model shows us how difference in material properties between aggregates and the cementitious matrix facilitates ASR expansion. With both these models, the ASR phenomenon under influence of thermo-chemo-hygro-mechanical loading can be better understood.
Die Arbeit fokussiert die Rolle des Abjekten in der zeitgenössischen Kunst und hier insbesondere die Rolle der Künstler aus den wohlhabenden – sogenannten postindustriellen – Ländern. Die Arbeit mit abjekten Themen in der Kunstproduktion ist sehr präsent, jedoch aus einer anderen, eher individualistischen Perspektive. Die wichtigsten Orte der Kunst (Galerien, Museen, Kulturzentren) sind Räume der Legitimation dieser Art von Produktion, dabei wird das Potential der Provokation hinterfragt. Die klassische Avantgarde, besonders der Dadaismus, hat das Abjekte zu Beginn des 20. Jahrhunderts als künstlerisches Material genutzt. Das Spiel mit Grenzüberschreitungen durch die Darstellung des Verbotenen und Ekelerregenden machte das Abjekte zur produktiven Kraft auch auf sozialer Ebene, weil es als Mittel dem gesellschaftlichen Protest und der sozialen Kritik diente.
Ausgangspunkt der Arbeit ist der Aspekt des Unheimlichen in jener Hochhausstadt, deren Entwurf Ludwig Hilberseimer 1924 zum ersten Mal publizierte und die später zum Synonym für die Aberrationen modernistischen Städtebaus wurde. Daraus geht die Forschungsfrage hervor, wie der Eindruck des Unheimlichen evoziert wird und an welchen Elementen des Entwurfs und/oder der Darstellung dieser festgemacht werden kann. Hier geht es nicht um eine Analyse der Intentionen des Autors der Hochhausstadt, der diese ja als Verbesserung zu den herrschenden Wohnverhältnissen anpries; stattdessen wird eine Reihe von unterschiedlichen interpretatorischen Ansätzen gewählt (von Nelson Goodmans Theorie der Notation über Norman Brysons visuelles Zeichensystem bis hin zu Adornos Negativer Dialektik; von der „Bildwissenschaft“ bis hin zur „visual theory“). In diesem Zusammenhang werden schließlich auch jene Divergenzen herausgearbeitet, die zwischen der Architektur der Moderne und der Kunst der Avantgarde herrschten. Da aufgrund der Frage nach der Bildwirkung der beiden Perspektiven der Hochhausstadt die Ästhetik des Erhabenen eine besondere Rolle spielt, reicht der Fokus der Arbeit bis in den kunst- und architekturtheoretischen Diskurs des 18. Jahrhundert zurück. Zuletzt mündet die Arbeit in eine Diskussion von Interpretation selbst und der Möglichkeit einer kritischen Architekturtheorie.
Development of a Sustainability-based Sanitation Planning Tool (SusTA) for Developing Countries
(2014)
Background and Research Goal
Despite all the efforts in the sanitation sector, it is acknowledged that the world is not on track to meet the MDG sanitation target to reduce the number of people without access to sanitation by 2015. Furthermore, a large number of existing sanitation facilities in developing countries is out of order. This leads to the conclusion that, besides technical failures, the planning process in the sanitation sector was ineffective. This ineffectiveness may be attributed to the lack of knowledge of the sanitation planners about the local conditions of the sanitation project. In addition, sustainability of a technology is often approached from a fragmented perspective that often leads to an unsustainable solution.
The dissertation is conducted within the framework of the Integrated Water Resources Management (IWRM) Indonesia project. The goal of this work is to contribute to the development of a methodology of a planning tool for sustainable sanitation technology. The tool is designed for sanitation planners in developing countries, where a top-down planning approach is common practice. The proposed tool enables comprehensive sustainability assessments (using the Helmholtz Concept of Sustainability as reference), taking into account local conditions.
State of the Science
In the planning practice, many sanitation planning tools focus on technology selection. However, it has become evident that the selection criteria for sustainable technologies are not always considered in the tools’ framework. In other cases, when the criteria are provided by the tool, there is no clear indication of the conditions to be fulfilled in order to meet these criteria. Specifically, there is no reference to what is meant by sustainable technology in a particular context and how to comprehensively assess the sustainability of different technology options.
Research Methodology
Developing a planning tool is an empirical process, combining theory and practical experience. Hence, the development process of such a tool requires extensive observations, particularly on the interaction between stakeholders in the sanitation sector as well as between technology and its environment. For this purpose, a case study within the project area was carried out. Pucanganom, a village representing common strategic problems in developing countries (e.g. top-down planning approaches, lack of involvement of beneficiaries in the planning process, lack of sustainability assessments) was finally selected as the case study area. After the in-depth case study, an analytical generalisation was developed to enable the tool’s application to a broader context.
Results
The result of this research is a new tool – the Sustainability-based Sanitation Planning Tool (SusTA). SusTA enables comprehensive sustainability assessment in its five generic steps, namely: (1) analysis of stakeholders and sanitation policy in the region, (2) distance-to-target analysis on sanitation conditions in the region, (3) examination of physical and socio-economic conditions in the project area, (4) contextualisation of the technology assessment process in the project area, and (5) sustainability-oriented technology assessment at the project level. These steps are conducted at two levels of planning – the region and the project area – in order to identify the specific problems and interests which influence the selection of a sanitation system. Each planning step is equipped with tool elements (e.g. set of indicators, household questionnaires, technology assessment matrices) to support the analysis.
From the development of SusTA, it can be concluded that four elements are required for an effective and widely applicable sanitation planning tool: sustainability concept, participatory approach, contextualisation framework and modification framework. SusTA provides both a theoretical and a practical basis for assessing the sustainability of sanitation technologies in developing countries. The tool’s main advantages for decision makers in these countries are: It is simple and transparent in its steps, does not require vast amounts of data and does not need a sophisticated computer program.
Exploratory Research into Transformation Processes of Former Industrial Complexes of Leipziger Baumwollspinnerei (Leipzig) and Mattatoio di Testaccio (Rome); New Meanings of Industrial Heritage
Physical manifestations of the Industrial Revolution left a permanent imprint on the complexion of cities. Abandonment that followed the deindustrialization contributed to an estrangement, turning derelict industrial spaces and run‐down factories into a ballast to conjure with. At present, industrial heritage management applies flexibility and creativity, partially overcoming the essentially traditional paradigm of heritage preservation. This approach permits sustainable conservation – utilization and integration of disused industrial constructs in the contemporary urban landscape. Being a part of the European cultural stock, industrial heritage is an exciting and unique setting from many perspectives. It is defined and consumed by many markets, ranging from the industrial heritage tourism to the market of special events and festivals. Reused industrial buildings and factories come into view as products of post‐industrial societies, fitting to the Western post‐industrial (consumer) culture, offering a field of activities that are at an interface between the industrial history and contemporary socio‐cultural milieu.
Alteration of values, growth of new roles and definitions of industrial heritage, generated by functional restructuring, is a subject which is often left behind the general discussion about sustainable conservation and adaptive reuse of industrial heritage. Yet, in the modified state, industrial heritage is very complex to understand and to define.
By conducting a desk and a case study research of former industrial complexes – Leipziger Baumwollspinnerei and Mattatoio di Testaccio, this doctoral thesis aims to identify industrial heritage as a contemporary (post‐industrial) concept. Observation of ideas, values and definitions that emerge as a consequence of the transformation and re‐conceptualization of industrial heritage are intended to raise awareness and appreciation of industrial heritage in the full richness of its contemporary interpretation.
Die Dissertation Staubaufwirbeln oder die Kunst der Partizipation stellt die Frage, ob und inwiefern künstlerische Interventionen zur Aktualisierung und Entwicklung demokratischer Teilhabe beitragen können. Im Zentrum der Untersuchung stehen sechs Projektgruppen, die experimentelle Freiräume gestalten, in denen neue Formen von Demokratielernen, Stadtnutzung, gesellschaftlicher Repräsentation und Symbolpolitik erprobt werden. Die Kunst der Partizipation wird in fünf Dimensionen beschrieben: Initiative, Kollektivität, Inszenierung, Öffentlichkeit und Kooperation. Sie erweitert damit das Repertoire demokratischer Beteiligungsformen sowie gegenwärtige Kunstbegriffe. Ihre heimliche Relevanz besteht darin, sich immer wieder dem Risiko auszusetzen, von allen Seiten als unzureichend betrachtet zu werden. Demokratie konstituiert sich hier als ästhetische Erfahrung. Die Kunst besteht darin, die Flüchtigkeit demokratischer Teilhabe erfahrbar zu machen, also gestaltbar und veränderbar.
Rapid urbanisation that is not accompanied by socio-economic development strains the capacity of local and national governments to provide even basic services such as shelter. Informal settlements i.e. settlements not built or developed according to the formal regulations have become a solution to many urban dwellers in developing countries. In Tanzania informal settlements accommodate people from low, middle and high income groups. The study explores the nature of potentials and challenges posed by the existence of mixed socio-economic groups in informal settlements, including an assessment of what can be done to optimise utilisation of potentials and mitigation of conflicts. Using a case study strategy, the study was conducted in Dar es Salaam city focusing on Makongo mixed informal settlement.
The results show that mixed informal settlements are as a result of several factors including uncoordinated energies of people. The urban development forces that bring change in the development of the city are stronger than the public states capacity to coordinate and manage them. Informal settlements also offer user-friendly land tenure, flexibility in house construction and proximity to livelihoods. Other factors include the nature of socio-economic living patterns and extension of urban boundaries. Community members operate using social norms. Advantages of mixed informal settlements include availability of plots according to needs and affordability while a disadvantage is, people of different socio-economic groups perceive problems differently.
For policies to be effective, their formulation should be derived from what is happening on the ground i.e. addressing informal settlements according to their heterogeneity. Moreover, empowered local authorities can assist in implementing national development plans; also actors in land development including government institutions, non-governmental institutions, financial institutions, private sector, professionals, political leaders, research institutions, policy-makers and training institutions need to recognise, understand and respect each other’s roles, and pull resources together to minimise problems related to informality in land development; utilise potentials and minimise challenges in mixed informal settlements in Dar es Salaam.
Key words: Informal settlements, land development, urbanisation
The increasing success of BIM (Building Information Model) and the emergence of its implementation in 3D construction models have paved a way for improving scheduling process. The recent research on application of BIM in scheduling has focused on quantity take-off, duration estimation for individual trades, schedule visualization, and clash detection.
Several experiments indicated that the lack of detailed planning causes about 30% non-productive time and stacking of trades. However, detailed planning still has not been implemented in practice despite receiving a lot of interest from researchers. The reason is associated with the huge amount and complexity of input data. In order to create a detailed planning, it is time consuming to manually decompose activities, collect and calculate the detailed information in relevant. Moreover, the coordination of detailed activities requires much effort for dealing with their complex constraints.
This dissertation aims to support the generation of detailed schedules from a rough schedule. It proposes a model for automated detailing of 4D schedules by integrating BIM, simulation and Pareto-based optimization.
Structural vibration control of high-speed railway bridges using tuned mass dampers, semi-active tuned mass dampers, fluid viscous dampers and magnetorheological dampers to reduce resonant structural vibrations is studied. In this work, the addressed main issues include modeling of the dynamic interaction of the structures, optimization of the parameters of the dampers and comparison of their efficiency.
A new approach to optimize multiple tuned mass damper systems on an uncertain model is proposed based on the H-infinity optimization criteria and the DK iteration procedure with norm-bounded uncertainties in frequency domain. The parameters of tuned mass dampers are optimized directly and simultaneously on different modes contributing significantly to the multi-resonant peaks to explore the different possible combinations of parameters. The effectiveness of the present method is also evaluated through comparison with a previous method.
In the case of semi-active tuned mass dampers, an optimization algorithm is derived to control the magnetorheological damper in these semi-active damping systems. The use of the proposed algorithm can generate various combinations of control gains and state variables. This can lead to the improvement of the ability of MR dampers to track the desired control forces. An uncertain model to reduce detuning effects is also considered in this work.
Next, for fluid viscous dampers, in order to tune the optimal parameters of fluid viscous dampers to the vicinity of the exact values, analytical formulae which can include structural damping are developed based on the perturbation method. The proposed formulae can also be considered as an improvement of the previous analytical formulae, especially for bridge beams with large structural damping.
Finally, a new combination of magnetorheological dampers and a double-beam system to improve the performance of the primary structure vibration is proposed. An algorithm to control magnetorheological dampers in this system is developed by using standard linear matrix inequality techniques. Weight functions as a loop shaping procedure are also introduced in the feedback controllers to improve the tracking ability of magnetorheological damping forces. To this end, the effectiveness of magnetorheological dampers controlled by the proposed scheme, along with the effects of the uncertain and time-delay parameters on the models, are evaluated through numerical simulations.
Additionally, a comparison of the dampers based on their performance is also considered in this work.