Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Die Bau-Ausstellung zu Beginn des 20. Jahrhunderts oder „Die Schwierigkeit zu wohnen“, so lautet der Titel der Arbeit und legt damit ihren Fokus offen. Sie betrachtet ein um 1900 aufkommendes Ausstellungsphänomen in seinen ersten Dekaden; in einer Zeit, in der das Wohnen problematisiert wurde.
Der Praxis des Wohnens ist Anfang des 20. Jahrhunderts seine Selbstverständlichkeit abgesprochen worden. Die Bau-Ausstellung wird als ein Symptom dieses Verlusts interpretiert und zugleich als Versuch, ihm entgegenzuwirken. Statt sie innerdisziplinär als eine architekturgeschichtliche Episode der Moderne rein positivistisch zu beschreiben, legt die vorliegende Arbeit im Typus der Bau-Ausstellung eine weit reichende Problematik frei, die kulturphilosophische ebenso wie medientheoretische Dimensionen hat: Inwieweit lässt sich das Wohnen überhaupt ausstellen? Wie kann man eine alltägliche Praxis, die kaum eine Definition erlaubt, zeigen? Den Umgang mit dieser Aporie untersucht die Arbeit.
Promotion an der Bauhaus-Universität Weimar (Dr. phil.) und zugleich PhD an der University of British Columbia Vancouver.
2015 auf dem Server der University of British Columbia mit Embargo veröffentlicht. Das Embargo wird immer wieder verlängert. Aktuell:
This item is embargoed until 2026-06-30, you need to request access to be able to view the item's media before that date.
Die Dissertation über „Ambiguität im zeitgenössischen Film – Flugversuche“ folgt der Spur einer populären narrativen Tendenz im Kino – nämlich der Mehrdeutigkeit – und zeichnet ihr dramaturgisches Potential, wie ihre ethischen (bzw. mikropolitischen) Implikationen nach. Um typische Muster in der Wahrnehmung mehrdeutiger Filmerzählungen zu beschreiben, die bereits auf der vorbewussten Ebene der Affekte wirksam sind, greife ich auf Begriffe der Prozessphilosophie Alfred North Whitehead’s zurück und auf ihre neueren Reformulierungen bei Gilles Deleuze und Brian Massumi. Ausgehend von Alejandro González Iñárritu’s "Babel" (2006) begibt sich der Leser im ersten Teil auf einen virtuellen Rundflug durch ausgewählte Filmbeispiele mit einem kulturellen Ankerpunkt im heutigen Japan. Im zweiten Teil beschreibe und reflektiere ich mein methodisches Vorgehen in den ersten Phasen der Stoffentwicklung zu einem suggestiven Spielfilmprojekt, und kontextualisiere es mit Interviews zeitgenössischer Autorenfilmer, die ähnliche Erzählweisen entwickeln.
Inhaltliche Struktur:
Theoretischer Teil: Um Kulturtechniken des künstlerischen Ausdruckes, und damit den Bezug zwischen Kunst und Medientechnologie zu ergründen, wurde das Verhältnis zwischen dem Betrachter und dem Betrachteten erforscht. Begriffe wie Originalität, Repräsentation, Imitation sowie Aneignung und Rezeption kommen an historischen Beispielen zur Diskussion.
Praktischer Teil: Mit zwei Ausstellungen (Malerei, Installation) wurden verschiedene Modelle des Sehens problematisiert, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur begründen. Außerdem wurden die Unterschiede zwischen Beobachter und Betrachter/Zuschauer in Ausstellungssituationen hinterfragt.
Kurzfassung:
Medientechnologie hat sich selbst zu einer Kunstform entwickelt. Sie kann Künstler dabei unterstützen, ihre Ideen handwerklich umzusetzen (Beispiel: Camera Obscura) und zu reflektieren. Dabei geht es um mehr als um technische Hilfmittel für den künstlerischen Ausdruck. Wird die Beziehung zwischen Betrachter und Betrachtetem als eine Transaktion gesehen, in der beide Begriffe gleichermaßen aufs Spiel gesetzt werden, dann ist es notwendig eine Visualität zu bestimmen, an der der Betrachter (im Sinne von Jonathan Crary) aktiv teilnimmt. Das Sehen darf nicht als absolute Erfahrung verstanden werden, denn einzeln analysiert – ohne Einbeziehung anderer Sinneswahrnehmungen und deren mediale Erweiterungen – führt es zu keinem adäquaten Verständnis davon, wie Bedeutungen produziert werden. Daraus ergibt sich die Forschungsfrage, wie die künstlerische Reaktion auf die im 19. Jahrhundert aufstrebenden Fotografie die Ausdrucksformen beeinflusste und ob sich die gegenseitige Abhängigkeit von Malerei und Fotografie wissenschaftlich-künstlerisch rekonstruieren lässt.
Die theoretische Referenz für diese Forschung bildeten Theorieansätze nicht der Kunstgeschichte, sondern der „Visual Culture Studies“, konkret: Martin Jay („Scopic Regimes of Modernity“), Jonathan Crary („Techniques of the Observer“) und Rosalind Krauss („Originality“).
Dazu wurde die Rezeption der aufkommenden Fotografie in der künstlerischen Produktion beispielhaft untersucht, wobei mit Eugène Delacroix, Gustave Caillebotte sowie dem künstlerischen Dialog zwischen Henri Matisse und Brassai die Problematik herausgearbeitet wurde, mit der sich die bildende Kunst im Lauf jener Jahrzehnte, in denen die Fotografie sich etabliert hat, konfrontiert sah. Sie war eine medientechnische Neuheit mit älteren Wurzeln und diente der Malerei als Hilfsmittel (Camera Obscura) und hat durch ihr technische Potenzial dennoch das Verständnis von Kunst radikal verändert: sie löste das Ideal einer bestimmten Maltechnik ab, die sich mit dem Verbergen des Pinselstriches verband, und bedeutete in diesem gewissen Sinn das „Ende der Kunst“ (nach Paul Delaroche).
Bis in die heutige Kunstproduktion zieht sich die Frage, was nach dem Ende der Perfektionierung von Reproduktion durch ihre Übernahme mittels medientechnischer Apparatur, die nun selbst zum Ausdruck strebt, überhaupt noch ein „Kunstwerk“ ist oder sein kann. Technisch gestützte Formen der Aneignung und Imitation stellen das klassische Wertemodell der meisterlich ausgeführten Repräsentation von Wirklichkeit in Frage, obwohl „Originalität“ angesichts der Flut von Reproduktionen doch immer noch - oder gerade deswegen - eine Wertschätzung erfährt.
Daher wurden dann auch im künstlerischen Teil verschiedene Modelle des Sehens getestet, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur beeinflussen und festlegen. Dabei wurde vor allem auch die Rolle der Beobachter reflektiert - die anders als bei Unterhaltungsmedien - in Kunstkontexten eben keine passiven Zuschauer sind. Was den Künstler, und was den Betrachter von Kunst definiert, lässt sich gleichwohl weder auf ein bestimmte Sinnlichkeit noch eine bestimmte Medientechnologie reduzieren.
Wie schon nach dem Aufkommen der Fotografie werden Künstler weiterhin auf der Suche nach neuen Ausdrucksformen sein, um andere Weltwahrnehmungen und neue, andere Perspektiven menschlicher Existenz zu erlangen. Mediale Technologien haben sie dabei immer schon unterstützt. Aus meiner Untersuchung schließe ich, dass neue Technologien Kunst nicht definitv beeinflussen, wohl aber ihren Entstehungsprozess verändern und beeinflussen können. Die Frage, wie das geschieht und welche Effekte es zeitigt, bedarf einer stets erneuerten Verhandlung.
Daraus folgt die Schlussfolgerung, dass man von Künstlern verlangen kann oder sogar muss, sich vor der Wirklichkeit der Technologie nicht zurückzuziehen, sondern sich medientechnische Kompetenzen anzueignen und sich aktiv am Diskurs um neue Technologien zu beteiligen.
Die Ph.D.-Arbeit Soziales Grafikdesign – eine Frage der Haltung hinterfragt den Einfluss und die Wirkungsmacht, den visuelle Kommunikationsgestaltung auf den Betrachter und im weiteren Sinne auf die Gesellschaft im Ganzen haben können. Aufbauend auf den Erkenntnissen über die Wirkungsmacht wird untersucht, wie eine bewusste und sozial verantwortliche Haltung im Grafikdesign aussehen könnte.
Viele Grafikdesigner sind in der Werbebranche tätig und haben den Auftrag, ganz bewusst manipulativ und wirkungsstark Informationen visuell zu übersetzen, um den Betrachter zu einer Handlungsfolge zu animieren. Die bewusste Reflexion der eigenen Rolle als Designer in diesem Prozess führt immer wieder zu den Fragen nach der Verantwortlichkeit des Gestalters und auch dazu, wie der Gestalter die Potenziale der Kommunikationsgestaltung in anderen Bereichen, wie z. B. in städtischen Problemsituationen, für ein soziales Miteinander einsetzen kann.
In this study, the behavior of a widely graded soil prone to suffusion and necessity of homogeneity quantifi cation for such a soil in internal stability considerations are discussed. With the help of suffusion tests, the dependency of the particle washout to homogeneity of sample is shown. The validity of the great infl uence of homogeneity on suffusion processes by the presentation of arguments and evidences are established. It is emphasized that the internal stability of a widely graded soil cannot be directly correlated to the common geotechnical parameters such as dry density or permeability. The initiation and propagation of the suffusion processes are clearly a particle scale phenomenon, so the homogeneity of particle assemblies (micro-scale) has a decisive effect on particle rearrangement and washout processes. It is addressed that the guidelines for assessing internal stability lack a fundamental, scientifi c basis for quantifi cation of homogeneity. The observation of the segregation processes within the sample in an ascending layered order (for downwards fl ow) inspired the author to propose a new packing model for granular materials which are prone to internally instability.
It is shown that the particle arrangement, especially the arrangement of soil skeleton particles or the so-called primary fabric has the main role in suffusiv processes. Therefore, an experimental approach for identifi cation of the skeleton in the soil matrix is proposed. 3D models of Sequential Fill Tests using Discrete Element Method (DEM) and 3D models of granular packings for relative, stochastically and ideal homogeneous particle assemblies were generated, and simulations have been carried out.
Based on the numerical investigations and in dependency on the soil skeleton behavior, an approach for measurement of relevant scale, the so-called Representative Elementary Volume (REV) for homogeneity investigation is proposed. The development of a new testing method for quantifi cation of homogeneity is introduced (in-situ). An approach for quantifi cation of homogeneity in numerically or experimentally generated packings (samples) based on image processing method of MATLAB has been introduced. A generalized experimental method for assessment of internal stability for widely graded soils with dominant coarse matrix is developed, and a new suffusion criterion based on ideal homogeneous internally stable granular packing is designed.
My research emphasizes that in a widely graded soils with dominant coarse matrix, the soil fractions with diameters bigger than D60 build essentially the soil skeleton. The mass and spatial distribution of these fractions governs the internal stability, and the mass and distribution of the fi ll fractions are a secondary matter. For such a soil, the homogeneity of the skeleton must be cautiously measured and verified.
Problem definition and research objectives
1. The production of Portland cement clinker causes approx. 5% to 8% of the annual man-made CO2 emissions. This is due to the usage of mainly fossil fuel (approx. 40 % of the total CO2) and because of the decarbonation of limestone as a main component of the raw meal (approx. 60 % of the total CO2).
2. Various strategies are applied in order to reduce the green-house gas-emissions, such as optimizing the process of clinker production, the use of alternative fuel and the partial substitution of the clinker in blended cement by so-called SCM (supplementary cementitious materials). Hereby blast-furnace slag, fly ash and limestone are the most used materials.
3. Quaternary systems containing three SCM simultaneously besides Portland cement contribute to the reduction of CO2 emissions due to the decrease of the clinker content. In addition, such systems allow to use blast-furnace slag and fly ash in the most economical way and provide the possibility to account for shortages of SCM on the market.
4. Blast-furnace slag and fly ash show similarities in their principal chemical compositions such that similar hydrates are formed during their reaction in presence of Portland cement. Compared to ternary systems based on blast-furnace slag or fly ash besides limestone, quaternary systems that contain both, blast-furnace slag and fly ash, simultaneously besides limestone, are expected to perform similar in terms of phase assemblage and strength development.
5. The use of SCM as cement replacing materials is limited due to their generally slower reaction compared to neat cement which also leads to lower strength development, especially in the early stage of the hydration up to 28 d. To account for this it is necessary to study the reactivity of SCM such as blast-furnace slag and fly ash in detail in order to develop strategies to enhance the reactivity and thereby the strength development of SCM-containing systems.
6. The early hydration of clinker phases is studied in detail, mainly in diluted systems. It is unclear if processes that were found to control the reaction of such model systems are also prevailing in concentrated cement pastes under realistic water-to-solid ratios. Deeper insight to this aspect is needed to better understand interactions of neat Portland cement and SCM in the first hours of hydration.
State-of-the-art
7. Increasing Ca-concentrations lead to decreasing dissolution rates of C3S and C2S in diluted systems.
8. The hydration kinetics of C3S is controlled by the interplay of undersaturation with respect to C3S and oversaturation with respect to C-S-H.
9. Increasing Al-concentrations lead to a retardation of the hydration of C3S. It is unclear if the uptake of aluminum in C-S-H to form C-(A)-S-H which has a significantly lower growth rate than pure C-S-H or a retarding effect of Al on the dissolution of C3S causes this phenomenon.
10. The surface of limestone provides excellent conditions for the nucleation and growth of C-S-H such that significantly more C-S-H nuclei are formed in presence of limestone compared to other SCM.
11. The reactivity of blast-furnace slag and fly ash depends on the particle size as well as on the intrinsic reactivity of especially the amorphous phases.
12. An increase in network modifying oxides (e.g. CaO) in the chemical composition of amorphous (calcium)aluminosilicates leads to an increasingly depolymerized network which in turn causes increasing reactivity. The role of amphoteric oxides (Al2O3, Fe2O3) that can be present as network modifying oxides as well as network forming oxides is not completely solved.
13. CO2-containing AFm-phases are thermodynamically more stable than monosulfoaluminate. This indirectly stabilizes the voluminous ettringite which causes a higher total volume of hydrates and lower porosity whereby higher compressive strength is reached.
14. Only a few percent of limestone in blended cement reacts chemically dependent on the Al2O3 available for reaction. Al2O3 that is provided by the reaction of Portland cement but also by the dissolution of SCM, especially by fly ash, reacts to form hemicarboaluminate which is transformed to monocarboaluminate as the hydration proceeds.
Methodology
15. The influence of SCM on the early hydration of Portland cement in binary (including blast-furnace slag or fly ash or limestone or quartz) and ternary (including fly ash and limestone) systems was investigated applying isothermal calorimetry and analysis of the pore solution chemistry. Calculated saturation indices and solubility products of relevant phases were correlated with heat development. Based on the gained data it was reviewed if mechanisms that control the hydration of pure phases in diluted systems are also prevailing in cement pastes under realistic conditions.
16. The influence of the chemical composition of synthetic glasses on their dissolution at high pH was investigated in highly diluted systems using ion chromatography. Pozzolanity tests were conducted on pastes using simplified model systems and glass-blended Portland cements. The process of the glass dissolution was investigated by isothermal calorimetry and by thermogravimetry. Correlation of experimentally determined total bound water with bound water determined by mass balance calculations as a function of amount of glass reacted allowed to estimate the degree of glass reaction in the pastes. Further on selective dissolution experiments were carried out to crosscheck the results of the bound water/mass balance approach.
17. The reaction kinetics of quaternary pastes containing blast-furnace slag and fly ash simultaneously in the presence of limestone were investigated up to 28 d using isothermal calorimetry and chemical shrinkage measurements. In addition strength tests on mortar bars were carried out.
18. Pastes of quaternary blends were also investigated in terms of hydrate assemblage at ages of up to 182 d. Thermodynamic calculations regarding total volume of hydrates as a function of limestone and fly ash/blast-furnace slag content were conducted. The calculations were supported by thermogravimetric determination of bound water and portlandite content as well as qualitative X-ray diffraction. The results were correlated with strength tests on mortar bars.
19. The pore solutions of hydrated quaternary blends were extracted and investigated by means of ion chromatography at ages of up to 728 d. Based on the ion concentrations in the solutions saturation indices were calculated for relevant phases. In order to gain better insight to the blast-furnace slag reaction sulphate speciation was carried out at two blast furnace slag levels (20 and 30 wt.%) for selected samples up to 91 d of hydration and at 91 d for the whole matrix under investigation.
Main results
20. Investigations on the early hydration kinetics of binary systems showed a higher heat flow in presence of SCM compared to neat Portland cement. This is caused by the higher surface area that is available for the nucleation of hydrates and by the lower (over)saturation with respect to C-S-H. An increase in the Ca-concentration in the pore solution did not cause lower dissolution rates of C3S as was reported for pure phases in diluted systems. The highest dissolution was observed in the presence of limestone, i.e. at the highest Ca-concentration. The general trend of the reaction rate is inversely related to the degree of undersaturation with respect to C3S. The more undersaturated the faster the observed reaction. The presence of increasing Al-concentrations caused a retardation of the reaction which is in line with investigations on pure phases in diluted systems. Higher sulphate concentrations could be detected for the fly ash containing blend which possibly hindered ettringite precipitation and results in higher Al-concentrations. Correspondingly the low sulphate concentrations lead to lower Al-concentrations in the presence of quartz, blast-furnace slag and limestone compared to fly ash.
21. The early hydration kinetics of quaternary systems is significantly accelerated in the presence of limestone while fly ash leads to retardation. Compared to reference systems containing inert quartz, investigations by means of isothermal calorimetry and chemical shrinkage revealed an acceleration caused by blast-furnace slag. Additions of fly ash, limestone or mixtures thereof introduced another acceleration but differences are too small to be significant and clear distinguishing between the various SCM is not possible.
22. Investigations on the reactivity of synthetic glasses showed that increasing amounts of network modifying oxides caused an increase in reactivity and dissolution rates. The results reveal that Al2O3 acts mainly as network modifying oxide in all investigated glasses. Experimentally determined bound water (thermogravimetric experiments) in model systems and blended cements can be compared with bound water determined by mass balance calculations carried out as a function of the amount of glass reacted. This enables to estimate the degree of glass reaction.
23. The actual content of blast-furnace slag, fly ash or limestone does not exert significant influence on the development of compressive strength up to 7 d. At later ages thermodynamic calculations predict a degree of CaCO3 reaction of 2 to 5 wt.%. This leads to the formation of hemicarbonate and monocarbonate whereby ettringite is indirectly stabilized. As a result the total amount of solids is increased and compressive strength shows a slight maximum. Hereby the degree of CaCO3 reaction depends on the Al2O3 available for reaction which is not only provided by the dissolution of Portland cement but especially by the dissolution of the fly ash.
24. In general the presence of blast-furnace slag and fly ash in the presence of limestone exerts little influence on the hydrate assemblage. The substitution of some of the blast-furnace slag by fly ash leads to a slight decrease of portlandite and C-S-H and gives rise to the formation of more monocarbonate and hemicarbonate. Portlandite is consumed in a pozzolanic reaction with the fly ash whereby C-S-H is formed. However, the low reactivity of the fly ash causes a decrease in the amount of C-S-H formed. Thereby a lower total volume of hydrates is generated which is in line with slightly lower compressive strength in case of increasing fly ash content. The overall influence is small and all systems investigated reach strength class 42.5 N according to EN 196-1.
25. Corresponding to the investigations of the hydrate assemblage the pore solution chemistry of quaternary systems showed only small variations. Depending on the fly ash content the highest variations are observed for aluminium, i.e. increasing fly ash content leads to higher Al-concentrations. Another effect of increasing fly ash contents is an increasing undersaturation with respect to portlandite and a decreasing undersaturation with respect to strätlingite indicating the dissolution of portlandite.
26. The total concentration of sulfur in the pore solution is controlled by sulphate (SO42–) while the concentrations of sulphite (SO32–) and thiosulphate (S2O32–) were very low. Up to 2 d of hydration about 90 % of the total sulphur is present as SO42–. After 91 d this value is reduced to about 36 % while about 28 % are present as S2O32–. In general higher blast-furnace slag content leads to higher concentrations of sulphite and thiosulphate after 7 d.
Einfluss der Porosität von Beton auf den Ablauf einer schädigenden Alkali-Kieselsäure-Reaktion
(2016)
Der Dissertation liegt die Frage zugrunde, welchen Einfluss die Porosität von Beton auf den Ablauf einer schädigenden AKR hat. Insbesondere soll geklärt werden, ob der Einsatz von Gleitschalungsfertigern – anstelle von klassischen schienengeführten Betondeckenfertigern – und die damit verbundene verringerte Porosität der Betone den Ablauf einer schädigenden AKR begünstigt. Eine verringerte Porosität führt zu einer reduzierten Duktilität des Betons, so dass infolge AKR entstehende Zugspannungen schlechter abgebaut werden können. Weiterhin steht ein geringerer Expansionsraum für das entstehende AKR-Gel zur Verfügung. Diese Faktoren können den Ablauf einer AKR begünstigen. Allerdings können extern anstehende Alkalien schlechter in den Beton mit einer verringerten Porosität eindringen. Ferner wird die Diffusion der Alkalien zu den potenziell reaktiven Gesteinskörnungen verlangsamt.
Zur Beantwortung der aufgeworfenen Frage wird unter Einsatz einer neuartigen Prüfmethodologie und bei variierender Porosität untersucht, welche Schädigungsparameter maßgebend für den Ablauf und die Intensität einer schädigenden AKR sind. Die berücksichtigten Schädigungsparameter sind die mechanischen Eigenschaften des Betons, der zur Verfügung stehende Expansionsraum und die im Beton ablaufenden Transportvorgänge. Um den Einfluss der jeweiligen Schädigungsparameter spezifizieren zu können, gehen die Prüfungen einerseits von einem hohen internen und andererseits von einem hohen externen AKR-Schädigungspotenzial aus. In beiden Fällen erfolgen die Untersuchungen an langsam reagierenden alkaliempfindlichen Gesteinskörnungen. Die unterschiedlichen Porositäten ergeben sich hauptsächlich durch Variation des w/z-Wertes.
Bei dem hohen internen AKR-Schädigungspotenzial stehen die mechanischen Eigenschaften und der Expansionsraum im Vordergrund; außerdem ist der Einfluss der Zugabe eines LP-Bildners zu analysieren. Um ein hohes internes AKR-Schädigungspotenzial zu erreichen, kommt bei der Herstellung der Betonprobekörper ein Zement mit einem hohen Alkaligehalt zum Einsatz. Die Betonprobekörper werden der 40 °C-Nebelkammerlagerung und dem 60 °C-Betonversuch über Wasser unterzogen. Dabei findet eine neue Prüfmethodologie Anwendung, die der kontinuierlichen Messung der Dehnung und der ablaufenden Erhärtungs- und Rissbildungsprozesse dient. Diese Prüfmethodologie umfasst die Messung der Ultraschallgeschwindigkeit, die Schallemissionsanalyse und die µ-3D-Computertomografie.
Hingegen richtet sich der Fokus bei dem hohen externen AKR-Schädigungspotenzial auf die Transportvorgänge. Zur Provokation eines hohen externen AKR-Schädigungspotenzials werden die Probekörper der FIB-Klimawechsellagerung ausgesetzt.
The key objective of this research is to study fracture with a meshfree method, local maximum entropy approximations, and model fracture in thin shell structures with complex geometry and topology. This topic is of high relevance for real-world applications, for example in the automotive industry and in aerospace engineering. The shell structure can be described efficiently by meshless methods which are capable of describing complex shapes as a collection of points instead of a structured mesh. In order to find the appropriate numerical method to achieve this goal, the first part of the work was development of a method based on local maximum entropy (LME)
shape functions together with enrichment functions used in partition of unity methods to discretize problems in linear elastic fracture mechanics. We obtain improved accuracy relative to the standard extended finite element method (XFEM) at a comparable computational cost. In addition, we keep the advantages of the LME shape functions,such as smoothness and non-negativity. We show numerically that optimal convergence (same as in FEM) for energy norm and stress intensity factors can be obtained through the use of geometric (fixed area) enrichment with no special treatment of the nodes
near the crack such as blending or shifting.
As extension of this method to three dimensional problems and complex thin shell structures with arbitrary crack growth is cumbersome, we developed a phase field model for fracture using LME. Phase field models provide a powerful tool to tackle moving interface problems, and have been extensively used in physics and materials science. Phase methods are gaining popularity in a wide set of applications in applied science and engineering, recently a second order phase field approximation for brittle fracture has gathered significant interest in computational fracture such that sharp cracks discontinuities are modeled by a diffusive crack. By minimizing the system energy with respect to the mechanical displacements and the phase-field, subject to an irreversibility condition to avoid crack healing, this model can describe crack nucleation, propagation, branching and merging. One of the main advantages of the phase field modeling of fractures is the unified treatment of the interfacial tracking and mechanics, which potentially leads to simple, robust, scalable computer codes applicable to complex systems. In other words, this approximation reduces considerably the implementation complexity because the numerical tracking of the fracture is not needed, at the expense of a high computational cost. We present a fourth-order phase field model for fracture based on local maximum entropy (LME) approximations. The higher order continuity of the meshfree LME approximation allows to directly solve the fourth-order phase field equations without splitting the fourth-order differential equation into two second order differential equations. Notably, in contrast to previous discretizations that use at least a quadratic basis, only linear completeness is needed in the LME approximation. We show that the crack surface can be captured more accurately in the fourth-order model than the second-order model. Furthermore, less nodes are needed for the fourth-order model to resolve the crack path. Finally, we demonstrate the performance of the proposed meshfree fourth order phase-field formulation for 5 representative numerical examples. Computational results will be compared to analytical solutions within linear elastic fracture mechanics and experimental data for three-dimensional crack propagation.
In the last part of this research, we present a phase-field model for fracture in Kirchoff-Love thin shells using the local maximum-entropy (LME) meshfree method. Since the crack is a natural outcome of the analysis it does not require an explicit representation and tracking, which is advantageous over techniques as the extended finite element method that requires tracking of the crack paths. The geometric description of the shell is based on statistical learning techniques that allow dealing with general point set surfaces avoiding a global parametrization, which can be applied to tackle surfaces of complex geometry and topology. We show the flexibility and robustness of the present methodology for two examples: plate in tension and a set of open connected
pipes.
Piezoelectric materials are used in several applications as sensors and actuators where they experience high stress and electric field concentrations as a result of which they may fail due to fracture. Though there are many analytical and experimental works on piezoelectric fracture mechanics. There are very few studies about damage detection, which is an interesting way to prevent the failure of these ceramics.
An iterative method to treat the inverse problem of detecting cracks and voids in piezoelectric structures is proposed. Extended finite element method (XFEM) is employed for solving the inverse problem as it allows the use of a single regular mesh for large number of iterations with different flaw geometries.
Firstly, minimization of cost function is performed by Multilevel Coordinate Search (MCS) method. The XFEM-MCS methodology is applied to two dimensional electromechanical problems where flaws considered are straight cracks and elliptical voids. Then a numerical method based on combination of classical shape derivative and level set method for front propagation used in structural optimization is utilized to minimize the cost function. The results obtained show that the XFEM-level set methodology is effectively able to determine the number of voids in a piezoelectric structure and its corresponding locations.
The XFEM-level set methodology is improved to solve the inverse problem of detecting inclusion interfaces in a piezoelectric structure. The material interfaces are implicitly represented by level sets which are identified by applying regularisation using total variation penalty terms. The formulation is presented for three dimensional structures and inclusions made of different materials are detected by using multiple level sets. The results obtained prove that the iterative procedure proposed can determine the location and approximate shape of material subdomains in the presence of higher noise levels.
Piezoelectric nanostructures exhibit size dependent properties because of surface elasticity and surface piezoelectricity. Initially a study to understand the influence of surface elasticity on optimization of nano elastic beams is performed. The boundary of the nano structure is implicitly represented by a level set function, which is considered as the design variable in the optimization process. Two objective functions, minimizing the total potential energy of a nanostructure subjected to a material volume constraint and minimizing the least square error compared to a target
displacement, are chosen for the numerical examples. The numerical examples demonstrate the importance of size and aspect ratio in determining how surface effects impact the optimized topology of nanobeams.
Finally a conventional cantilever energy harvester with a piezoelectric nano layer is analysed. The presence of surface piezoelectricity in nano beams and nano plates leads to increase in electromechanical coupling coefficient. Topology optimization of these piezoelectric structures in an energy harvesting device to further increase energy conversion using appropriately modified XFEM-level set algorithm is performed .
Briefly, the two basic questions that this research is supposed to answer are:
1. Howmuch fiber is needed and how fibers should be distributed through a fiber reinforced composite (FRC) structure in order to obtain the optimal and reliable structural response?
2. How do uncertainties influence the optimization results and reliability of the structure?
Giving answer to the above questions a double stage sequential optimization algorithm for finding the optimal content of short fiber reinforcements and their distribution in the composite structure, considering uncertain design parameters, is presented. In the first stage, the optimal amount of short fibers in a FRC structure with uniformly distributed fibers is conducted in the framework of a Reliability Based Design Optimization (RBDO) problem. Presented model considers material, structural and modeling uncertainties. In the second stage, the fiber distribution optimization (with the aim to further increase in structural reliability) is performed by defining a fiber distribution function through a Non-Uniform Rational BSpline (NURBS) surface. The advantages of using the NURBS surface as a fiber distribution function include: using the same data set for the optimization and analysis; high convergence rate due to the smoothness of the NURBS; mesh independency of the optimal layout; no need for any post processing technique and its non-heuristic nature. The output of stage 1 (the optimal fiber content for homogeneously distributed fibers) is considered as the input of stage 2. The output of stage 2 is the Reliability Index (b ) of the structure with the optimal fiber content and distribution.
First order reliability method (in order to approximate the limit state function) as well as different material models including Rule of Mixtures, Mori-Tanaka, energy-based approach and stochastic multi-scales are implemented in different examples. The proposed combined model is able to capture the role of available uncertainties in FRC structures through a computationally efficient algorithm using all sequential, NURBS and sensitivity based techniques. The methodology is successfully implemented for interfacial shear stress optimization in sandwich beams and also for optimization of the internal cooling channels in a ceramic matrix composite.
Finally, after some changes and modifications by combining Isogeometric Analysis, level set and point wise density mapping techniques, the computational framework is extended for topology optimization of piezoelectric / flexoelectric materials.
The phenomenon of aerodynamic instability caused by the wind is usually a major design criterion for long-span cable-supported bridges. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary, therefore, requires accurate and robust models. The complexity and uncertainty of models for such engineering problems demand strategies for model assessment. This study is an attempt to use the concepts of sensitivity and uncertainty analyses to assess the aeroelastic instability prediction models for long-span bridges. The state-of-the-art theory concerning the determination of the flutter stability limit is presented. Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of structural and aerodynamic models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the coupled model.
In der Ph.D.-Arbeit wird gefragt, wie verschieden gestaltete Landschaften heute erlebt werden und wie sie auf die Menschen wirken. Dafür wird die Atmosphärentheorie erweitert und auf Landschaften angewendet. Atmosphären sind räumliche Stimmungsqualitäten, geprägt von der Umgebung, welche Menschen beeinflussen. Es wird ein Modell entwickelt, welches die Prägung von Atmosphären auf massiver, mobiler und ephemer Ebene beschreibt. Mit künstlerischen Arbeiten werden Atmosphären verschiedener anthropogener Landschaften übersetzt. Mit der exemplarischen wie theoretischen Bearbeitung von landschaftsverbundenen Atmosphären wird die Korrelation von Menschen und Umgebung nachgewiesen.
In meiner theoretisch_praktischen Arbeit befasse ich mich mit der verletzenden Kraft von Sprache jenseits direkter Adressierung.
Es wird der Frage nachgegangen, ob und wie auch da Verletzung durch Sprache stattfindet, wo keine offensichtliche Diskriminierung erfolgt, sondern subtilere Wirkmächte der Performativität am Werk sind. Sprachliche Benenn- und Beweisbarkeit verletzenden Sprechens werden dabei in Frage gestellt und einem Wahrnehmen und Begegnen Vorrang gegeben.
Sowohl im eher theoretischen Teil, dem „Fragment I: 943 Fragen zur sprachlichen Gewalt“, als auch im vorwiegend praktischen Teil, dem „Fragment II: Untersuchungen und Zwischennutzungen“, wird eine Perspektive auf kritische Handlungsfähigkeit in Bezug auf Sprache und Gewalt eröffnet. Es wird ein Verständnis von Verantwortung als ein Affekt und zugleich Ort der Kritik zur Diskussion gestellt und befragt. Dabei versuche ich, über die dichotome Verfestigung von „Wir und die Anderen“ hinauszugelangen und dabei ein WIR, das nicht vom IHR getrennt ist, als WIHR in den Blick zu nehmen. Dieses WIHR muss notwendigerweise offen und flexibel bleiben. Es soll eine Art Möglichkeitsraum schaffen, der nicht neu geordnet, sondern im beständigen Fragen einer abschließenden Antwort entzogen wird.
Eine Annäherung in vor allem zeichnerischen und auditiven Untersuchungen sowie 943 Fragen.
In der Arbeit wurde eine Methode für eine kulturübergreifende Vergleichsstudie zwischen China und dem Westen erarbeitet. Diese Methode ermöglicht Unternehmensentwicklung in China aus dem eignen historischen Zusammenhang zu verstehen, statt nur aus einem rein theoretischen Blickwinkel. Weil heutige wissenschaftliche Theorien meist aus der westlichen Kultur stammen und mit Wertvorstellungen sowie mit Begriffen aus dem westlichen Kulturkreis verbunden sind, müssen sie im historischen Kontext des westlichen Kulturkreises betrachtet werden.
Im ersten Teil der Arbeit wird der westliche moderne Staat als Untersuchungsbegriff herangezogen, seine Entstehungsbedingungen und seine Verwendungsart und -weise, besonders wie er die ökonomische Theorie und die Praxis im Westen beeinflusst, dabei spielt das moderne Staatsprinzip eine wichtige Rolle. Die Neue Institutionenökonomik dient als theoretischer Referenzrahmen für diese Arbeit. Mittels einer theoretischen Erweiterung mit dem westlichen modernen Staatsverständnis werden wichtige westliche konstitutionelle Institutionen analysiert, da sie die Handlungsrechte und -pflichten der Bürger sowie die Bildung der kapitalistischen Unternehmung beeinflussen.
Im zweiten Teil der Arbeit wird das chinesische Staatsverständnis analysiert – vom traditionellen „Tianxia“ zum „modernen“ Staat. Mithilfe abgeleiteter Kriterien wird die chinesische Unternehmensentwicklung in drei zeitlichen Querschnittsphasen betrachtet, wie sich chinesische Unternehmen vom traditionellen bis zum „modernen“ entwickelten. Als Fallbeispiel werden chinesische Buchdruckunternehmen herangezogen. Zuerst wird das Buchdrucksystem sowie seine Veränderungen in drei Zeitphase betrachtet. Dabei wird auf die Aspekte Buchdruckorganisation, staatliche Verwaltung, wie Zensur und Urheberrecht sowie Lehrmaterial fokussiert, die für die Buchdruckunternehmensentwicklung von Bedeutung sind und ein System darstellen. Aus Mikrosicht werden drei Buchdruckunternehmen in den Zeitphasen analysiert. Im Ergebnis der Arbeit werden Schlussfolgerungen abgeleitet, bspw. dass Modernisierung als Aktualisierung verstanden werden sollte, aber nicht als Zerstörung.
A parametric method for building design optimization based on Life Cycle Assessment - Appendix
(2016)
The building sector is responsible for a large share of human environmental impacts, over which architects and planners have a major influence. The main objective of this thesis is to develop a method for environmental building design optimization based on Life Cycle Assessment (LCA) that is applicable as part of the design process. The research approach includes a thorough analysis of LCA for buildings in relation to the architectural design stages and the establishment of a requirement catalogue. The key concept of the novel method called Parametric Life Cycle Assessment(PLCA) is to combine LCA with parametric design. The application of this method to three examples shows that building designs can be optimized time-efficiently and holistically from the beginning of the most influential early design stages, an achievement which has not been possible until now.
This thesis suggests cooperation as a design paradigm for human-computer interaction. The basic idea is that the synergistic co-operation of interfaces through concurrent user activities enables increased interaction fluency and expressiveness. This applies to bimanual interaction and multi-finger input, e.g., touch typing, as well as the collaboration of multiple users. Cooperative user interfaces offer more interaction
flexibility and expressivity for single and multiple users.
Part I of this thesis analyzes the state of the art in user interface design. It explores limitations of common approaches and reveals the crucial role of cooperative action in several established user interfaces and research prototypes. A review of related research in psychology and human-computer interaction offers insights to the cognitive, behavioral, and ergonomic foundations of cooperative user interfaces. Moreover, this thesis suggests a broad applicability of generic cooperation patterns and contributes three high-level design principles.
Part II presents three experiments towards cooperative user interfaces in detail. A study on desktop-based 3D input devices, explores fundamental benefits of cooperative bimanual input and the impact of interface design on bimanual cooperative behavior. A novel interaction technique for multitouch devices is presented that follows the paradigm of cooperative user interfaces and demonstrates advantages over the status quo. Finally, this thesis introduces a fundamentally new display technology that provides up to six users with their individual perspectives of a shared 3D environment. The system creates new possibilities for the cooperative interaction of
multiple users.
Part III of this thesis builds on the research results described in Part II, in particular, the multi-user 3D display system. A series of case studies in the field of collaborative virtual reality provides exemplary evidence for the relevance and applicability of the suggested design principles.
Das Erzeugen räumlicher Konfigurationen ist eine zentrale Aufgabe im architektonischen bzw. städtebaulichen Entwurfsprozess und hat zum Ziel, eine für Menschen angenehme Umwelt zu schaffen. Der Geometrie der entstehenden Räume kommt hierbei eine zentrale Rolle zu, da sie einen großen Einfluss auf das Empfinden und Verhalten der Menschen ausübt und nur noch mit großem Aufwand verändert werden kann, wenn sie einmal gebaut wurde. Die meisten Entscheidungen zur Festlegung der Geometrie von Räumen werden während eines sehr kurzen Zeitraums (Entwurfsphase) getroffen. Fehlentscheidungen die in dieser Phase getroffen werden haben langfristige Auswirkungen auf das Leben von Menschen, und damit auch Konsequenzen auf ökonomische und ökologische Aspekte.
Mittels computerbasierten Layoutsystemen lässt sich der Entwurf räumlicher Konfigurationen sinnvoll unterstützen, da sie es ermöglichen, in kürzester Zeit eine große Anzahl an Varianten zu erzeugen und zu überprüfen. Daraus ergeben sich zwei Vorteile. Erstens kann die große Menge an Varianten dazu beitragen, bessere Lösungen zu finden. Zweitens kann das Formalisieren von Bewertungskriterien zu einer größeren Objektivität und Transparenz bei der Lösungsfindung führen. Um den Entwurf räumlicher Konfigurationen optimal zu unterstützen, muss ein Layoutsystem in der Lage sein, ein möglichst großes Spektrum an Grundrissvarianten zu erzeugen (Vielfalt); und zahlreiche Möglichkeiten und Detaillierungsstufen zur Problembeschreibung (Flexibilität), sowie Mittel anzubieten, mit denen sich die Anforderungen an die räumliche Konfiguration adäquat beschreiben lassen (Relevanz). Bezüglich Letzterem spielen wahrnehmungs- und nutzungsbezogene Kriterien (wie z. B. Grad an Privatheit, Gefühl von Sicherheit, Raumwirkung, Orientierbarkeit, Potenzial zu sozialer Interaktion) eine wichtige Rolle.
Die bislang entwickelten Layoutsysteme weisen hinsichtlich Vielfalt, Flexibilität und Relevanz wesentliche Beschränkungen auf, welche auf eine ungeeignete Methode zur Repräsentation von Räumen zurückzuführen sind. Die in einem Layoutsystem verwendeten Raumrepräsentationsmethoden bestimmen die Möglichkeiten zur Formerzeugung und Problembeschreibung wesentlich. Sichtbarkeitsbasierte Raumrepräsentationen (Sichtfelder, Sichtachsen, Konvexe Räume) eignen sich in besonderer Weise zur Abbildung von Räumen in Layoutsystemen, da sie einerseits ein umfangreiches Repertoire zur Verfügung stellen, um räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsbezogener Kriterien zu beschreiben. Andererseits lassen sie sich vollständig aus der Geometrie der begrenzenden Oberflächen ableiten und sind nicht an bestimmte zur Formerzeugung verwendete geometrische Objekte gebunden.
In der vorliegenden Arbeit wird ein Layoutsystem entwickelt, welches auf diesen Raumrepräsentationen basiert. Es wird ein Evaluationsmechanismus (EM) entwickelt, welcher es ermöglicht, beliebige zweidimensionale räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsrelevanter Kriterien zu bewerten. Hierzu wurde eine Methodik entwickelt, die es ermöglicht automatisch Raumbereiche (O-Spaces und P-Spaces) zu identifizieren, welche bestimmte Eigenschaften haben (z.B. sichtbare Fläche, Kompaktheit des Sichtfeldes, Tageslicht) und bestimmte Relationen zueinander (wie gegenseitige Sichtbarkeit, visuelle und physische Distanz) aufweisen. Der EM wurde mit Generierungsmechanismen (GM) gekoppelt, um zu prüfen, ob dieser sich eignet, um in großen Variantenräumen nach geeigneten räumlichen Konfigurationen zu suchen. Die Ergebnisse dieser Experimente zeigen, dass die entwickelte Methodik einen vielversprechenden Ansatz zur automatisierten Erzeugung von räumlichen Konfigurationen darstellt: Erstens ist der EM vollständig vom GM getrennt, wodurch es möglich ist, verschiedene GM in einem Entwurfssystem zu verwenden und somit den Variantenraum zu vergrößern (Vielfalt). Zweitens erlaubt der EM die Anforderungen an eine räumliche Konfiguration flexibel zu beschreiben (unterschiedliche Maßstäbe, unterschiedlicher Detaillierungsgrad). Letztlich erlauben die verwendeten Repräsentationsmethoden eine Problembeschreibung vorzunehmen, die stark an der Wirkung des Raumes auf den Menschen orientiert ist (Relevanz).
Die in der Arbeit entwickelte Methodik leistet einen wichtigen Beitrag zur Verbesserung evidenzbasierter Entwurfsprozesse, da sie eine Brücke zwischen der nutzerorientierten Bewertung von räumlichen Konfigurationen und deren Erzeugung schlägt.
Die vorliegende Arbeit fokussiert die Optimierung freigeformter adaptiver Faserverbundflächentragwerke auf Basis einer entwickelten und auf einem parametrischen Gesamtmodell basierenden Entwurfsmethode. Die Übertragung adaptiver, natürlich inspirierter Vorgänge stellt eine weitreichende Inspirationsquelle dar. Adaptive Tragwerke können unter Anwendung von Smart Materials als materialsparende, filigrane Tragwerke ausgeführt werden. Die Erfüllung der Grenzzustände der Tragfähigkeit und der Gebrauchstauglichkeit wird nicht allein über die Querschnittsabmessungen sichergestellt. Die notwendige Bauteilsteifigkeit kann vielmehr durch Eintragung von Aktivierungsenergie (Operational Energy) realisiert werden. Auf diese Weise kann die aufgrund der Bauteilabmessungen gebundene Energie (Embodied Energy) minimiert werden. Die entwickelte Entwurfsmethode ermöglicht die Auslegung und Optimierung materialminimierter Schalentragwerke in einem mehrstufigen Prozess. Hierbei wird aus tragwerksplanerischer Sicht die numerische Formfindung, die statische Berechnung und die Aktor- und Sensorpositionierung berechnet. Zudem werden Analysen hinsichtlich der Nachhaltigkeit auf Basis einer Lebenszyklusanalyse durchgeführt. Aufgrund der unterschiedlichen, sich aber gegenseitig beeinflussenden Kriterien, ist eine Optimierung durchzuführen. In der vorliegenden Arbeit wird ein Ansatz zur Definition zulässiger Ökobilanzkennwerte von Smart Materials auf Basis der Energiedifferenz zwischen einer passiven und einer adaptiven Struktur vorgestellt. Anhand dieser Kennwerte kann die Entwicklung zukünftiger Smart Materials unter dem Aspekt der ganzheitlichen Nachhaltigkeit erfolgen. Die Allgemeingültigkeit und Übertragbarkeit der Entwurfsmethode auf weitere Tragsysteme im Bauwesen und speziell anderer Materialkonstellationen wird anhand verschiedener Beispiele aufgezeigt.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stadthotels in Deutschland zwischen Energieeffizienz und Wirtschaftlichkeit - Studie auf Grundlagen der EnEV-Anforderungen. Die Arbeit setzt sich mit einer qualitativen und quantitativen Analyse über die Energieeffizienz auf Grundlagen der EnEV-Anforderungen und deren Wirtschaftlichkeit bei Stadthotels in Deutschland auseinander. Die Analyse wurde anhand von verschiedenen Untersuchungen bei Hotels aufgebaut. Diese umfassen empirische, energetische und wirtschaftliche Untersuchungen. Die durchgeführten Untersuchungen kommen schließlich zu eindeutigen Ergebnissen auf verschiedenen Ebenen. Im Ergebnis wird deutlich, dass die Optimierung der Gebäudetechnik sowie auch die Verbesserung der energetischen Qualität der Gebäudehülle der Hotels bedeutende Einflussfaktoren zur Steigerung der Energieeffizienz darstellen. Dabei ist jedoch festzuhalten, dass sich die Optimierung der Gebäudetechnik der Hotels insbesondere im Bereich der Lüftungs- und Klimatechnik als besonders wirksam erwiesen hat. Die Effektivität dieser Maßnahmen konnte sowohl in Hinsicht auf die Steigerung der Energieeffizienz als auch in Bezug auf die Wirtschaftlichkeit bewiesen werden.
Die vorliegende Arbeit untersucht das Potential von Webanwendungen in 3D zur Vermittlung von Informationen im Allgemeinen und zur Darstellung von städtebaulichen Zusammenhängen im Speziellen.
Als grundlegender Faktor der visuellen und funktionalen Qualität - welche die Wahrnehmung des Nutzers direkt beeinflusst -, erfolgt die Bewertung der Machbarkeit von 3D Webinhalten unter Anwendung einer explorativen, qualitativen Evaluierung von Webagenturen.
Darauf aufbauend wird das Potential von 3D Webanwendungen aus Nutzerperspektive untersucht, um Zusammenhänge herstellen zu können: einerseits zwischen der Machbarkeit bei der Entwicklung und anderseits die Akzeptanzkriterien beim Rezipienten betreffend.
Die empirische Studie, die mit dem Forschungspartner Bosch für diese Arbeit modelliert wurde, eruiert zum einen, inwiefern 3D im Vergleich zu 2D und 2,5D, und zum anderen WebGL im Vergleich zu bisherigen 3D Webtechnologien die visuelle Wahrnehmung und kognitive Leistungsfähigkeit des Nutzers beeinflusst.
Die Erkenntnisse der Untersuchung zeigen Parallelen zu bestehenden Studien aus web-fernen Bereichen.
Um die Bedeutung von 3D Webanwendungen zur Verbesserung von Entscheidungsprozessen in Stadtplanungsprojekten ableiten zu können, werden Aspekte zur Interaktion und visuellen Wahrnehmung in den speziellen Kontext von Stadtplanungswerkzeugen gebracht. Dabei wird überprüft, ob sich web-basierte 3D Visualisierungen sinnvoll zur Vermittlung städtebaulicher Zusammenhänge einbinden lassen und inwieweit bestehende Projekte, wie in dieser Arbeit beispielhaft das vom Fraunhofer IGD entwickelte Forschungsprojekt urbanAPI, die Technologie WebGL nutzen können.
Vor diesem Hintergrund soll die Arbeit Akzeptanzkriterien und Nutzungsbarrieren von 3D Webanwendungen auf Basis der Technologie WebGL identifizieren, um einen Beitrag zur Machbarkeit von Webanwendungen und zur Entwicklung entsprechender Stadtplanungswerkzeuge zu leisten.
Das Waldhufendorf Nakléřov (Nollendorf) gehört, wie eine Vielzahl weiterer Orte im bis 1945 hauptsächlich von deutschsprachiger Bevölkerung besiedelten tschechischen »Grenzgebiet«, zu jenen Orten, die heute aus der Perspektive verschiedener Akteure als verschwunden oder untergegangen beschrieben werden. Auf Grund ihres allgegenwärtigen fragmentarischen Erhaltungszustands und der oft fehlenden Bausubstanz scheinen sie bei einer oberflächlichen Schau nicht als Interessensgebiete der Denkmalpflege in Frage zu kommen. Untersucht man sie mit den wertneutralen Analyse- und Inventarisierungsverfahren der Angewandten Historischen Geografie, so kommt man zu einem differenzierteren Ergebnis, das zum einen die Darstellung als verschwundene Orte fragwürdig erscheinen lässt und zum anderen zu einer Neufokussierung des Aspekts der Abwesenheit aus denkmalpflegerischer Sicht führt. Im Verlauf der Bestandsaufnahme der gegenwärtigen materiellen Verfasstheit des paradigmatisch untersuchten Ortes, der Gesamtschau des Noch-Vorhandenen als komplexem Netz unterschiedlichster Indizien, die sowohl auf historische Tiefenschichtungen als auch auf Abwesenheiten verweisen, hat sich gezeigt, dass der Ort Nakléřov über vielfältige Relikte und Spuren verfügt, die auf seine Entstehung sowie unterschiedliche historische Epochen und Zäsuren verweisen. Basierend auf dem Palimpsest als Vorstellungsgerüst und der Spurensuche als Leitmotiv einer verräumlichten Geschichtsschreibung führte der am Ort erprobte mikrohistorische Blick zu einer geschärften Perspektive auf verborgene und verschwundene Schichten und Objekte, auf sich räumlich ausdrückende Machtverhältnisse und politische Zäsuren.
Zur Veranschaulichung wurden verschiedene Möglichkeiten einer GIS-basierten kartografischen Erfassung aufgezeigt, die der Besonderheit einer Landschaft der Leerstellen des 20. Jahrhunderts mit der Wüstung eines Ortes vor dem Hintergrund der Zwangsmigration der deutschen Bevölkerung und des politischen Regimewechsels nach 1945 gerecht werden sollte. In Fortführung der Denkanstöße von Norbert HUSE, den denkmalpflegerischen Leistungsbegriff in Frage zu stellen und auch Orte der Abwesenheit hinsichtlich ihrer potentiellen Denkmalwertigkeit zu hinterfragen, sowie in Anknüpfung an das Konzept der European Landscape Convention (2004), auch Landschaftsschäden und die Vergegenwärtigung nicht mehr vorhandener Landschaftscharakteristika in die Inventarisierung einzubeziehen, wurde im Untersuchungsgebiet der Kartierung stark geschädigter und verschwundener Bereiche und Objekte besondere Aufmerksamkeit gewidmet. Den Ausgangspunkt bildete die Bestandsaufnahme der Kulturlandschaftselemente mit historischem Zeugniswert, die unabhängig von Kriterien wie Schönheit oder kunsthistorischer Wert erfasst wurden. Auf der Chronotop-Karte hingegen wurde die Genese des Ortes zurückverfolgt. Das gleichzeitige Nebeneinander ungleichzeitiger Elemente wurde in verschiedenen räumlichen Ausschnitten hinsichtlich seiner Entwicklungsgeschichte analysiert, historisch kontextualisiert und auf Kontinuitäten und Zäsuren hin überprüft. Dabei stand nicht die Eruierung eines kulturlandschaftlichen »Urtextes« im Fokus, sondern das Herausarbeiten von Zeitschichten. Eine Gründung als Waldhufendorf von deutschen Siedlern um 1100, wie in den Dorfchroniken kolportiert, war nicht nachweisbar. Zu belegen ist, dass sich das im Kern mittelalterliche Dorf mit einer spätestens in der ersten Hälfte des 17. Jh. planmäßig angelegten Waldhufenstruktur bis zur Zäsur von 1945 über ca. 350 Jahre in dieser Form auch weiterentwickelt hat.
Mit der Zwangsmigration der deutschsprachigen Bevölkerung verschwand das »Pflegepersonal« der Kulturlandschaft. Auch durch die nachfolgende genossenschaftliche und militärische Nutzung veränderte sich der Ort flächendeckend. Die kleinteilige und durch pflanzliche Diversität gekennzeichnete Bewirtschaftung wich unter den neuen sozio-ökonomischen Bedingungen einer monokulturellen Flächenbewirtschaftung. Während die Teile des Flurbildes, die in funktionalem Zusammenhang mit der dörflichen Siedlung standen, größtenteils verloren gegangen sind, wurde der Charakter des Verkehrskorridors hingegen noch verstärkt. Der 1938 geplante Autobahnabschnitt auf der Trasse des prähistorischen Nollendorfer Passes wurde zu Beginn des 21. Jh. als Teil der A17 realisiert. Die zentrale Lage in einer Transitlandschaft erwies als entscheidend für die Entwicklung des Dorfes. Neben der Bedeutung als Handels- und Poststraße war die durch den Ort führende Querung des Osterzgebirges militärstrategisch wichtig und wurde im Verlauf verschiedener Kriege spätestens ab dem 11. Jh. bis 1945 rege genutzt. Mehrfach wurden Teile des Dorfes zerstört, doch im Gegensatz zur Zäsur nach 1945 erfolgte stets ein Wiederaufbau. Ernsthafte Bemühungen einer Neubesiedlung im Zuge der Wiederbesiedlungspolitik im Grenzgebiet sind nicht zu verzeichnen. Vielmehr wurden fast 90% des Gebäudebestands zwischen 1949–1964 als Abbruchhäuser verkauft oder dem Verfall überlassen.
Heute existieren in Nakléřov bauliche Zeugnisse in unterschiedlichen Erhaltungsgraden, die im Zusammenhang mit verschiedenen Phasen der Expansion, Stagnation und Regression in der Siedlungsentwicklung zu sehen sind. Die historische Bedeutung des Ortes ist nicht allein aus seiner fragmentarisch erhaltenen Gebäudesubstanz abzuleiten, sondern liegt in der Kontinuität der Gebäudestandorte und der Verbindung von Flur und Bauparzelle. In einem Waldhufendorf stellen die Lesesteinwälle das materialisierte Ordnungsgefüge dar. An ihnen wird der Dorfgrundriss mit seiner Parzellenstruktur erkennbar, der zur ältesten materiellen geschichtlichen Überlieferung auf dem Lande gehört. Die bauliche Substanz tritt in ihrer Bedeutung in den Hintergrund, wird zum Inventar, das auf Grund besonderer Rahmenbedingungen ausgetauscht wird. Vielmehr ist es in Nakléřov das durch die Lesesteinrücken markierte Nichtmehrvorhandensein vieler baulicher Strukturen, das als Bestandteil des historischen Zeugniswertes des Ortes zu bewerten ist. Die Lesesteinrücken sind nicht nur Spuren im Sinne von siedlungsgeschichtlich relevanten Überresten, sondern zugleich auch Spuren im Sinne von materiellen Anhaltspunkten, die Abwesenheit bezeugen und über das impulsgebende Potential verfügen, diese Abwesenheit zu hinterfragen und dem spurenbildenden Geschehen nachzuspüren. Das für Nakléřov prägnante ubiquitäre Zusammenspiel von an- und abwesenden Objekten wurde auf einer eigens entwickelten, auch auf andere Orte (im Grenzgebiet) übertragbaren Kartierung (KE) festgehalten, in der die Materialströme 1945–2012 dokumentiert wurden. Aktuell durch materielle Konstellationen markierte Orte der Leere wurden dechiffriert, indem Relikte nach Zeitschichten gestaffelt mit Visualisierungen verschwundener Objekte hinterlegt wurden.
Die über materielle Überreste transportierte Erfahrung von Abwesenheit wird auch an scheinbar kontext- und funktionslosen Elementen deutlich. Dazu gehört in Nakléřov z.B. ein Parkplatz, dessen Verwendungszweck zwar eindeutig ist, wohingegen sich seine Funktion an diesem Ort nicht ohne Hinzuziehung von Quellen erschließt. Ihn als Erwartungen störendes Element, dem eine »verdächtige Abwesenheit« inhärent ist, aufzufassen und als unabsichtliche Hinterlassenschaft zu hinterfragen, hat den Anstoß zur erinnerungskulturellen Dechiffrierung der banal anmutenden Fläche gegeben. Das Weiterverfolgen seiner Spur hat verschiedene Strategien der Verdrängung von erinnerungsstützenden und wahrnehmungslenkenden Artefakten und Zeichensetzungen sowie das dynamische und teils antagonistische Beziehungsgeflecht der sich in diesem räumlichen Ausschnitt befindlichen Objekte offengelegt. Neben Beschriftungen an einem Aussichtsturm und einem Schlachtendenkmal, deren Wechsel sich verändernde gesellschaftspolitische Bedingungen des 20. Jh. reflektieren, ist es ein »dichter Ort«, dessen geografische Lage zum Versuch einer gedächtnispolitischen Umcodierung und räumlichen Verankerung eines neuen Geschichtsnarrativs geführt hat. Der heute durch ein Holzkreuz markierte Ort war 300 Jahre lang Standort einer sakralen Landschaftsdominante, die 1975 in Vorbereitung der Installation eines Sowjetdenkmals gesprengt wurde. Die Planungsunterlagen belegen, dass ein Zulassen räumlich sichtbarer Erinnerungskonkurrenzen auszuschließen war und eine politisch motivierte Neubesetzung des Ortes unter besonderer Berücksichtigung seiner in die Landschaft ausgreifenden Raumwirkung angestrebt war. Einer der wenigen materiellen Überreste, die auf die Geschichte zur Errichtung des größten Sowjetdenkmals in Nordböhmen verweisen, ist der Parkplatz. Vor allem an diesem Beispiel hat sich auch gezeigt, dass der sich aus einem feinen Gespinst unterschiedlichster materieller Konstellationen zusammensetzende Ort als Geschichtsquelle nur bedingt anschaulich und »lesbar« ist. Neben die Bestimmung des historischen Zeugniswertes des Untersuchungsgebietes durch kartierte und »erzählte Geschichte« trat so zwangsläufig auch der Subtext einer Beschreibung des Prozesses der Spureninterpretation.
Dieser »dichte Ort« ist heute ein Ort aktiver objektgebundener Gedenkpraktiken, der durch eine Koexistenz von Erinnerungssträngen gekennzeichnet ist und von unterschiedlichen Akteuren genutzt wird. Die zweisprachige Tafel am Schlachtendenkmal, Pläne zur Wiedererrichtung des Aussichtsturms und zu Baumaßnahmen unter Berücksichtigung der historischen Siedlungsstruktur deuten auf eine wachsende Akzeptanz des kulturhistorischen Erbes der deutschsprachigen Bevölkerung hin. Auch verschiedene tschechische Projekte zur Dokumentation des Grenzgebiets, einschließlich der Erfassung dessen, was zerstört oder nur noch in Überresten vorhanden ist, belegen die Bereitschaft, sich mit der Geschichte der Landschaft auseinanderzusetzen. Orte, an denen die Erfahrung von Abwesenheit und Leere auf den flächendeckend offensichtlichen Bruch im Grenzland verweist, beinhalten das Potential als »storyscape« zu fungieren und ein an den Raum rückgebundenes Erzählen von erinnerungskulturell und sozial bedeutsamen »Geschichten« zu initiieren. Der mögliche Denkmalwert eines Ortes wie Nakléřov als repräsentativer und zugleich singulärer Bestandteil einer historischen Kulturlandschaft besteht in seinem Vermögen, Fragen aufzuwerfen und eine Beschäftigung mit der Geschichte des Ortes im lokalen, regionalen und europäischen Kontext einzuleiten. Das denkmalpflegerische Kriterium der Leistung manifestiert sich nicht im Objekt, sondern im Potential eines bestimmten räumlichen Ausschnitts, erinnerungskulturelle Prozesse und angesichts »umstrittener« oder »geteilter« Objekte und Orte Dialoge in Gang zu setzen.
Ein Ort, dessen historischer und erinnerungskultureller Wert aus dem Spannungsfeld zwischen an- und abwesenden Elementen, zwischen Leerstellen und Relikten resultiert, führt an die Grenzen traditioneller Denkmalbegrifflichkeiten, ist aber auf der Basis der Zusammenschau verschiedener theoretischer und praktischer Ansätze der Denkmalpflege, die unter dem Begriff »unbequeme Kulturlandschaft« zu subsumieren sind, in seiner potentiellen Denkmalwürdigkeit zu diskutieren. Die Grenzen dessen, was Denkmal sein kann, sind zwar seit den 1970er Jahren räumlich, substanziell und ideell durchlässiger geworden, werden aber immer noch von Ansprüchen an die materielle Substanz des Denkmals und an das Denkmal als Zeugnis von Leistung markiert. Auch HUSE sieht in der Bindung der Denkmalpflege »an die materielle Spur« sowohl eine Stärke als auch eine Schwäche: »Wo es diese nicht mehr gibt, kann es auch keine Denkmalpflege mehr geben.« Aber Denkmalpflege kann es auch dort geben, wo die Spur in existentieller Abhängigkeit vom Vorhandensein der sie umgebenden Substanz als interpretationsoffenes Zeitfenster im Raum verstanden wird. Die Spur ist an das Vorhandensein von materieller Substanz gebunden, denn ohne diese wäre die Spur weder präsent noch wahrnehmbar. Spuren sind dergestalt als Ensembles zu begreifen, die aus einer Leerstelle sowie der sie umgebenden, sie hervorbringenden und auf sie verweisenden materiellen Umgebung bestehen.
Für den Denkmalpfleger als Spurenleser stünde somit das sich über das Materielle ausdrückende Spannungsfeld zwischen Absenz und Präsenz im Fokus, das unter den Vorzeichen des Erinnerns und Vergessens für den kulturwissenschaftlichen Erinnerungs- und Gedächtnisdiskurs von Bedeutung ist. Ein umfassender Spurenbegriff wäre dem Substanzbegriff als Korrektiv zur Seite zu stellen, mit dem Potential, auf Abwesenheit als Resultat von destruktiven Einwirkungen hinzuweisen, Fragen auch nach (un)freiwilligen Zeugnissen, Kontexten, Ursachen, Menschen und ihrem Handeln aufzuwerfen, und dabei dennoch den Konnex zum Materiellen halten zu können. Ein Spurenbegriff, der über das Oszillieren der Spur zwischen ästhetischem und historischem Wert hinausgeht, verweisend auf tiefgreifende Verluste und Zerstörungsprozesse, scheint dazu geeignet, die Funktion des Denkmals auch als »Erinnerung an Brüche, Unschönes und Schwieriges, an Niederlagen und Irrwege, aber auch an Alternativen« zu stärken, die denkmalpflegerische Kanonbildung sowie Kernbegriffe der Disziplin wie Substanz und Leistung hinsichtlich ihrer generellen Anwendbarkeit auf die bestehende und potentielle Denkmalwelt zu hinterfragen. Orte und Objekte abseits traditioneller Vorstellungen vom Denkmal erfordern eine Neufokussierung des Substanzbegriffs, um eine komplexere und vielschichtige, auch konfligierende Deutungen zulassende Kultur- und Geschichtsbetrachtung zu ermöglichen. Eine Denkmalpflege als wissenschaftlich verankerte Disziplin, die sich mit ihren vielfältigen materialbasierten und verorteten Medien der Erinnerung, stärker in den fächer- und längst auch grenzübergreifenden Erinnerungsdiskurs einbringen will, braucht zu Beginn des 21. Jh. nach den Verwerfungen des 20. Jh. noch andere Orientierungspunkte, um sich auch in disparaten, auch von Destruktion geprägten Kulturräumen bewegen zu können.
Diese Arbeit belegt, dass die Belastungen auf reversibel arbeitende keramische Materialien sehr gering ausfallen. Die regenerative Sauerstoffbereitstellung stellt damit grundsätzlich niedrigere Anforderungen an die keramischen Perowskit-Materialien zur Sauerstofferzeugung als die Membrantechnologie.
Das Absinken der Diffusionskoeffizienten bei niedrigen Temperaturen ist deutlich weniger nachteilig als bei den Membranen die vergleichbare Materialien nutzen.
Dies konnte gezeigt werde, indem mit der die O 2 -Entladetechnik und -Beladetechnik im Vergleich zur O 2 -Abtrennung durch keramische Membranen bei vergleichsweise niedrigen Temperaturen bereits große O 2 -Mengen erzeugt werden können. Infolge der niedrigen Temperaturen bestehen keine Probleme mit Reaktionen zwischen dem sauerstoffbereitstellenden Material und den Reaktorwerkstoffen. Dadurch gestaltet sich die Einbindung und Nutzung von Festbett-Schüttungen denkbar einfach. Im Vergleich dazu sind die Anbindung und der Betrieb von dünnen keramischen Membranen in einem Reaktor deutlich aufwendiger. Es ist weniger Peripherie und verfahrenstechnischer Aufwand zur Sauerstoffabtrennung durch reversibel arbeitende Materialien nötig als bei der kryogenen Luftzerlegung, der Druckwechseladsorption oder den Membrantechnologien.
Die regenerative Sauerstoffbereitstellung kann sowohl bei neuen als auch bestehenden Anlagen, die Sauerstoff benötigen implementiert werden. Damit ist es möglich den Transport des Sauerstoffs entfallen zu lassen. Eine partielle Phasenumwandlung des BSCF8020 bei erhöhter Temperatur und hohem Sauerstoffangebot spielt für die regenerative Sauerstoffbereitstellung eine untergeordnete Rolle, da die nötigen Zieltemperaturen (450 ggf. bis 650 °C) zur O 2 -Beladung und -Entladung niedriger sind, als der Temperaturbereich in dem die Zersetzung auftreten kann (750 bis 800 °C). Des Weiteren ist die Zeitspanne (O 2 -Beladungsteilzyklus) in der das BSCF8020 ausreichend hohen Sauerstoffgehalten (p O2 > 10 -3 bar) ausgesetzt ist, zu kurz um diese Umwandlungen zu vollziehen. Der O 2 -Entladungsteilzyklus sorgt zusätzlich immer dafür, dass sich u. U. beginnende Zersetzung zurückbildet, da die kubische Phase in Richtung niedrigerer p O2 stabilisiert wird.
Es konnte belegt werden, dass die elektronische Steuerung des zyklischen Sauerstoffausbaus und -einbaus beherrschbar ist. Der hohe Abtrenngrad der keramischen Materialien führt dazu, dass der Sauerstoff elektrolytisch rein zu Verfügung gestellt wird. Grundsätzlich sind weitere Forschungen zur Steigerung der Sauerstoffmengen, die pro eingesetzter Masseeinheit an Keramik gewonnen werden können, immer anzustreben, da damit u. U. der Materialeinsatz weiter gesenkt oder auch die energetischen Aufwendungen weiter reduziert werden können. Bei dem, für die multizyklischen Untersuchungen dieser Arbeit ausgewählten BSCF8020(SVT) hat die Cobalt-Komponente mit ca. 80 % den überwiegenden Kostenanteil am Sauerstoff bereitstellenden Material. BSCF-Keramiken mit höherem Eisen-Anteil sollten für multizyklische Anwendungen in Festbett-Reaktoren einer vertiefenden Charakterisierung unterzogen werden, um weitere geeignete Perowskite mit niedrigen Materialkosten zu erschließen.
The construction and operation of a sanitary landfill (SLF) in the Philippines presents concerns on the regulation of the activities of the informal sector in the area. In anticipation of these directives, an association of informal waste reclaimers group called Uswag Calajunan Livelihood Association, Inc. (UCLA) was formed in May 2009. One option identified was the waste-to-energy activity through the production of fuel briquettes. With the availability of raw materials in the area, what was lacking then was an appropriate technology that would cater to their needs. This study, therefore, presented the case of UCLA on how socio-economic and technical aspects was integrated for the development and improvement of a briquetting technology needed in the production of quality briquettes as part of their income generating activities. A non-experimental posttest only design was utilized for the collection of descriptive information. Descriptions and discussions were also made on the enhancement of the briquetting machine from the first hand-press molder developed until the finalized design was attained.
Results revealed that the improved briquetting technology withstood the wear and tear of operation showing a significant (P<0.01) increase on the production rate (220 pcs/hr; 4 kg/hr) and bulk density (444.83 kg/m3) of briquettes produced. The quality of cylindrical briquettes produced in terms of bulk density, heating value (15.13 MJ/kg), moisture (6.2%), N and S closely met or has met the requirements of DIN 51731. Based on the operating expenses, the briquettes may be marked-up to Php0.25/pc (USD0.006) or Php15.00/kg (USD0.34) for profit generation. The potential daily earnings of Php130.00 (USD2.95) to Php288.56 (USD6.56) generated in producing briquettes are higher when compared to the majority of waste reclaimers’ daily income of Php124.00 (USD2.82). The high positive response (93%) on the usability of briquettes and the willingness of the respondents (81%) to buy them when sold in the market indicates its promising potential as fuel in the nearby communities. Results of briquette production citing the case of UCLA could be considered as potential source of income given the social, technical, economic and environmental feasibility of the experiment. This method of utilizing wastes in an urban setting of a developing country with similar socio-economic and physical set-ups may also be recommended for testing or replication.
Die wachsende Notwendigkeit zur Energieeinsparung hat in verschiedenen Ländern zur Entwicklung von Prognosemodellen zur Bestimmung des Energiebedarfs im Wohnungssektor geführt. Obwohl Prognosemodelle prinzipiell eine Lösung zur Bestimmung des Energiebedarfs und zur Beurteilung der Auswirkungen von zukünftigen Energieeinsparmaßnahmen darstellen, sind die bestehenden Modelle jedoch mit Unwägbarkeiten in der Modellierung und Mängeln bezüglich der verwendeten Daten und Methodik behaftet.
In dieser Arbeit werden die Übertragbarkeit, Genauigkeit und stochastische Unsicherheit von zwölf Prognosemodellen (MAED-2, FfE-Gebäudemodell, CDEM, REM, CREEM, ECCABS, REEPS, BREHOMES, LEAP, DECM, CHM, BSM) analysiert, wobei Deutschland als Fallbeispiel verwendet wird. Zur Verbesserung der Übertragbarkeit der bestehenden Modelle werden Anpassungen vorgeschlagen. Außerdem wird für jedes Modell eine Bestimmung der einflussreichsten Parameter auf den simulierten Endenergiebedarf mit Hilfe einer Sensitivitätsanalyse vorgenommen. Es konnte gezeigt werden, dass Modelle mit einem hohen Detaillierungsgrad nicht zwangsläufig genauere Ergebnisse für den Endenergiebedarf garantieren. Dennoch wurde festgestellt, dass Modelle mit einem niedrigen Detaillierungsgrad Ergebnisse mit größeren Unsicherheiten liefern als Modelle mit einem höheren Detaillierungsgrad. Es wurde weiterhin festgestellt, dass die einflussreichsten Parameter zur Bestimmung des Endenergiebedarfs im Wohnungssektor Innenraumtemperatur, Außentemperatur (Gradtagzahl), Bevölkerungsentwicklung und Anzahl der Gebäude/Wohnungen sind.
Auf der Grundlage der Erkenntnisse zur Bewertung bestehender Modelle und der Bestimmung der einflussreichsten Parameter wurde ein optimiertes Prognosemodell (Transferable Residential Energy Model, TREM) entwickelt. Mit dessen Hilfe wurde die Entwicklung des Endenergiebedarfs im deutschen Wohnungssektor sowie in anderen Ländern (Vereinigtes Königsreich und Chile) prognostiziert. Diese Ergebnisse wurden anschließend mit statistischen Daten verglichen. Das TREM-Modell bestimmt den Endenergiebedarf auf der Grundlage der wahrscheinlichsten Variationen der einflussreichsten Eingangsparameter mit Hilfe einer Monte-Carlo-Simulation. Im Gegensatz zu bestehenden Modellierungsansätzen liefert das Modell damit auch einen Bereich mit Wahrscheinlichkeitsbändern für den zukünftigen Endenergiebedarf. Die Ergebnisse des TREM-Modells zeigen, dass das Modell genauere Ergebnisse liefern kann als derzeitige Modelle mit einem Mittelwert der prozentualen Differenz niedriger als 5% und einem Korrelationskoeffizienten r höher als 0,35 und darüber hinaus dazu geeignet ist, ohne Anpassungen eine Prognose der Entwicklung des zukünftigen Endenergiebedarfs im Wohnungssektor für unterschiedliche Länder zu erstellen.
This project proposes and applies a research strategy to understand types of cities using the case study of Bogotá. This strategy combines a conceptual framework developed around the notion of ‘centrality’ and ‘urban semiotics’ as a method of qualitative enquiry in order to comprehend complex spatial arrangements as significant constituents of cultural geographies. In this sense, this study problematizes current tendencies such as spatial fragmentation and challenges the argument that contemporary urban ensembles in Latin America are either homogenized within globalization trends or illegible entities with no structural coherence.
Bogotá is addressed as an instrumental case study to redraw generalizations developed from different methodological frameworks about the configuration process of spatial structures and their significance within the Latin American geography. Thus the study questions how urban centrality has evolved as an essential socio-cultural phenomenon and in this manner decodes the messages transmitted by main spatial arrangements. As a first step, the study discusses the construction of spatial meaning and its structural interpretation. In addition, the concept of centrality is examined in depth and an urban centrality typology is introduced to enable the analysis of spatial structures in socio-cultural terms. These contents are followed by the discussion of the existing approaches to the topic and their limitations. Subsequently, this research reconstructs the configuration of Bogotá’s spatial structure which is decoded in the last chapter.
The study concludes that the highly fragmented and uneven condition of urban space in Latin America can be read. The case study of Bogotá substantiates that there is a code that paradoxically provides spatial cohesiveness within unstable socio-spatial hierarchies. Such a spatial code is deciphered through the reading of Bogotá’s spatial structure whose super-centre denotes ‘the sacralisation of authoritarianism’. This is a ‘structural meaning’ related to a specific or intrinsic logic of spatial concentration that is useful for the further discussion of socio-spatial patterns and the meanings of Latin American cities. The concluding remarks integrate the main arguments and outline lines of action in spatial planning processes.
Bunker—TV, TV—Bunker: Heterotope Mechanismen am Beispiel von Schutzbauwerken und (Fernseh-)Serien
(2017)
Die vorliegende Dissertation widmet sich anhand eines kurios anmutenden, aber auf einer Metaebene fruchtbaren Vergleichs von Schutzbauwerken und Fernsehserien historischen und aktuellen Mechanismen menschlichen Denkens und Handelns.
Als theoretische Basis dieser Abhandlung fungiert die Heterotopie – ein Konzept des französischen Philosophen Michel Foucault. Die Heterotopie ist ein inflationär gebrauchtes, oft nur oberflächlich betrachtetes Theorem. Das Konzept wird hier nun mit Blick auf das Gesamtwerk Foucaults en détail untersucht sowie um korrelierende Ansätze (Augé, Lefebvre, Soja ...) ergänzt. Aus dieser Betrachtung lässt sich ein über Foucault hinausgehender, analytisch nutzbarer Katalog ableiten.
Verkürzt wird die Heterotopie folgendermaßen bestimmt: Neben der Definition der Heterotopie als Raum des Anderen, als (gesellschaftskritischer) Gegenraum kann sie dem wie auch immer bestimmten Normalraum unterstellt sein. Die Heterotopie ist möglicherweise eine bauliche Manifestation schwarz-weißen Denkens, von Ausgrenzung und sichtbarer Unsichtbarkeit, sie wird zur Realisation wie auch immer definierter Ideale oder Stereotypen. Die Heterotopie ist allerdings auch als ein (hybrides) Dazwischen denkbar, welches sich als katalytischer Raum, im dialektischen Sinne als Ort der Synthese äußert. Es könnte als Niemandsland oder als Phase (im Leben) charakterisiert werden.
Analog zum letzten Beispiel lässt sich die Heterotopie als progressiv-seriell beschreiben. Ihre stagnierend bis variierende Serialität kann sich im Betreten identischer Räume äußern – mal als verlässlich oder ermüdend empfunden.
Nicht nur die einem entsprechenden Raum entgegengebrachten Konnotationen sind vielfältig bis ambivalent, die Heterotopie ist neben real-räumlicher auch virtueller Fasson: Betonmauer finden bisweilen eine Entsprechung im einfachen Harmoniefernsehen. Einander heterotop gegenüberstehenden Räumen wird etwa mit der Figur Walter White in der komplexen Fernsehserie "Breaking Bad" entsprochen – ist er doch hin und her gerissen zwischen seiner biederen, aber geliebten Familie einerseits und der abstoßend gewalttätigen, aber extrovertierende Potentiale bergenden Drogenproduktion andererseits.
Die sogenannte Leihkörperschaft bzw. die Immersion lassen sich zur Beschreibung verschiedener Heterotopie-Erfahrungen nutzen. Dieses Eintauchen/Betreten wird hier als Rezeptionsphänomen zwischen sensomotorischer Illusion und inhaltlich-narrativem Sog, zw. Fixierung des Körpers und Einbezug desselbigen definiert.
Die beiden Untersuchungsfelder werden jeweils für sich historisch und theoretisch umrissen. Zum noch jungen Feld serieller Theorie/der Definition narrativer Typen (im TV bzw. dem Qualitätsfernsehen) wird ein einführender Überblick geboten.
Die praktischen Arbeiten setzen sich ästhetisch, narrativ und inhaltlich mit der Heterotopie auseinander: In "Habitat" und "Habitat 2" werden serielle Konzepte audiovisuell (u. a. als Fulldome-Version) erprobt. Dabei wird insbesondere das Heterotope im Konzept "Autor" untersucht – der Autor als distinkte und gleichsam konfliktbehaftete, in zahlreiche Subjekte zerlegte Figur. "Habitat 3" ist ein Publikationskonzept, welches mit etablierten (heterotopen) Strukturen des Sammelbands bricht und zugleich die heterotopen Facetten des fiktionalen Fernsehens simuliert.
Band I beinhaltet sowohl den theoretischen Teil der Promotion als auch die Erläuterung der praktischen Arbeiten. Band II ermöglicht einen Einblick in die konzeptionellen Prozesse hinter den drei künstlerischen Projekten.
In contemporary society, data representation is an important and essential part of many aspects of our daily lives. This thesis aims to contribute to our understanding on how people experience data and what role representational modality plays in the process of perception and interpretation. This research is grounded in phenomenology - I align my theoretical exploration to ideas and concepts from philosophical phenomenology, while also respecting the essence of a phenomenological approach in the choice and application of methods. Alongside offering a rich description of people’s experience of data representation, the key contributions I claim transcend four areas: theory, methods, design, and empirical findings. From a theoretical perspective, besides describing a phenomenology of human-data relations, I define, for the first time, multisensory data representation and establish a design space for the study of this class of representation. In relation to methodologies, I describe and deploy two methods to investigate different aspects of data experience. I blend the Repertory Grid technique with a focus group session and show how this adaption can be used to elicit rich design relevant insight. I also introduce the Elicitation Interview technique as a method for gathering detailed and precise accounts of human experience. Furthermore, I describe for the first time, how this technique can be used to elicit accounts of experience with data. My contribution to design relates to the creation of a series of bespoke data-driven artefacts, as well as describing an approach to design that I call Design Probes, which allows researchers to focus their enquiry on specific design features. To answer the research questions I set out in this thesis, I report on a series of empirical studies that used the aforementioned methods. The findings of these studies show, for instance, how certain representational modalities cause us to have heightened awareness of our body, some are more difficult to interpret than others, some rely heavily on instinct and each of them solicit us to reference external events during the process of interpretation. I conclude that a phenomenology of human-data relations show how representational modality affects the way we experience data, it also shows how this experience unfolds and it offers insight into particular moments such as the formation of meaning.
Settlement is human place to live and do various activities (Finch, 1980). Concept of settlement layout is closely associated with human and a set of thoughts and behaviors. In this case, idea of pattern of activities in a society that is core of a culture becomes main factor in process of formation of houses and environment in a settlement. Factors which affecting form (physical) of architecture in a settlement environment are socio-cultural, economic, and religious determinant factor that manifested architectural realization (Rapoport, 1969).
Yogyakarta as the continuation of kingdom city in the Java Island finally exists as an Islamic kingdom that still remain to survive up to now. Impacts of this issue is appearance of various Moslem settlements to support typical character of an Islamic Kingdom.
Mlangi is an area of oldest Moslem settlements in Yogyakarta has not been explored in details for progress especially in physical glasses recently. Everything basic group and individual who arrange houses and residences, starts from how it has spatial concept alone. Although concept is a very abstract thing to explain in details, but its existence can be detected by how they created their physical environment.
This research conducted by these research questions: (1) What are spatial concepts owned by people in Mlangi and (2) How do spatial concepts owned by the people affect the settlements pattern?
Process to search spatial concept owned by the people in Moslem residence, making Mlangi as study area, was approached by using phenomenological research method. The researcher have to self-involved directly in unstructured interviews, but remained in guideline framework of in interviews to make research process effective. Fistly, the researcher interviewed the key person, they are the head of Mlangi administration (pak Dukuh) in Mlangi and Sawahan. They were then give advices to who was capable person that could draw the spatial concept and had many story and knew the history of the settlements. Step by step of interview guided from one informant to next informant when the information had been told repeatedly. The next informant based on the last informant advice or who had close relationship with the last theme appeared. To complete the narration and draw the result of interview, researcher have to add additional information with photograph and descriptive picture that can be draw the settlement empirically.
In process, 17 information units which found in field were consistent with sequence of interview events and flowing of theme to theme associated with Moslem residence of residence. Finally the interviews succeeded in abstracting 16 themes that may be classified into historic, socio-cultural, and spatial-concept dimensions in Mlangi. Process of analysis to find spatial concept owned by the people in Moslem settlements was carried out by dialogue of themes to find available substantive relationship.
Four concepts successfully analyzed consist of concepts of personage, concept of religious implementation, concept of Jero-Jaba and concept of Interest. The four concepts are really associated with one and others in understanding how spatial concept owned by the people affects residence they occupy. Yet, concept of Jero-Jaba bases all concepts of people in Mlangi . This concept can be used to draw red yarn on how they utilize communal spaces in residence and layout rooms of their individual houses. This concept also eternalize residence patterns existing in Mlangi now where residence does not experience many changes from starting of this residence existence (from detection of generation currently still living), namely residence patterns concentrate on orientation to Masjid Pathok Negoro of Mlangi.
This research was opening the potential research area, at least for the sociology, anthropology and demography research interest. So many unique character in Mlangi if looked at from how they maintain their spatial concept and manifested in their daily activities. How the people will concern only for the religious activities and the economic concern only for survival aspect in live.
Keywords: spatial concept, moslem settlements, phenomenology method, Indonesia,
Ein aktuelles Thema in der Forschung der Betonindustrie ist die gezielte Steuerung des Erstarrens und der Entwicklung der (Früh)Festigkeit von Betonen und Mörteln. Aus ökonomischer Sicht sind außerdem die Reduktion der CO2-Emission und die Schonung von Ressourcen und Energie wichtige Forschungsschwerpunkte. Eine Möglichkeit zum Erreichen dieser Ziele ist es, die Reaktivität/Hydratation der silikatischen Klinkerphasen gezielt anzuregen. Neben den bereits bekannten Möglichkeiten der Hydratationsbeschleunigung (u.a. Wärmebehandlung, Zugabe von Salzen) bietet die Anwendung von Power-Ultraschall (PUS) eine weitere Alternative zur Beschleunigung der Zementhydratation. Da bis zum jetzigen Zeitpunkt noch keine Erfahrungen zum Einsatz von PUS in der Zementchemie vorliegen, sollen mit der vorliegenden Arbeit grundlegende Kenntnisse zum Einfluss von PUS auf das Fließ- und Erstarrungsverhalten von Zementsuspensionen erarbeitet werden.
Dazu wurde die Arbeit in fünf Hauptuntersuchungsabschnitte aufgeteilt.
Im ersten Teil wurden optimale PUS-Parameter wie Amplitude und Energieeintrag ermittelt, die eine effiziente Beschleunigung der Portlandzement(CEM I)hydratation bei kurzen Beschallzeiten und begrenzter Zementleimtemperaturerhöhung erlauben. Mit Hilfe unabhängiger Untersuchungsmethoden (Bestimmung des Erstarrungsbeginns, der Festigkeitsentwicklung, zerstörungsfreier Ultraschallprüfung, isothermer Wärmeflusskalorimetrie, hochauflösender Rasterelektronmikroskopie (REM) wurde die Wirkung von PUS auf den Hydratationsverlauf von CEM I-Suspensionen charakterisiert. Die Ergebnisse zeigen, dass die Behandlung von CEM I-Suspensionen mit PUS grundsätzlich ein beschleunigtes Erstarren und eine beschleunigte (Früh)Festigkeitsentwicklung hervorruft.
Anhand von REM-Untersuchungen konnte eindeutig nachgewiesen werden, dass die Beschleunigung der CEM I-Hydratation mit einer beschleunigten Hydratation der Hauptklinkerphase Alit korreliert. Auf Grundlage dieser Erkenntnisse wurden die Ursachen der Aktivierung der Alithydratation untersucht. Dazu wurden Untersuchungen an Einzelsystemen des CEM I (silikatische Klinkerphase) durchgeführt.
Es ist bekannt, das die Hydratation der Hauptklinkerphase Alit (in der reinen Form Tricalciumsilikat 3CaO*SiO2; C3S) durch Lösungs-/Fällungsreaktionen (Bildung von Calcium-Silikat-Hydrat Phasen, C-S-H Phasen) bestimmt wird. Mit Hilfe von Untersuchungen zur Auflösung (C3S) und Kristallbildung (C-S-H Phasen) in Lösungen und Suspensionen (Aufzeichnung der elektrischen Leitfähigkeit sowie Bestimmung der Ionenkonzentrationen der wässrigen Phase, REM-Charakterisierung der Präzipitate) wurde die Beeinflussung dieser durch eine PUS-Behandlung charakterisiert. Die Ergebnisse zeigen, dass in partikelfreien Lösungen (primäre Keimbildung) eine PUS-Behandlung keinen Einfluss auf die Kinetik der Kristallisation von C-S-H Phasen hervorruft. Das heißt, auch die durch PUS eingetragene Energie reicht offensichtlich nicht aus, um in Abwesenheit von Oberflächen die C-S-H Phasen Bildung zu beschleunigen. Das weist darauf hin, dass die Bildung von C-S-H Phasen nicht durch eine Beschleunigung von Ionen in der Lösung (erhöhte Diffusion durch Anwendung von PUS) hervorgerufen wird. Eine Beschleunigung des Kristallisationsprozesses (Keimbildung und Wachstum von C-S-H Phasen) durch PUS wird nur in Anwesenheit von Partikeln in der Lösung (Suspension) erzielt. Das belegen Ergebnisse, bei denen die Bildung erster C-S-H Phasen bei geringer Übersättigung (heterogene Keimbildung, in Anwesenheit von Oberflächen) erfolgt. Unter diesen Bedingungen konnte gezeigt werden, dass PUS innerhalb der ersten 30 Minuten der Hydratation eine erhöhte Fällung von ersten C-S-H Phasen bewirkt. Diese fungieren dann vermutlich während der Haupthydratation als Keim bzw. geeignete Oberfläche zum beschleunigten Aufwachsen von weiteren C-S-H Phasen. Weiterhin ist vorstellbar, dass (in Analogie zu anderen Bereichen der Sonochemie) PUS durch Kavitation Schockwellen hervorruft, welche Partikel und wässriges Medium beschleunigen und damit erhöhte Partikelbewegungen und -kollisionen induziert. Dies wiederum bewirkt, dass die anfänglich auf der C3S-Oberfläche gebildeten C-S-H Phasen teilweise wieder entfernt werden. Damit ist das Inlösunggehen von Ca- und Si-Ionen aus dem C3S weiterhin möglich. Um den genauen Mechanismus weiter zu charakterisieren sollten mit geeigneten Methoden weitere Untersuchungen durchgeführt werden.
Im zweiten Teil der Arbeit wurde der Einfluss von PUS auf das Fließverhalten von CEM I-Suspensionen untersucht. Aus der Anwendung von PUS in anderen technischen Bereichen sind unter anderem Effekte wie das Entlüften, das Homogenisieren und das Dispergieren von Suspensionen und Emulsionen mittels PUS bekannt. Mit Hilfe der Bestimmung des Luftporengehaltes, Sedimentationsversuchen und cryo-SEM Untersuchungen wurde der Einfluss von PUS auf CEM I-Suspensionen charakterisiert. Die Ergebnisse belegen, dass durch PUS eine verbesserte Homogenität und Dispergierung der CEM I-Suspension erzielt wird. Damit wird für CEM I-Suspensionen unterschiedlichster w/z-Werte eine verbesserte Fließfähigkeit festgestellt. Ergebnisse der Bestimmung von Ausbreitmaßen und Trichterauslaufzeiten zeigen, dass PUS einen direkten Einfluss vor allem auf die Viskosität der CEM I-Suspensionen besitzt. Werden Fließmitteln (FM) der CEM I-Suspension zugegeben, wird nicht in jedem Fall eine verbesserte Fließfähigkeit festgestellt. Hier scheint unter bestimmten Voraussetzungen (w/z-Wert, FM-Gehalt, PUS) die Reaktion zwischen Aluminat- und Sulfatphase des Klinkers gestört. Zur eindeutigen Klärung dieses Sachverhaltes bedarf es jedoch weiterer quantitativer Untersuchungen zum Reaktionsumsatz.
Im dritten Teil der Arbeit wurden die am CEM I gewonnenen Erkenntnisse zum Einfluss von PUS auf die Hydratation an Portland-Hüttensand(HÜS)-Zement-Systemen verifiziert. Dafür
wurden auch in diesem Teil der Arbeit zunächst die optimalen PUS-Parameter festgelegt und der Einfluss auf das Erstarrung- und Erhärtungsverhalten dokumentiert. Untersuchungsmethoden sind unter anderem die Bestimmung des Erstarrungsbeginns und der (Früh)Festigkeitsentwicklung, Temperaturaufzeichnungen und isothermale Wärmeflusskalorimetrie sowie REM. Die Ergebnisse zeigen, dass auch die Reaktion von HÜS-Zementen durch PUS beschleunigt wird. Weiterführende Untersuchungen belegen, dass die erzielte Beschleunigung vorwiegend auf der Beschleunigung der Alitkomponente des CEM I beruht.
Im Fokus der Teile vier und fünf dieser Arbeit stand die Anwendbarkeit der PUS-Technik unter praktischen Bedingungen. Zum einen wurde die Anwendbarkeit von PUS in fertig gemischten Mörteln beurteilt. Anhand des Vergleichs wichtiger Frisch- und Festmörteleigenschaften unterschiedlich hergestellter Mörtel (beschallt im Anschluss an konventionelle Mischtechnik, beschallt im Anschluss an Suspensionsmischtechnik mit anschließender Zumischung der Gesteinskörnung und nicht beschallt) wird gezeigt, dass im Fall von Mörteln mit hohem Leimanteil eine durch PUS induzierte beschleunigte Festigkeitsentwicklung auch mit herkömmlichen Mischabläufen (ohne aufwendige Umstellung des Mischprozesses) möglich ist.
Abschließend wird untersucht, ob der Herstellungsprozess von Wandbauteilen im Fertigteilwerk durch den Einsatz von PUS optimiert werden kann und ob eine Einbindung der PUS-Technik in den Fertigungsprozess ohne größeren Aufwand möglich ist. Dazu wurden in einem ersten Schritt die Frisch- und Festbetoneigenschaften eines aktuell angewendeten selbstverdichtenden Betons im Labormaßstab (Mörtel) in Abhängigkeit einer PUS-Behandlung dokumentiert und mit der seiner unbeschallten Referenz verglichen. Aufgrund der durch PUS verursachten verbesserten Fließ- und Festigkeitseigenschaften kann die beschallte Mörtelrezeptur hinsichtlich Fließmittelgehalt und Dauer der Wärmebehandlung optimiert werden. Somit werden ca. 30 % der Fließmittelzugabe und 40 % der Dauer der Wärmebehandlung eigespart. Eine Einbindung der PUS-Technik in das betrachtete Fertigteilwerk ist nach Überprüfung der konstruktiven Gegebenheiten der Fertigungsstrukturen ohne größeren Aufwand möglich.
The thesis investigates at the computer aided simulation process for operational vibration analysis of complex coupled systems. As part of the internal methods project “Absolute Values” of the BMW Group, the thesis deals with the analysis of the structural dynamic interactions and excitation interactions. The overarching aim of the methods project is to predict the operational vibrations of engines.
Simulations are usually used to analyze technical aspects (e. g. operational vibrations, strength, ...) of single components in the industrial development. The boundary conditions of submodels are mostly based on experiences. So the interactions with neighboring components and systems are neglected. To get physically more realistic results but still efficient simulations, this work wants to support the engineer during the preprocessing phase by useful criteria.
At first suitable abstraction levels based on the existing literature are defined to identify structural dynamic interactions and excitation interactions of coupled systems. So it is possible to separate different effects of the coupled subsystems. On this basis, criteria are derived to assess the influence of interactions between the considered systems. These criteria can be used during the preprocessing phase and help the engineer to build up efficient models with respect to the interactions with neighboring systems. The method was developed by using several models with different complexity levels. Furthermore, the method is proved for the application in the industrial environment by using the example of a current combustion engine.
The world society faces a huge challenge to implement the human right of “access to sanitation”. More and more it is accepted that the conventional approach towards providing sanitation services is not suitable to solve this problem. This dissertation examines the possibility to enhance “access to sanitation” for people who are living in areas with underdeveloped water and wastewater infrastructure systems. The idea hereby is to follow an integrated approach for sanitation, which allows for a mutual completion of existing infrastructure with resource-based sanitation systems.
The notion “integrated sanitation system (iSaS)” is defined in this work and guiding principles for iSaS are formulated. Further on the implementation of iSaS is assessed at the example of a case study in the city of Darkhan in Mongolia. More than half of Mongolia’s population live in settlements where yurts (tents of Nomadic people) are predominant. In these settlements (or “ger areas”) sanitation systems are not existent and the hygienic situation is precarious.
An iSaS has been developed for the ger areas in Darkhan and tested over more than two years. Further on a software-based model has been developed with the goal to describe and assess different variations of the iSaS. The results of the assessment of material-flows, monetary-flows and communication-flows within the iSaS are presented in this dissertation. The iSaS model is adaptable and transferable to the socio-economic conditions in other regions and climate zones.
In the early 2000s the pre-Columbian, anthropologically produced black soil in the Amazon basin, „Terra Preta de Índio“, received greater scientific attention. Compared to the surrounding poor soils, this very fertile anthrosol contains significantly higher levels of microorganisms and nutrients. The reason for this was determined to be the likewise high levels of charred biomass. This stable carbon, now called biochar, has since been intensively examined as an option to improve soil and to store carbon.
Although the creation of Terra Preta was most likely based on a purposeful utilization of organic residues from households and gardens, biochar plays no role in the current recycling of bio-waste. However, the implementation of biochar could lead to many improvements. Results from agricultural research suggest that not only the yield capacity of soils can be increased but also the process performance of composting and biogas plants.
The latter is especially relevant since currently about 40% of all collected bio-waste in Germany is recycled in an energy-material cascade consisting of anaerobic digestion and composting. The use of biochar in this cascade could then sequentially increase biogas yields, reduce greenhouse gas emissions, and improve compost quality.
To realize the aforementioned advantages, the concept of biochar has to be integrated into the existing bio-waste cascade as practically as possible. This was done by the development of a theoretical scenario that allowed the analysis of energy and material flows to evaluate biochar’s recycling performance. Furthermore, the legal and economic framework were examined to assess the feasibility of the extended cascade and to suggest possible adjustments to the frameworks.
The gradual digitization in the architecture, engineering, and construction industry over the past fifty years led to an extremely heterogeneous software environment, which today is embodied by the multitude of different digital tools and proprietary data formats used by the many specialists contributing to the design process in a construction project. Though these projects become increasingly complex, the demands on financial efficiency and the completion within a tight schedule grow at the same time. The digital collaboration of project partners has been identified as one key issue in successfully dealing with these challenges. Yet currently, the numerous software applications and their respective individual views on the design process severely impede that collaboration.
An approach to establish a unified basis for the digital collaboration, regardless of the existing software heterogeneity, is a comprehensive digital building model contributed to by all projects partners. This type of data management known as building information modeling (BIM) has many benefits, yet its adoption is associated with many difficulties and thus, proceeds only slowly. One aspect in the field of conflicting requirements on such a digital model is the cooperation of architects and structural engineers. Traditionally, these two disciplines use different abstractions of reality for their models that in consequence lead to incompatible digital representations thereof.
The onset of isogeometric analysis (IGA) promised to ease the discrepancy in design and analysis model representations. Yet, that initial focus quickly shifted towards using these methods as a more powerful basis for numerical simulations. Furthermore, the isogeometric representation alone is not capable of solving the model abstraction problem. It is thus the intention of this work to contribute to an improved digital collaboration of architects and engineers by exploring an integrated analysis approach on the basis of an unified digital model and solid geometry expressed by splines. In the course of this work, an analysis framework is developed that utilizes such models to automatically conduct numerical simulations commonly required in construction projects. In essence, this allows to retrieve structural analysis results from BIM models in a fast and simple manner, thereby facilitating rapid design iterations and profound design feedback.
The BIM implementation Industry Foundation Classes (IFC) is reviewed with regard to its capabilities of representing the unified model. The current IFC schema strongly supports the use of redundant model data, a major pitfall in digital collaboration. Additionally, it does not allow to describe the geometry by volumetric splines. As the pursued approach builds upon a unique model for both, architectural and structural design, and furthermore requires solid geometry, necessary schema modifications are suggested.
Structural entities are modeled by volumetric NURBS patches, each of which constitutes an individual subdomain that, with regard to the analysis, is incompatible with the remaining full model. The resulting consequences for numerical simulation are elaborated in this work. The individual subdomains have to be weakly coupled, for which the mortar method is used. Different approaches to discretize the interface traction fields are implemented and their respective impact on the analysis results is evaluated. All necessary coupling conditions are automatically derived from the related geometry model.
The weak coupling procedure leads to a linear system of equations in saddle point form, which, owed to the volumetric modeling, is large in size and, the associated coefficient matrix has, due to the use of higher degree basis functions, a high bandwidth. The peculiarities of the system require adapted solution methods that generally cause higher numerical costs than the standard procedures for symmetric, positive-definite systems do. Different methods to solve the specific system are investigated and an efficient parallel algorithm is finally proposed.
When the structural analysis model is derived from the unified model in the BIM data, it does in general initially not meet the requirements on the discretization that are necessary to obtain sufficiently accurate analysis results. The consequently necessary patch refinements must be controlled automatically to allowfor an entirely automatic analysis procedure. For that purpose, an empirical refinement scheme based on the geometrical and possibly mechanical properties of the specific entities is proposed. The level of refinement may be selectively manipulated by the structural engineer in charge. Furthermore, a Zienkiewicz-Zhu type error estimator is adapted for the use with isogeometric analysis results. It is shown that also this estimator can be used to steer an adaptive refinement procedure.
Die Festigkeitsentwicklung des Zementbetons basiert auf der chemischen Reaktion des Zementes mit dem Anmachwasser. Durch Nachbehandlungsmaßnahmen muss dafür gesorgt werden, dass dem Zement genügend Wasser für seine Reaktion zur Verfügung steht, da sonst ein Beton mit minderer Qualität entsteht. Die vorliegende Arbeit behandelt die grundsätzlichen Fragen der Betonnachbehandlung bei Anwendung von Straßenbetonen. Im Speziellen wird die Frage des erforderlichen Nachbehandlungsbedarfs von hüttensandhaltigen Kompositzementen betrachtet. Die Wirkung der Nachbehandlung wird anhand des erreichten Frost-Tausalz-Widerstandes und der Gefügeausbildung in der unmittelbaren Betonrandzone bewertet. Der Fokus der Untersuchungen lag auf abgezogenen Betonoberflächen. Es wurde ein Modell zur Austrocknung des jungen Betons erarbeitet. Es konnte gezeigt werden, dass in einer frühen Austrocknung (Kapillarphase) keine kritische Austrocknung der Betonrandzone einsetzt, sondern der Beton annährend gleichmäßig über die Höhe austrocknet. Es wurde ein Nomogramm entwickelt, mit dem die Dauer der Kapillarphase in Abhängigkeit der Witterung für Straßenbetone abgeschätzt werden kann. Eine kritische Austrocknung der wichtigen Randzone setzt nach Ende der Kapillarphase ein. Für Betone unter Verwendung von Zementen mit langsamer Festigkeitsentwicklung ist die Austrocknung der Randzone nach Ende der Kapillarphase besonders ausgeprägt. Im Ergebnis zeigen diese Betone dann einen geringen Frost-Tausalz-Widerstand. Mit Zementen, die eine 2d-Zementdruckfestigkeit ≥ 23,0 N/mm² aufweisen, wurde unabhängig von der Zementart (CEM I oder CEM II/B-S) auch dann ein hoher Frost-Tausalz-Widerstand erreicht, wenn keine oder eine schlechtere Nachbehandlung angewendet wurde. Für die Praxis ergibt sich damit eine einfache Möglichkeit der Vorauswahl von geeigneten Zementen für den Verkehrsflächenbau. Betone, die unter Verwendung von Zementen mit langsamere Festigkeitsentwicklung hergestellt werden, erreichen einen hohen Frost-Tausalz-Widerstand nur mit einer geeigneten Nachbehandlung. Die Anwendung von flüssigen Nachbehandlungsmitteln (NBM gemäß TL NBM-StB) erreicht eine ähnliche Wirksamkeit wie eine 5 tägige Feuchtnachbehandlung. Voraussetzung für die Wirksamkeit der NBM ist, dass sie auf eine Betonoberfläche ohne sichtbaren Feuchtigkeitsfilm (feuchter Glanz) aufgesprüht werden. Besonders wichtig ist die Beachtung des richtigen Auftragszeitpunktes bei kühler Witterung, da hier aufgrund der verlangsamten Zementreaktion der Beton länger Anmachwasser abstößt. Ein zu früher Auftrag des Nachbehandlungsmittels führt zu einer Verschlechterung der Qualität der Betonrandzone. Durch Bereitstellung hydratationsabhängiger Transportkenngrößen (Feuchtetransport im Beton) konnten numerische Berechnungen zum Zusammenspiel zwischen der Austrocknung, der Nachbehandlung und der Gefügeentwicklung durchgeführt werden. Mit dem erstellten Berechnungsmodell wurden Parameterstudien durchgeführt. Die Berechnungen bestätigen die wesentlichen Erkenntnisse der Laboruntersuchungen. Darüber hinaus lässt sich mit dem Berechnungsmodell zeigen, dass gerade bei langsam reagierenden Zementen und kühler Witterung ohne eine Nachbehandlung eine sehr dünne Randzone (ca. 500 µm – 1000 µm) mit stark erhöhter Kapillarporosität entsteht.
Phase Field Modeling for Fracture with Applications to Homogeneous and Heterogeneous Materials
(2017)
The thesis presents an implementation including different applications of a variational-based approach for gradient type standard dissipative solids. Phase field model for brittle fracture is an application of the variational-based framework for gradient type solids. This model allows the prediction of different crack topologies and states. Of significant concern is the application of theoretical and numerical formulation of the phase field modeling into the commercial finite element software Abaqus in 2D and 3D. The fully coupled incremental variational formulation of phase field method is implemented by using the UEL and UMAT subroutines of Abaqus. The phase field method
considerably reduces the implementation complexity of fracture problems as it removes the need for numerical tracking of discontinuities in the displacement field that are characteristic of discrete crack methods. This is accomplished by replacing the sharp discontinuities with a scalar damage phase field representing the diffuse crack topology wherein the amount of diffusion is controlled by a regularization parameter. The nonlinear coupled system consisting of the linear momentum equation and a diffusion type equation governing the phase field evolution is solved simultaneously via a Newton-
Raphson approach. Post-processing of simulation results to be used as visualization
module is performed via an additional UMAT subroutine implemented in the standard Abaqus viewer.
In the same context, we propose a simple yet effective algorithm to initiate and propagate cracks in 2D geometries which is independent of both particular constitutive laws and specific element technology and dimension. It consists of a localization limiter in the form of the screened Poisson equation with, optionally, local mesh refinement. A staggered scheme for standard equilibrium and screened Cauchy equations is used. The remeshing part of the algorithm consists of a sequence of mesh subdivision and element erosion steps. Element subdivision is based on edge split operations using a
given constitutive quantity (either damage or void fraction). Mesh smoothing makes use of edge contraction as function of a given constitutive quantity such as the principal stress or void fraction. To assess the robustness and accuracy of this algorithm, we use both quasi-brittle benchmarks and ductile tests.
Furthermore, we introduce a computational approach regarding mechanical loading in microscale on an inelastically deforming composite material. The nanocomposites material of fully exfoliated clay/epoxy is shaped to predict macroscopic elastic and fracture related material parameters based on their fine–scale features. Two different configurations of polymer nanocomposites material (PNCs) have been studied. These configurations are fully bonded PNCs and PNCs with an interphase zone formation between the matrix and the clay reinforcement. The representative volume element of PNCs specimens with different clay weight contents, different aspect ratios, and different
interphase zone thicknesses are generated by adopting Python scripting. Different constitutive models are employed for the matrix, the clay platelets, and the interphase zones. The brittle fracture behavior of the epoxy matrix and the interphase zones material are modeled using the phase field approach, whereas the stiff silicate clay platelets of the composite are designated as a linear elastic material. The comprehensive study investigates the elastic and fracture behavior of PNCs composites, in addition to predict Young’s modulus, tensile strength, fracture toughness, surface energy dissipation, and cracks surface area in the composite for different material parameters, geometry, and interphase zones properties and thicknesses.
This research addresses the discourse of tourism as a tool for place-making of urban destination. Relevant to the study of place-making is the analysis of the commoditization and localization process dependent upon the appropriation of urban landscape and local cultures. In the research, localization is interpreted as the act of determining the attributes of locality, while commoditization is defined as the process by which local attributes that have commercial potential end up in becoming tourism commodity. Following this, the commoditization of intrinsic cultural value is disseminated within a branding strategy and intervention reflecting social and political relations. Therefore, the research suggests that tourism place-making has not only been constructed through the top-down regulatory body, but has been also generated through the attributes of its locality. By utilizing the critical and constructivist paradigm, the research depicts the conditions of the localization and commoditization process in establishing the base line of its realization within the symbolic economy. Thus, a qualitative case study approach was adopted. The study area of this dissertation is Palembang, as one of the capital cities in Indonesia advancing in its overall urban development. To investigate urban tourism as a tool for development strategy, it is useful to investigate the role of tourism which embodies (1) spatial transformation; how tourism gives significant impacts on urban form, and (2) the socio-cultural aspect; how neighbourhood is related to tourism industry. The findings suggest that tourism place-making involves the reciprocity of urban dynamics: cities take on tourism as a reference model of development, and tourist areas adopt the proliferation of cultural lifestyle to meet the industry’s demands.
The research examines the system of strategic and territorial planning of St. Petersburg focusing on Lomonosov (Oranienbaum) as its case study. The study provides the analysis of the planning documentation developed for the city in the post-Soviet period. In particular, it elaborates on the currently enforced Strategy of Economic and Social Development of St. Petersburg-2030 (2014) and the City General Plan (2005), discussing the aspects of their development and implementation, as well as complex interrelation.
Thereby, peculiarities of the spatial development of the St. Petersburg agglomeration are also investigated, elaborating on the state policy on agglomerations, historic development of St. Petersburg and relations with the Leningrad Region, governance and imbalances of the St. Petersburg spatial development, including proposed development scenarios.
Consequently, the study employs a highly indicative case of the Lomonosov town municipal unit aiming to illustrate the practical implementation of administrative, territorial and strategic policies in a given context within a system of the state planning adopted in St. Petersburg, in particular, taking into consideration recently proclaimed necessity for the transition to a polycentric city model following an innovative scenario for the socioeconomic and spatial development.
In particular, Lomonosov (Oranienbaum) is explored egarding its current socio-economic situation and development scenarios: industrial site and cultural tourism. The Oranienbaum museum and nature-reserve is also thoroughly assessed with regard to its cultural tourism potential.
Finally, the urban environment of Lomonosov (Oranienbaum) is comprehensively scrutinized in terms of its historic development, residential housing typology, UNESCO World Heritage preservation and local urban heritage. In conclusion, the data on Lomonosov present in the St. Petersburg strategic and territorial planning documents is provided.
The main categories of wind effects on long span bridge decks are buffeting, flutter, vortex-induced vibrations (VIV) which are often critical for the safety and serviceability of the structure. With the rapid increase of bridge spans, research on controlling wind-induced vibrations of long span bridges has been a problem of great concern.The developments of vibration control theories have led to the wide use of tuned mass dampers (TMDs) which has been proven to be effective for suppressing these vibrations both analytically and experimentally. Fire incidents are also of special interest in the stability and safety of long span bridges due to significant role of the complex phenomenon through triple interaction between the deck with the incoming wind flow and the thermal boundary of the surrounding air.
This work begins with analyzing the buffeting response and flutter instability of three dimensional computational structural dynamics (CSD) models of a cable stayed bridge due to strong wind excitations using ABAQUS finite element commercial software. Optimization and global sensitivity analysis are utilized to target the vertical and torsional vibrations of the segmental deck through considering three aerodynamic parameters (wind attack angle, deck streamlined length and viscous damping of the stay cables). The numerical simulations results in conjunction with the frequency analysis results emphasized the existence of these vibrations and further theoretical studies are possible with a high level of accuracy. Model validation is performed by comparing the results of lift and moment coefficients between the created CSD models and two benchmarks from the literature (flat plate theory) and flat plate by (Xavier and co-authors) which resulted in very good agreements between them. Optimum values of the parameters have been identified. Global sensitivity analysis based on Monte Carlo sampling method was utilized to formulate the surrogate models and calculate the sensitivity indices. The rational effect and the role of each parameter on the aerodynamic stability of the structure were calculated and efficient insight has been constructed for the stability of the long span bridge.
2D computational fluid dynamics (CFD) models of the decks are created with the support of MATLAB codes to simulate and analyze the vortex shedding and VIV of the deck. Three aerodynamic parameters (wind speed, deck streamlined length and dynamic viscosity of the air) are dedicated to study their effects on the kinetic energy of the system and the vortices shapes and patterns. Two benchmarks from the literature (Von Karman) and (Dyrbye and Hansen) are used to validate the numerical simulations of the vortex shedding for the CFD models. A good consent between the results was detected. Latin hypercube experimental
method is dedicated to generate the surrogate models for the kinetic energy of the system and the generated lift forces. Variance based sensitivity analysis is utilized to calculate the main sensitivity indices and the interaction orders for each parameter. The kinetic energy approach performed very well in revealing the rational effect and the role of each parameter in the generation of vortex shedding and predicting the early VIV and the critical wind speed.
Both one-way fluid-structure interaction (one-way FSI) simulations and two-way fluid-structure interaction (two-way FSI) co-simulations for the 2D models of the deck are executed to calculate the shedding frequencies for the associated wind speeds in the lock-in region in addition to the lift and drag coefficients. Validation is executed with the results of (Simiu and Scanlan) and the results of flat plate theory compiled by (Munson and co-authors) respectively. High levels of agreements between all the results were detected. A decrease in the critical wind speed and the shedding frequencies considering (two-way FSI) was identified compared to those obtained in the (one-way FSI). The results from the (two-way FSI) approach predicted appreciable decrease in the lift and drag forces as well as prediction of earlier VIV for lower critical wind speeds and lock-in regions which exist at lower natural frequencies of the system. These conclusions help the designers to efficiently plan and consider for the design and safety of the long span bridge before and after construction.
Multiple tuned mass dampers (MTMDs) system has been applied in the three dimensional CSD models of the cable stayed bridge to analyze their control efficiency in suppressing both wind -induced vertical and torsional vibrations of the deck by optimizing three design parameters (mass ratio, frequency ratio and damping ratio) for the (TMDs) supporting on actual field data and minimax optimization technique in addition to MATLAB codes and Fast Fourier Transform technique. The optimum values of each parameter were identified and validated with two benchmarks from the literature, first with (Wang and co-authors) and then with (Lin and co-authors). The validation procedure detected a good agreement between the results. Box-Behnken experimental method is dedicated to formulate the surrogate models to represent the control efficiency of the vertical and torsional vibrations. Sobol's sensitivity indices are calculated for the design parameters in addition to their interaction orders. The optimization results revealed better performance of the MTMDs in controlling both the vertical and the torsional vibrations for higher mode shapes. Furthermore, the calculated rational effect of each design parameter facilitates to increase the control efficiency of the MTMDs in conjunction with the support of the surrogate models which simplifies the process of analysis for vibration control to a great extent.
A novel structural modification approach has been adopted to eliminate the early coupling between the bending and torsional mode shapes of the cable stayed bridge. Two lateral steel
beams are added to the middle span of the structure. Frequency analysis is dedicated to obtain the natural frequencies of the first eight mode shapes of vibrations before and after the structural modification. Numerical simulations of wind excitations are conducted for the 3D model of the cable stayed bridge. Both vertical and torsional displacements are calculated at the mid span of the deck to analyze the bending and the torsional stiffness of the system before and after the structural modification. The results of the frequency analysis after applying lateral steel beams declared that the coupling between the vertical and torsional mode shapes of vibrations has been removed to larger natural frequencies magnitudes and higher rare critical wind speeds with a high factor of safety.
Finally, thermal fluid-structure interaction (TFSI) and coupled thermal-stress analysis are utilized to identify the effects of transient and steady state heat-transfer on the VIV and fatigue of the deck due to fire incidents. Numerical simulations of TFSI models of the deck are dedicated to calculate the lift and drag forces in addition to determining the lock-in regions once using FSI models and another using TFSI models. Vorticity and thermal fields of three fire scenarios are simulated and analyzed. The benchmark of (Simiu and Scanlan) is used to validate the TFSI models, where a good agreement was manifested between the two results. Extended finite element method (XFEM) is adopted to create 3D models of the cable stayed bridge to simulate the fatigue of the deck considering three fire scenarios. The benchmark of (Choi and Shin) is used to validate the damaged models of the deck in which a good coincide was seen between them. The results revealed that the TFSI models and the coupled thermal-stress models are significant in detecting earlier vortex induced vibration and lock-in regions in addition to predicting damages and fatigue of the deck and identifying the role of wind-induced vibrations in speeding up the damage generation and the collapse of the structure in critical situations.
During the previous decades, the upcoming demand for security in the digital world, e.g., the Internet, lead to numerous groundbreaking research topics in the field of cryptography. This thesis focuses on the design and analysis of cryptographic primitives and schemes to be used for authentication of data and communication endpoints, i.e., users. It is structured into three parts, where we present the first freely scalable multi-block-length block-cipher-based compression function (Counter-bDM) in the first part. The presented design is accompanied by a thorough security analysis regarding its preimage and collision security. The second and major part is devoted to password hashing. It is motivated by the large amount of leaked password during the last years and our discovery of side-channel attacks on scrypt – the first modern password scrambler that allowed to parameterize the amount of memory required to compute a password hash. After summarizing which properties we expect from a modern password scrambler, we (1) describe a cache-timing attack on scrypt based on its password-dependent memory-access pattern and (2) outline an additional attack vector – garbage-collector attacks – that exploits optimization which may disregard to overwrite the internally used memory. Based on our observations, we introduce Catena – the first memory-demanding password-scrambling framework that allows a password-independent memory-access pattern for resistance to the aforementioned attacks. Catena was submitted to the Password Hashing Competition (PHC) and, after two years of rigorous analysis, ended up as a finalist gaining special recognition for its agile framework approach and side-channel resistance. We provide six instances of Catena suitable for a variety of applications. We close the second part of this thesis with an overview of modern password scramblers regarding their functional, security, and general properties; supported by a brief analysis of their resistance to garbage-collector attacks. The third part of this thesis is dedicated to the integrity (authenticity of data) of nonce-based authenticated encryption schemes (NAE). We introduce the so-called j-IV-Collision Attack, allowing to obtain an upper bound for an adversary that is provided with a first successful forgery and tries to efficiently compute j additional forgeries for a particular NAE scheme (in short: reforgeability). Additionally, we introduce the corresponding security notion j-INT-CTXT and provide a comparative analysis (regarding j-INT-CTXT security) of the third-round submission to the CAESAR competition and the four classical and widely used NAE schemes CWC, CCM, EAX, and GCM.
The building sector is responsible for a large share of human environmental impacts. Architects and planners are the key players for reducing the environmental impacts of buildings, as they define them to a large extent. Life Cycle Assessment (LCA) allows for the holistic environmental analysis of a building. However, it is currently not employed to improve the environmental performance of buildings during the design process, although the potential for optimization is greatest there. One main reason is the lack of an adequate means of applying LCA in the architectural design process. As such, the main objective of this thesis is to develop a method for environmental building design optimization that is applicable in the design process. The key concept proposed in this thesis is to combine LCA with parametric design, because it proved to have a high potential for design optimization.
The research approach includes the analysis of the characteristics of LCA for buildings and the architectural design stages to identify the research gap, the establishment of a requirement catalogue, the development of a method based on a digital, parametric model, and an evaluation of the method.
An analysis of currently available approaches for LCA of buildings indicates that they are either holistic but very complex or simple but not holistic. Furthermore, none of them provide the opportunity for optimization in the architectural design process, which is the main research gap. The requirements derived from the analysis have been summarized in the form of a catalogue. This catalogue can be used to evaluate both existing approaches and potential methods developed in the future. In this thesis, it served as guideline for the development of the parametric method – Parametric Life Cycle Assessment (PLCA). The unique main feature of PLCA is that embodied and operational environmental impact are calculated together. In combination with the self-contained workflow of the method, this provides the basis for holistic, time-efficient environmental design optimization. The application of PLCA to three examples indicated that all established mandatory requirements are met. In all cases, environmental impact could be significantly reduced. In comparison to conventional approaches, PLCA was shown to be much more time-efficient.
PLCA allows architects to focus on their main task of designing the building, and finally makes LCA practically useful as one of several criteria for design optimization. With PLCA, the building design can be time-efficiently optimized from the beginning of the most influential early design stages, which has not been possible until now. PLCA provides a good starting point for further research. In the future, it could be extended by integrating the social and economic aspects of sustainability.
Since the end of the 1950s, Italy has focused part of its modernization on the erection of public works. Due to corruption, mafia, and further malpractice, this form of development has occasionally failed, producing a high number of constructions that have remained unfinished for decades. In 2007, the group of artists Alterazioni Video constructed an informal survey in the form of an on-line tool open to public contributions, which revealed that there are 395 unfinished public works in Italy from which 156, approximately 39.5%, are located in Sicily alone. In view of such a statistic, Alterazioni Video opted to coin the term ‘Incompiuto Siciliano’ – literally ‘Sicilian Incompletion’ – to refer to unfinished public works as a formal architectural style. This re-interpretation, which aims to convey the recovered dignity of these ‘modern ruins’, considers unfinished public works a type of heritage with the potential to represent the entirety of Italian society. Furthermore, it goes as far as to say an unfinished public work is ‘Incompiuto Siciliano’ despite being located in another of the Italian regions.
This doctoral dissertation embraces the artists’ argument to develop a complete study of Incompiuto Siciliano by embedding this architectural style/artistic project within the main debates on modern ruins at present. This is important because it is expected to contribute to the revalorization and eventual recommissioning of unfinished sites by validating Incompiuto Siciliano in the realm of academia. Furthermore, this work aspires to be a worthwhile source of information for future investigations dealing with cultural interpretations of incompletion in any other context – a not unreasonable goal considering how unfinished works are one of the key urban topics after the 2008 financial crisis. Hence, this doctoral dissertation uses Incompiuto Siciliano to discuss a different perspective in each of the five chapters and, though these can be read as independent contributions, the objective is that all chapters read together, form a clear, concise, continuous unit. And so it must be said this is not a dissertation about unfinished public works in Italy; this is a dissertation about Incompiuto Siciliano as an artistic response to unfinished public works in Italy – which clearly requires an interdisciplinary analysis involving Urban Studies, Cultural Geography, Contemporary Archaeology, Critical Heritage and Visual Arts.
Die Arbeit beschäftigt sich mit den Auswirkungen des Baus von neuen Stadtautobahnen in Santiago de Chile. Ziel der Studie ist, die Veränderungen im Segregationsmuster der Hauptstadt Chiles, die durch den Bau dieser Autobahnen entstanden sind, zu beschreiben.
Die Arbeit betrachtet die Entstehung von Segregationsmustern als kulturell-historisches Phänomen urbaner Bedeutung, weswegen die Entwicklung der Stadt Santiago und deren Segregationsmuster nicht nur aus der Perspektive der Stadtsoziologie und der Stadtgeographie, sondern auch aus einer historischen Perspektive analysiert wird. Dabei liegt der Schwerpunkt der Arbeit auf der Wechselbeziehung zwischen Verkehrsinfrastruktur und sozial-räumlicher Verteilung der verschiedenen sozialen Gruppen.
Die Entstehung der neuen Stadtautobahnen in Santiago de Chile lässt sich nur durch eine mehrdimensionale Betrachtung erklären. Diese Bauten und die besondere Art in der sie gebaut und betrieben werden, konnten nur durch die Einführung von Konzessionsmechanismen innerhalb einer neoliberalen Markwirtschaft entstehen. In diesem sozial-ökonomischer Rahmen, bei dem die Bürger lediglich als potenzielle Kunden betrachtet werden, sind die Infrastrukturbauten – darunter auch die Stadtautobahnen – maßgeschneiderte Produkte für eine Minderheit. Dieses Konzept hat gravierende Folgen für das Sozialgefüge der Stadt Santiago.
Die Folgen der Einführung der Stadtautobahnen auf das Segregationsmuster und das Sozialgefüge der Hauptstadt Chiles werden anhand zweier Fallstudien veranschaulicht. Mittels einer mehrschichtigen qualitativen Methodik werden die Auswirkungen des Baus von Stadtautobahnen im Armenviertel »Santo Tomás« des südlichen Stadtbezirk »La Pintana« und im elitären »Condominio La Reserva« im nördlichen Ausdehnungsgebiet »Chacabuco« analysiert.
Anschließend wird ein neues Beschreibungsmodell für die lateinamerikanische Stadt vorgeschlagen; das »symbiotische Stadtmodell« stützt sich zum größten Teil auf den Ausbau des Autobahnnetzes.
Organisation im soziotechnischen Gemenge - Mediale Umschichtungen durch die Einführung von SAP
(2017)
Der Alltag in Organisationen besteht vor allem aus den Medien und Technologien, mit denen die Koordination zwischen einzelnen Arbeitsabläufen hergestellt wird.
Diese ethnografische Studie begleitet den Prozess der Einführung eines SAP-Systems in einem mittelständischen Unternehmen und zeigt, wie das bestehende Geflecht aus Praktiken und Technologien eine Neuanordnung erfährt. Dabei tritt das komplexe soziotechnische Gemenge zutage, auf dem Koordination und Organisation beruhen. Es geht um Hardware, ebenso wie Software, um mechanische und elektronische Medien, um Papiere, Drucker, Akten, Interfaces und Tastaturen, aber auch um die jahrzehntelang eingespielten Routinen und das Erfahrungswissen der Angestellten.
Increasing structural robustness is the goal which is of interest for structural engineering community. The partial collapse of RC buildings is subject of this dissertation. Understanding the robustness of RC buildings will guide the development of safer structures against abnormal loading scenarios such as; explosions, earthquakes, fine, and/or long-term accumulation effects leading to deterioration or fatigue. Any of these may result in local immediate structural damage, that can propagate to the rest of the structure causing what is known by the disproportionate collapse.
This work handels collapse propagation through various analytical approaches which simplifies the mechanical description of damaged reinfoced concrete structures due to extreme acidental event.
The Variability of the Void Ratio of Sand and its Effect on Settlement and Infinite Slope Stability
(2018)
The uncertainty of a soil property can significantly affect the physical behavior of soil, so as to influence geotechnical practice. The uncertainty can be expressed by its stochastic parameters, including the mean, the standard deviation, and the spatial correlation length. These stochastic parameters are regarded as constant value in most of the former studies. The main aim of this thesis is to prove whether they are depth-dependent, and to evaluate the effect of this depth-dependent character on both the settlement and the infinite slope stability during rainwater infiltration.
A stochastic one-dimensional settlement simulation is carried out using random finite element method with the von Wolffersdorff hypoplastic model, so as to evaluate the effect of stress level on the stochastic parameters of void ratio related parameters of sand. It is found that these stochastic parameters are both stress-dependent and depth-dependent.
The non-stationary random field, considering the depth-dependent character of these stochastic parameters, can be generated through the distortion of the stationary random field.
The one-dimensional settlement analysis is carried out to evaluation the effect of the depth-dependent character of the stochastic parameters of void ratio on the strain. It is found that the depth-dependent character has low effect on the strain.
The deterministic analysis of infinite slope stability during rainwater infiltration is simulated.
The transient seepage is carried out using finite difference method, while the steady state seepage is simulated using the analytical solution. The saturated hydraulic conductivity (ks) is taken as the only variable. The results show that the depth-dependent ks has a significant influence on the stability of the slope when the negative flux is high. Without considering the depth-dependent character, can overestimate the factor of safety of the slope. A slope can fail if the depth-dependent character is considered, while it is stable if the depth-dependent character is neglected. The failure time of the slope with a greater depth-dependent ks is earlier during transient infiltration.
Meanwhile, the stochastic infinite slope stability analysis during infiltration, is also carried out to highlight the effect of the depth-dependent character of the stochastic parameters of ks. The results show that: the probability of failure is significantly increased if the depth-dependent character of mean is considered, while, it is moderately reduced if the depth-dependent character of the standard deviation is accounted. If the depth-dependent character of both the mean and standard deviation of ks is considered, the depth-dependent mean value plays a dominant influence on the results. Furthermore, the depth-dependent character of the spatial correlation length can slightly reduce the probability of failure.
As one of its primary objectives, Computer Graphics aims at the simulation of fabrics’ complex reflection behaviour. Characteristic surface reflectance of fabrics, such as highlights, anisotropy or retro-reflection arise the difficulty of synthesizing. This problem can be solved by using Bidirectional Texture Functions (BTFs), a 2D-texture under various light and view direction. But the acquisition of Bidirectional Texture Functions requires an expensive setup and the measurement process is very time-consuming. Moreover, the size of BTF data can range from hundreds of megabytes to several gigabytes, as a large number of high resolution pictures have to be used in any ideal cases. Furthermore, the three-dimensional textured models rendered through BTF rendering method are subject to various types of distortion during acquisition, synthesis, compression, and processing. An appropriate image quality assessment scheme is a useful tool for evaluating image processing algorithms, especially algorithms designed to leave the image visually unchanged. In this contribution, we present and conduct an investigation aimed at locating a robust threshold for downsampling BTF images without loosing perceptual quality. To this end, an experimental study on how decreasing the texture resolution influences perceived quality of the rendered images has been presented and discussed.
Next, two basic improvements to the use of BTFs for rendering are presented: firstly, the study addresses the cost of BTF acquisition by introducing a flexible low-cost step motor setup for BTF acquisition allowing to generate a high quality BTF database taken at user-defined arbitrary angles. Secondly, the number of acquired textures to the perceptual quality of renderings is adapted so that the database size is not overloaded and can fit better in memory when rendered.
Although visual attention is one of the essential attributes of HVS, it is neglected in most existing quality metrics. In this thesis an appropriate objective quality metric based on extracting visual attention regions from images and adequate investigation of the influence of visual attention on perceived image quality assessment, called Visual Attention Based Image Quality Metric (VABIQM), has been proposed. The novel metric indicates that considering visual saliency can offer significant benefits with regard to constructing objective quality metrics to predict the visible quality differences in images rendered by compressed and non-compressed BTFs and also outperforms straightforward existing image quality metrics at detecting perceivable differences.
This cumulative dissertation discusses - by the example of four subsequent publications - the various layers of a tangible interaction framework, which has been developed in conjunction with an electronic musical instrument with a tabletop tangible user interface. Based on the experiences that have been collected during the design and implementation of that particular musical application, this research mainly concentrates on the definition of a general-purpose abstraction model for the encapsulation of physical interface components that are commonly employed in the context of an interactive surface environment. Along with a detailed description of the underlying abstraction model, this dissertation also describes an actual implementation in the form of a detailed protocol syntax, which constitutes the common element of a distributed architecture for the construction of surface-based tangible user interfaces. The initial implementation of the presented abstraction model within an actual application toolkit is comprised of the TUIO protocol and the related computer-vision based object and multi-touch tracking software reacTIVision, along with its principal application within the Reactable synthesizer. The dissertation concludes with an evaluation and extension of the initial TUIO model, by presenting TUIO2 - a next generation abstraction model designed for a more comprehensive range of tangible interaction platforms and related application scenarios.
Entwicklung und Untersuchung von alternativen Dicalciumsilicat-Bindern auf der Basis von alpha-C2SH
(2018)
Um den Klimawandel zu begrenzen, müssen die CO2-Emissionen drastisch gesenkt werden [100]. Bis 2050 soll bei der Herstellung von Zement eine Einsparung um 51–60 % auf 0,425–0,350 tCO2/tZement erfolgen [7]. Um dieses Ziel zu erreichen, sind alternative Bindemittelkonzepte notwendig [70].
Diese Arbeit widmet sich alternativen, hochreaktiven Dicalciumsilicat-Bindemitteln, die durch die thermische Aktivierung von α-Dicalcium-Silicat-Hydrat (α-C2SH) erzeugt werden. Das α-C2SH ist eine kristalline C S H-Phase, die im hydrothermalen Prozess, beispielsweise aus Branntkalk und Quarz, herstellbar ist. Die thermische Aktivierung kann bei sehr niedrigen Temperaturen erfolgen (>420 °C) und führt zu einem Multiphasen-C2S-Binder. Als besonders reaktive Bestandteile können x-C2S und röntgenamorphe Anteile enthalten sein. Weiterhin können β C2S, γ C2S und Dellait (Ca6(SiO4)(Si2O7)(OH)2) entstehen.
Im Rahmen der Arbeit wird zunächst der Stand des Wissens zur Polymorphie und Hydratation von C2S zusammengefasst. Es werden bekannte C2S-basierte Bindemittelkonzepte vorgestellt und bewertet.
Die Herstellung von C2S-Bindern wird experimentell im Labormaßstab untersucht. Dabei kommen unterschiedliche Autoklaven und ein Muffelofen zum Einsatz. Die Herstellungsparameter werden hinsichtlich Phasenbestand und Reaktivität optimiert. Die Bindemittel werden durch quantitative Röntgen-Phasenanalyse (QXRD), Rasterelektronenmikroskopie (REM), N2-Adsorption (BET-Methode), Heliumpycnometer, Thermoanalyse (TGA/DSC) und 29Si-MAS- sowie 29Si-1H-CP/MAS-NMR-Spektroskopie charakterisiert. Das Hydratationsverhalten der Bindemittel wird vorrangig mithilfe von Wärmeflusskalorimetrie untersucht. Weiterhin werden in situ und ex situ XRD-, TGA/DSC- und REM-Untersuchungen durchgeführt. Anhand von zwei Bindemitteln wird die Fähigkeit zur Erzielung hoher Festigkeiten demonstriert. Abschließend erfolgt eine Abschätzung zu Energiebedarf und CO2-Emissionen für die Herstellung der untersuchten C2S-Binder.
Die Ergebnisse zeigen, dass für eine hohe Reaktivität der Binder eine niedrige Brenntemperatur und ein geringer Wasserdampfpartialdruck während der thermischen Aktivierung entscheidend sind. Weiterhin muss das hydrothermal hergestellte α-C2SH eine möglichst hohe spezifische Oberfläche aufweisen. Diese Parameter beeinflussen den Phasenbestand und die phasenspezifische Reaktivität. Brenntemperaturen von ca. 420–500 °C führen zu hochreaktiven Bindern, die im Rahmen dieser Arbeit als Niedertemperatur-C2S-Binder bezeichnet werden. Temperaturen von ca. 600–800 °C führen zu Bindern mit geringerer Reaktivität, die im Rahmen dieser Arbeit als Hochtemperatur-C2S bezeichnet werden. Höhere Brenntemperaturen (1000 °C) führen zu Bindemitteln, die innerhalb der ersten drei Tage keine hydraulische Aktivität zeigen.
Die untersuchten Bindemittel können sehr hohe Reaktionsgeschwindigkeiten erreichen. Die Wärmeflusskalorimetrie deutet bei einigen Bindemitteln einen nahezu vollständigen Umsatz innerhalb von drei Tagen an. Durch XRD wurde für einen Binder der vollständige Verbrauch von x-C2S innerhalb von drei Tagen nachgewiesen. Für einen mittels in-situ-XRD und Wärmeflusskalorimetrie untersuchten Binder wurde gezeigt, dass die Phasen vorrangig in der Reihenfolge röntgenamorph > x-C2S > β-C2S > γ-C2S hydratisieren. Hydratationsprodukte sind nadelige C S H-Phasen und Portlandit.
Die Herstellung durch thermische Aktivierung von α-C2SH führt zu tafeligen Bindemittelpartikeln, die teilweise Zwickelräume und Poren zwischen den einzelnen Partikeln einschließen. Um eine verarbeitbare Bindemittelpaste zu erzeugen, sind daher sehr hohe Wasser/Bindemittel-Werte (z. B. 1,4) erforderlich. Der Wasseranspruch kann durch Mahlung etwa auf das Niveau von Zement gesenkt werden.
Die Druckfestigkeitsentwicklung wurde an zwei Niedertemperatur-C2S-Kompositbindern mit 40 % Kalksteinmehl bzw. 40 % Hüttensand untersucht. Aufgrund von theoretischen Betrachtungen zur Porosität in Abhängigkeit des w/b-Wertes wurde dieser auf 0,3 festgelegt. Durch Zugabe von PCE-Fließmittel wurde ein verarbeitbarer Mörtel erhalten. Die Festigkeitsentwicklung ist sehr schnell. Der Kalksteinmehl-Binder erreichte nach zwei Tagen 46 N/mm². Bis Tag 28 trat keine weitere Festigkeitssteigerung ein. Der Hüttensand-Binder erreichte nach zwei Tagen 62 N/mm². Durch die Hüttensandreaktion stieg die Festigkeit bis auf 85 N/mm² nach 28 Tagen an.
Für den Herstellungsprozess von Niedertemperatur-C2S-Binder wurden Energieverbräuche und CO2-Emissionen abgeschätzt. Es deutet sich an, dass, bezogen auf die Bindemittelmenge, keine wesentlichen Einsparungen im Vergleich zur Portlandzementherstellung möglich sind. Für die tatsächlichen Emissionen muss jedoch zusätzlich die Leistungsfähigkeit der Bindemittel berücksichtigt werden. Die Leistungsfähigkeit kann als erforderliche Bindemittelmenge betrachtet werden, die je m³ Beton eingesetzt werden muss, um bestimmte Festigkeits-, Dauerhaftigkeits- und Verarbeitungseigenschaften zu erreichen.
Aus verschiedenen Veröffentlichungen [94, 201, 206] wurde die These abgeleitet, dass die Leistungsfähigkeit eines Bindemittels maßgeblich von der C-S-H-Menge bestimmt wird, die während der Hydratation gebildet wird. Daher wird für NT-C2S-Binder eine außergewöhnlich hohe Leistungsfähigkeit erwartet.
Auf Basis der Leistungsfähigkeitsthese verringern sich die abgeschätzten CO2-Emissionen von NT-C2S-Bindern, sodass gegenüber Portlandzement ein mögliches Einsparpotenzial von 42 % ermittelt wurde.