Refine
Has Fulltext
- yes (493) (remove)
Document Type
- Doctoral Thesis (493) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (13)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
With the growing importance of the World Wide Web, the major challenges our society faces are also increasingly affecting the digital areas of our lives. Some of the associated problems can be addressed by computer science, and some of these specifically by data-driven research. To do so, however, requires to solve open issues related to archive quality and the large volume and variety of the data contained.
This dissertation contributes data, algorithms, and concepts towards leveraging the big data and temporal provenance capabilities of web archives to tackle societal challenges. We selected three such challenges that highlight the central issues of archive quality, data volume, and data variety, respectively:
(1) For the preservation of digital culture, this thesis investigates and improves the automatic quality assurance of the web page archiving process, as well as the further processing of the resulting archive data for automatic analysis.
(2) For the critical assessment of information, this thesis examines large datasets of Wikipedia and news articles and presents new methods for automatically determining quality and bias.
(3) For digital security and privacy, this thesis exploits the variety of content on the web to quantify the security of mnemonic passwords and analyzes the privacy-aware re-finding of the various seen content through private web archives.
Diese Dissertation untersucht Handlungsressourcen von zivilgesellschaftlichen Akteuren in Planungsprozessen um innerstädtische Planungsverfahren. Den theoretischen Rahmen bilden die Kapitalarten von Pierre Bourdieu, die zusammen mit dem Matrixraum von Dieter Läpple zu einem neuen Feldbegriff des ‚Raumfeldes‘ zusammengeführt und operationalisiert wurden. Es handelt sich um eine qualitative Arbeit, die zwischen Stadtsoziologie und Urbanistik zu verorten ist. Als Fallbeispiele wurde die Erweiterung des Berliner Mauerparks sowie das Baugebiet „So! Berlin“ in Berlin gewählt.
Multi-user virtual reality systems enable collocated as well as distributed users to perform collaborative activities in immersive virtual environments. A common activity in this context is to move from one location to the next as a group to explore the environment together. The simplest solution to realize these multi-user navigation processes is to provide each participant with a technique for individual navigation. However, this approach entails some potentially undesirable consequences such as the execution of a similar navigation sequence by each participant, a regular need for coordination within the group, and, related to this, the risk of losing each other during the navigation process.
To overcome these issues, this thesis performs research on group navigation techniques that move group members together through a virtual environment. The presented work was guided by four overarching research questions that address the quality requirements for group navigation techniques, the differences between collocated and distributed settings, the scalability of group navigation, and the suitability of individual and group navigation for various scenarios. This thesis approaches these questions by introducing a general conceptual framework as well as the specification of central requirements for the design of group navigation techniques. The design, implementation, and evaluation of corresponding group navigation techniques demonstrate the applicability of the proposed framework.
As a first step, this thesis presents ideas for the extension of the short-range teleportation metaphor, also termed jumping, for multiple users. It derives general quality requirements for the comprehensibility of the group jumping process and introduces a corresponding technique for two collocated users. The results of two user studies indicate that sickness symptoms are not affected by user roles during group jumping and confirm improved planning accuracy for the navigator, increased spatial awareness for the passenger, and reduced cognitive load for both user roles.
Next, this thesis explores the design space of group navigation techniques in distributed virtual environments. It presents a conceptual framework to systematize the design decisions for group navigation techniques based on Tuckman's model of small-group development and introduces the idea of virtual formation adjustments as part of the navigation process. A quantitative user study demonstrates that the corresponding extension of Multi-Ray Jumping for distributed dyads leads to more efficient travel sequences and reduced workload. The results of a qualitative expert review confirm these findings and provide further insights regarding the complementarity of individual and group navigation in distributed virtual environments.
Then, this thesis investigates the navigation of larger groups of distributed users in the context of guided museum tours and establishes three central requirements for (scalable) group navigation techniques. These should foster the awareness of ongoing navigation activities as well as facilitate the predictability of their consequences for all group members (Comprehensibility), assist the group with avoiding collisions in the virtual environment (Obstacle Avoidance), and support placing the group in a meaningful spatial formation for the joint observation and discussion of objects (View Optimization). The work suggests a new technique to address these requirements and reports on its evaluation in an initial usability study with groups of five to ten (partially simulated) users. The results indicate easy learnability for navigators and high comprehensibility for passengers. Moreover, they also provide valuable insights for the development of group navigation techniques for even larger groups.
Finally, this thesis embeds the previous contributions in a comprehensive literature overview and emphasizes the need to study larger, more heterogeneous, and more diverse group compositions including the related social factors that affect group dynamics.
In summary, the four major research contributions of this thesis are as follows:
- the framing of group navigation as a specific instance of Tuckman's model of small-group development
- the derivation of central requirements for effective group navigation techniques beyond common quality factors known from single-user navigation
- the introduction of virtual formation adjustments during group navigation and their integration into concrete group navigation techniques
- evidence that appropriate pre-travel information and virtual formation adjustments lead to more efficient travel sequences for groups and lower workloads for both navigators and passengers
Overall, the research of this thesis confirms that group navigation techniques are a valuable addition to the portfolio of interaction techniques in multi-user virtual reality systems. The conceptual framework, the derived quality requirements, and the development of novel group navigation techniques provide effective guidance for application developers and inform future research in this area.
The importance of modern simulation methods in the mechanical analysis of heterogeneous solids is presented in detail. Thereby the problem is noted that even for small bodies the required high-resolution analysis reaches the limits of today's computational power, in terms of memory demand as well as acceptable computational effort. A further problem is that frequently the accuracy of geometrical modelling of heterogeneous bodies is inadequate. The present work introduces a systematic combination and adaption of grid-based methods for achieving an essentially higher resolution in the numerical analysis of heterogeneous solids. Grid-based methods are as well primely suited for developing efficient and numerically stable algorithms for flexible geometrical modeling. A key aspect is the uniform data management for a grid, which can be utilized to reduce the effort and complexity of almost all concerned methods. A new finite element program, called Mulgrido, was just developed to realize this concept consistently and to test the proposed methods. Several disadvantages which generally result from grid discretizations are selectively corrected by modified methods. The present work is structured into a geometrical model, a mechanical model and a numerical model. The geometrical model includes digital image-based modeling and in particular several methods for the theory-based generation of inclusion-matrix models. Essential contributions refer to variable shape, size distribution, separation checks and placement procedures of inclusions. The mechanical model prepares the fundamentals of continuum mechanics, homogenization and damage modeling for the following numerical methods. The first topic of the numerical model introduces to a special version of B-spline finite elements. These finite elements are entirely variable in the order k of B-splines. For homogeneous bodies this means that the approximation quality can arbitrarily be scaled. In addition, the multiphase finite element concept in combination with transition zones along material interfaces yields a valuable solution for heterogeneous bodies. As the formulation is element-based, the storage of a global stiffness matrix is superseded such that the memory demand can essentially be reduced. This is possible in combination with iterative solver methods which represent the second topic of the numerical model. Here, the focus lies on multigrid methods where the number of required operations to solve a linear equation system only increases linearly with problem size. Moreover, for badly conditioned problems quite an essential improvement is achieved by preconditioning. The third part of the numerical model discusses certain aspects of damage simulation which are closely related to the proposed grid discretization. The strong efficiency of the linear analysis can be maintained for damage simulation. This is achieved by a damage-controlled sequentially linear iteration scheme. Finally a study on the effective material behavior of heterogeneous bodies is presented. Especially the influence of inclusion shapes is examined. By means of altogether more than one hundred thousand random geometrical arrangements, the effective material behavior is statistically analyzed and assessed.
In recent years, substantial attention has been devoted to thermoelastic multifield problems and their numerical analysis. Thermoelasticity is one of the important categories of multifield problems which deals with the effect of mechanical and thermal disturbances on an elastic body. In other words, thermoelasticity encompasses the phenomena that describe the elastic and thermal behavior of solids and their interactions under thermo-mechanical loadings. Since providing an analytical solution for general coupled thermoelasticity problems is mathematically complicated, the development of alternative numerical solution techniques seems essential.
Due to the nature of numerical analysis methods, presence of error in results is inevitable, therefore in any numerical simulation, the main concern is the accuracy of the approximation. There are different error estimation (EE) methods to assess the overall quality of numerical approximation. In many real-life numerical simulations, not only the overall error, but also the local error or error in a particular quantity of interest is of main interest. The error estimation techniques which are developed to evaluate the error in the quantity of interest are known as “goal-oriented” error estimation (GOEE) methods.
This project, for the first time, investigates the classical a posteriori error estimation and goal-oriented a posteriori error estimation in 2D/3D thermoelasticity problems. Generally, the a posteriori error estimation techniques can be categorized into two major branches of recovery-based and residual-based error estimators. In this research, application of both recovery- and residual-based error estimators in thermoelasticity are studied. Moreover, in order to reduce the error in the quantity of interest efficiently and optimally in 2D and 3D thermoelastic problems, goal-oriented adaptive mesh refinement is performed.
As the first application category, the error estimation in classical Thermoelasticity (CTE) is investigated. In the first step, a rh-adaptive thermo-mechanical formulation based on goal-oriented error estimation is proposed.The developed goal-oriented error estimation relies on different stress recovery techniques, i.e., the superconvergent patch recovery (SPR), L2-projection patch recovery (L2-PR), and weighted superconvergent patch recovery (WSPR). Moreover, a new adaptive refinement strategy (ARS) is presented that minimizes the error in a quantity of interest and refines the discretization such that the error is equally distributed in the refined mesh. The method is validated by numerous numerical examples where an analytical solution or reference solution is available.
After investigating error estimation in classical thermoelasticity and evaluating the quality of presented error estimators, we extended the application of the developed goal-oriented error estimation and the associated adaptive refinement technique to the classical fully coupled dynamic thermoelasticity. In this part, we present an adaptive method for coupled dynamic thermoelasticity problems based on goal-oriented error estimation. We use dimensionless variables in the finite element formulation and for the time integration we employ the acceleration-based Newmark-_ method. In this part, the SPR, L2-PR, and WSPR recovery methods are exploited to estimate the error in the quantity of interest (QoI). By using
adaptive refinement in space, the error in the quantity of interest is minimized. Therefore, the discretization is refined such that the error is equally distributed in the refined mesh. We demonstrate the efficiency of this method by numerous numerical examples.
After studying the recovery-based error estimators, we investigated the residual-based error estimation in thermoelasticity. In the last part of this research, we present a 3D adaptive method for thermoelastic problems based on goal-oriented error estimation where the error is measured with respect to a pointwise quantity of interest. We developed a method for a posteriori error estimation and mesh adaptation based on dual weighted residual (DWR) method relying on the duality principles and consisting of an adjoint problem solution. Here, we consider the application of the derived estimator and mesh refinement to two-/three-dimensional (2D/3D) thermo-mechanical multifield problems. In this study, the goal is considered to be given by singular pointwise functions, such as the point value or point value derivative at a specific point of interest (PoI). An adaptive algorithm has been adopted to refine the mesh to minimize the goal in the quantity of interest.
The mesh adaptivity procedure based on the DWR method is performed by adaptive local h-refinement/coarsening with allowed hanging nodes. According to the proposed DWR method, the error contribution of each element is evaluated. In the refinement process, the contribution of each element to the goal error is considered as the mesh refinement criterion.
In this study, we substantiate the accuracy and performance of this method by several numerical examples with available analytical solutions. Here, 2D and 3D problems under thermo-mechanical loadings are considered as benchmark problems. To show how accurately the derived estimator captures the exact error in the evaluation of the pointwise quantity of interest, in all examples, considering the analytical solutions, the goal error effectivity index as a standard measure of the quality of an estimator is calculated. Moreover, in order to demonstrate the efficiency of the proposed method and show the optimal behavior of the employed refinement method, the results of different conventional error estimators and refinement techniques (e.g., global uniform refinement, Kelly, and weighted Kelly techniques) are used for comparison.
In einer systematischen Interpretation von Vilém Flussers Werk schlägt die Arbeit vor, Flussers Ansatz als einen medienphilosophischen zu verstehen, insofern er das „wie“ der medienphilosophischen Fragestellung in den Mittelpunkt rückt. Medien werden nicht erst dann zu einem wesentlichen Bestandteil von Flussers Philosophie, wenn er sie explizit zum Gegenstand seiner Untersuchungen der gegenwärtigen Kultur und Gesellschaft oder historischer Rückblicke macht; Denken vollzieht sich immer in Medien oder medialen Praktiken, es wird nicht nur von ihnen (mit) geprägt – ohne Medien gäbe es kein Denken und umgekehrt verändert sich Philosophie mit den (jeweils) neuen Medien. Ausgehend von Begriffen oder eher Denkfiguren, die neben dem „was“ des jeweils verhandelten Themas auch das „wie“ der Reflexion selbst adressieren, wird der „Umbruch in der Struktur des Denkens“ zugleich als Beschreibung von Medienumbrüchen verstanden – mit dem Fluchtpunkt des Sprungs in das Universum der Komputation – und als Vollzug der gegenwärtigen Veränderung der „Methode des Denkens“. Flussers (Ver)Suche einer Reflexion, die nicht mehr durch das Medium Schrift strukturiert ist, sondern sowohl alten Medien wie dem Bild – bzw. Praktiken des Abbildens, Darstellens, Einbildens usw. – als auch neuen Medien – dem Komputieren – Geltung verschafft, laufen auf eine widersprüchliche Diagnose des neuen Universums der Komputation (anders: der technischen Bilder) hinaus : eine kybermetisch inspirierte Vision der frei modellierbaren Wirklichkeit(en) einerseits und die Dystopie einer Welt, in der Apparaten Denken, Wahrnehmen und Handeln beherrschen andererseits. Die Arbeit zeigt auf, wie Flusser zu dieser Aporie der Medienreflexion – die weit über Flussers Werk hinaus virulent bleibt – gelangt und wie sie, ausgehend von seiner Figur der Geste, im Sinne einer performativen Medienreflexion gelöst werden könnte.
Im Rahmen der Arbeit wird untersucht, welche Awarenessinformationen in kooperativen Situation benötigt werden. Herangezogen wird dazu das Denver Modell von Salvador et al., das fünf Dimensionen bereit stellt, anhand derer jedwede kooperative Situation klassifiziert werden kann: Abhängigkeit, Zeit, Gruppengröße, Ort und Timing. Bei der untersuchten Situation handelt es sich um eine eng gekoppelte, synchrone, örtlich verteilte geplante Kooperationen in einer Kleingruppe. Als konkrete Ausprägung der so bezeichneten Modellinstanz wird das Chat-basierte Rollenspiel betrachtet. In der Arbeit wird untersucht, welche Awarenessinformationen in einer so charakterisierten Situation benötigt werden und wie diese Awarenessinformationen benutzerfreundlich dargestellt werden können, so dass sie den Benutzer dabei unterstützen, sein kooperatives Ziel bzw. seine Teilziele zu erreichen. Dazu wurde eine Analyse des situativen Bedarfs durchgeführt und tragende Awarenessinformationssäulen identifiziert. Um zu Richtlinien zur Darstellung dieser benötigten Awarenessinformationen zu gelangen, wurden Annahmen aufgestellt, zur Überprüfung eine Studie konzipiert und mit drei Designvarianten durchgeführt. Aus der Datenanalyse wurden Schlussfolgerungen gezogen. Für den erstellten Katalog mit Gestaltungsrichtlinien wurden neben diesen Schlussfolgerungen auch Normen und andere Empirie (Vorerfahrung, Literatur) berücksichtigt. Die eingesetzte Evaluationsform hat sich in der Studie bewährt und sie kann für zukünftige Studien verwendet werden. Auch die Anpassung klassischer Usability-Kriterien für die Präsentation von Awarenessinformationen hat sich bewährt. Durch die Analyse des spezifischen Bedarfs in einer kooperativen Situation wird gewährleistet, dass die Benutzer die Unterstützung erhalten, die erforderlich ist, um die Aufgabe effektiv und effizient bearbeiten zu können, ohne dabei mit unnötigen Informationen überlastet zu werden. Durch Bereitstellung empirisch belegter und theoretisch fundierter Gestaltungsrichtlinien schafft diese Arbeit eine Basis für die zukünftige Entwicklung von Groupwareanwendungen, insbesondere solcher, die Werkzeuge für die Computer-vermittelte, synchrone, eng gekoppelte, geplante Kooperationen in Kleingruppen bereitstellen. Die Arbeit liefert wichtige Erkenntnisse, wie Awarenessinformationen dargestellt werden sollen, d.h. in welcher Platzierung bzw. Gruppierung und in welcher Form, so dass der Benutzer alle wesentlichen Awarenessinformationen schnell entdecken und interpretieren kann, ohne dabei überfordert oder von der Primäraufgabe abgelenkt zu werden.
Ausgehend von der These, dass es keine völlig neuen Medien gibt, Medien vielmehr aus Veränderungen und Hybridisierungen anderer Medien entstehen, stellt die Arbeit die Untersuchung der Narrativität von Videospielen in einen intermedialen Zusammenhang. Dabei werden die medienspezifischen Differenzen der Erzählung und des Erzählens in Film, Fernsehen und Videospielen fokussiert. Neben der Strukturanalyse wird die visuelle Darstellungsebene sowie der Einbezug des Spielers in den Prozess der Narration betrachtet. Dies mündet in einer Theorie der Beobachtungsperspektive und der Handlungsposition des Spielers (Point-of-View und analog "Point-of-Action"), die wichtige Bestandteile des komplexen Erzählersystems der Videospiele bilden. Damit stellt die Arbeit ein, auf Kriterien der Narrativität basierendes, systematisches Beschreibungsinstrumentarium für Videospiele bereit.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
The detailed structural analysis of thin-walled circular pipe members often requires the use of a shell or solid-based finite element method. Although these methods provide a very good approximation of the deformations, they require a higher degree of discretization which causes high computational costs. On the other hand, the analysis of thin-walled circular pipe members based on classical beam theories is easy to implement and needs much less computation time, however, they are limited in their ability to approximate the deformations as they cannot consider the deformation of the cross-section.
This dissertation focuses on the study of the Generalized Beam Theory (GBT) which is both accurate and efficient in analyzing thin-walled members. This theory is based on the separation of variables in which the displacement field is expressed as a combination of predetermined deformation modes related to the cross-section, and unknown amplitude functions defined on the beam's longitudinal axis. Although the GBT was initially developed for long straight members, through the consideration of complementary deformation modes, which amend the null transverse and shear membrane strain assumptions of the classical GBT, problems involving short members, pipe bends, and geometrical nonlinearity can also be analyzed using GBT. In this dissertation, the GBT formulation for the analysis of these problems is developed and the application and capabilities of the method are illustrated using several numerical examples. Furthermore, the displacement and stress field results of these examples are verified using an equivalent refined shell-based finite element model.
The developed static and dynamic GBT formulations for curved thin-walled circular pipes are based on the linear kinematic description of the curved shell theory. In these formulations, the complex problem in pipe bends due to the strong coupling effect of the longitudinal bending, warping and the cross-sectional ovalization is handled precisely through the derivation of the coupling tensors between the considered GBT deformation modes. Similarly, the geometrically nonlinear GBT analysis is formulated for thin-walled circular pipes based on the nonlinear membrane kinematic equations. Here, the initial linear and quadratic stress and displacement tangent stiffness matrices are built using the third and fourth-order GBT deformation mode coupling tensors.
Longitudinally, the formulation of the coupled GBT element stiffness and mass matrices are presented using a beam-based finite element formulation. Furthermore, the formulated GBT elements are tested for shear and membrane locking problems and the limitations of the formulations regarding the membrane locking problem are discussed.
Gaze based human-computer-interaction has been a research topic for over a quarter century. Since then, the main scenario for gaze interaction has been helping handicapped people to communicate an interact with their environment. With the rapid development of mobile and wearable display technologies, a new application field for gaze interaction has appeared, opening new research questions.
This thesis investigates the feasibility of mobile gaze based interaction, studying deeply the use of pie menus as a generic and robust widget for gaze interaction as well as visual and perceptual issues on head mounted (wearable) optical see-through displays.
It reviews conventional gaze-based selection methods and investigates in detail the use of pie menus for gaze control. It studies and discusses layout issues, selection methods and applications. Results show that pie menus can allocate up to six items in width and multiple depth layers, allowing a fast and accurate navigation through hierarchical levels by using or combining multiple selection methods. Based on these results, several text entry methods based on pie menus are proposed. Character-by-character text entry, text entry with bigrams and with text entry with bigrams derived by word prediction, as well as possible selection methods, are examined in a longitudinal study. Data showed large advantages of the bigram entry methods over single character text entry in speed and accuracy. Participants preferred the novel selection method based on saccades (selecting by borders) over the conventional and well established dwell time method.
On the one hand, pie menus showed to be a feasible and robust widget, which may enable the efficient use of mobile eye tracking systems that may not be accurate enough for controlling elements on conventional interface. On the other hand, visual perception on mobile displays technologies need to be examined in order to deduce if the mentioned results can be transported to mobile devices.
Optical see-through devices enable observers to see additional information embedded in real environments. There is already some evidence of increasing visual load on the respective systems. We investigated visual performance on participants with a visual search tasks and dual tasks presenting visual stimuli on the optical see-through device, only on a computer screen, and simultaneously on both devices. Results showed that switching between the presentation devices (i.e. perceiving information simultaneously from both devices) produced costs in visual performance. The implications of these costs and of further perceptual and technical factors for mobile gaze-based interaction are discussed and solutions are proposed.
Im Mittelpunkt der Dissertation steht die Theorie der Differenzenpotentiale, die eng mit der klassischen Potentialtheorie verbunden ist. Vorgestellt wird eine Methode zur Lösung von Randwertproblemen, die nicht auf der Diskretisierung einer Randintegralgleichung beruht, sondern von der Übertragung des Problems in ein Differenzenrandwertproblem ausgeht. Das diskrete Randwertproblem wird mit Hilfe einer Randreduktionsmethode auf eine Randoperatorgleichung transformiert, die detaillierter zu untersuchen ist. Voraussetzung für den Aufbau der Theorie ist die Existenz diskreter Fundamentallösungen. Die Definition der Differenzenpotentiale wird von Ryabenkij übernommen. Seine Herangehensweise führt jedoch zu überbestimmten linearen Gleichungssystemen auf dem Rand. Durch die Aufspaltung des Randpotentials in ein diskretes Einfach- und Doppelschichtpotential wird diese Schwierigkeit in der Dissertation überwunden. Bewiesen werden Eindeutigkeits- und Lösbarkeitsaussagen für Differenzenrandwertprobleme. Das onvergenzverhalten der diskreten Potentiale wird im Kapitel 3 untersucht. Im Kapitel 4 werden numerische Resultate vorgestellt.
The p-Laplace equation is a nonlinear generalization of the well-known Laplace equation. It is often used as a model problem for special types of nonlinearities, and therefore it can be seen as a bridge between very general nonlinear equations and the linear Laplace equation, too. It appears in many problems for instance in the theory of non-Newtonian fluids and fluid dynamics or in rockfill dam problems, as well as in special problems of image restoration and image processing.
The aim of this thesis is to solve the p-Laplace equation for 1 < p < 2, as well as for 2 < p < 3 and to find strong solutions in the framework of Clifford analysis. The idea is to apply a hypercomplex integral operator and special function theoretic methods to transform the p-Laplace equation into a p-Dirac equation. We consider boundary value problems for the p-Laplace equation and transfer them to boundary value problems for a p-Dirac equation. These equations will be solved iteratively by applying Banach’s fixed-point principle. Applying operator-theoretical methods for the p-Dirac equation, the existence and uniqueness of solutions in certain Sobolev spaces will be proved.
In addition, using a finite difference approach on a uniform lattice in the plane, the fundamental solution of the Cauchy-Riemann operator and its adjoint based on the fundamental solution of the Laplacian will be calculated. Besides, we define gener- alized discrete Teodorescu transform operators, which are right-inverse to the discrete Cauchy-Riemann operator and its adjoint in the plane. Furthermore, a new formula for generalized discrete boundary operators (analogues of the Cauchy integral operator) will be considered. Based on these operators a new version of discrete Borel-Pompeiu formula is formulated and proved.
This is the basis for an operator calculus that will be applied to the numerical solution of the p-Dirac equation. Finally, numerical results will be presented showing advantages and problems of this approach.
Die historische Entwicklung frühneuzeitlicher Wohngebäude (1450 bis 1637) der Stadt Meißen wird hier vorwiegend mit bauarchäologischen und baugeschichtlichen Methoden unter zusätzlicher Nutzung farbarchäologischer, dendrochronologischer und archivalischer Quellen untersucht. Eine bau- und raumstrukturelle Differenzierung der Wohnformen unterschiedlicher sozialer Gruppierungen- Handwerker, frühes Bürgertum sowie hoher und niederer Klerus- scheint dabei möglich zu sein. Die Untersuchung fußt auf der teilweise sehr detaillierten Auswertung von Befunden, die in zwanzig Wohngebäuden gewonnen wurden.
Für die Verminderung der betonspezifischen CO2-Emissionen wird ein verstärkter Einsatz klinkerreduzierter Zemente bzw. Betone angestrebt. Die Reduzierung des Klinkergehaltes darf jedoch nicht zu einer lebensdauerrelevanten Beeinträchtigung der Betondauerhaftigkeit führen. In diesem Zusammenhang stellt der Frost-Tausalz-Widerstand eine kritische Größe dar, da er bei höheren Klinkersubstitutionsraten häufig negativ beeinflusst wird. Erschwerend kommt hinzu, dass für klinkerreduzierte Betone nur ein unzureichender Erfahrungsschatz vorliegt. Ein hoher Frost-Tausalz-Widerstand kann daher nicht ausschließlich anhand deskriptiver Vorgaben gewährleistet werden. Demgemäß sollte perspektivisch auch für frost-tausalzbeanspruchte Bauteile eine performancebasierte Lebensdauerbetrachtung erfolgen.
Eine unverzichtbare Grundlage für das Erreichen dieser Ziele ist ein Verständnis für die Schadensvorgänge beim Frost-Tausalz-Angriff. Der Forschungsstand ist jedoch geprägt von widersprüchlichen Schadenstheorien. Somit wurde als Zielstellung für diese Arbeit abgeleitet, die existierenden Schadenstheorien unter Berücksichtigung des aktuellen Wissensstandes zu bewerten und mit eigenen Untersuchungen zu prüfen und einzuordnen. Die Sichtung des Forschungsstandes zeigte, dass nur zwei Theorien das Potential haben, den Frost-Tausalz-Angriff umfassend abzubilden – die Glue Spall Theorie und die Cryogenic Suction Theorie.
Die Glue Spall Theorie führt die Entstehung von Abwitterungen auf die mechanische Schädigung der Betonoberfläche durch eine anhaftende Eisschicht zurück. Dabei sollen nur bei moderaten Tausalzkonzentrationen in der einwirkenden Lösung kritische Spannungszustände in der Eisschicht auftreten, die eine Schädigung der Betonoberfläche hervorrufen können. In dieser Arbeit konnte jedoch nachgewiesen werden, dass starke Abwitterungen auch bei Tausalz¬konzentrationen auftreten, bei denen eine mechanische Schädigung des Betons durch das Eis auszuschließen ist. Damit wurde die fehlende Eignung der Glue Spall Theorie aufgezeigt.
Die Cryogenic Suction Theorie fußt auf den eutektischen Eigenschaften von Tausalz-lösungen, die im gefrorenen Zustand immer als Mischung auf festem Wassereis und flüssiger, hochkonzentrierter Salzlösung bestehen, solange ihre Eutektikumstemperatur nicht unter¬schritten wird. Die flüssige Phase im salzhaltigen Eis stellt für gefrorenen Beton ein bisher nicht berücksichtigtes Flüssigkeitsreservoir dar, welches trotz der hohen Salzkonzentration die Eisbildung in der Betonrandzone verstärken und so die Entstehung von Abwitterungen verursachen soll. In dieser Arbeit wurde bestätigt, dass die Eisbildung im Zementstein beim Gefrieren in hochkonzentrierter Tausalzlösung tatsächlich verstärkt wird. Das Ausmaß der zusätzlichen Eisbildung wurde dabei auch von der Fähigkeit des Zementsteins zur Bindung von Chloridionen aus der Tausalzlösung beeinflusst.
Zusammenfassend wurde festgestellt, dass die Cryogenic Suction Theorie eine gute Beschreibung des Frost-Tausalz-Angriffes darstellt, aber um weitere Aspekte ergänzt werden muss. Die Berücksichtigung der intensiven Sättigung von Beton durch den Prozess der Mikroeislinsenpumpe stellt hier die wichtigste Erweiterung dar. Basierend auf dieser Überlegung wurde eine kombinierte Schadenstheorie aufgestellt. Wichtige Annahmen dieser Theorie konnten experimentell bestätigt werden. Im Ergebnis wurde so die Grundlage für ein tiefergehendes Verständnis des Frost-Tausalz-Angriffes geschaffen. Zudem wurde ein neuer Ansatz identifiziert, um die (potentielle) Verringerung des Frost-Tausalz-Widerstandes klinkerreduzierter Betone zu erklären.
Der Forschungsgegenstand dieser Arbeit basiert auf einer phänomenologischen Beobachtung internationaler fotografischer Positionen des Selbstportraits, welche seit den 1960er-Jahren verwandte Inhalte, gleichartige bildästhetische Merkmale und ähnliche Prozesse im fotografischen Herstellungsprozess aufweisen. Gemeinsam haben die in dieser Arbeit besprochenen Künstler*innen, dass sich ihre Bildwerdung am eigenen Körper vollzieht und an einen durch Bewegung gekennzeichneten Handlungsablauf geknüpft ist. Die jeweilige Bildsprache weist eine ephemere Ästhetik aus, in welcher inhaltlich sowohl der physische als auch der philosophisch gemeinte Begriff des (Los-)lassens eine Rolle spielt. Die künstlerischen Positionen, die Gegenstand dieser Ph.D.-Arbeit sind, umfassen Arbeiten von Bas Jan Ader (1942 – 1975), Francesca Woodman (1958 – 1981), Bernhard (1937 – 2011) und Anna Blume (*1937), Antoine d’Agata (*1961) und Tom Pope (*1986).
This dissertation investigates the interactions between urban form, allocation of activities, and pedestrian movement in the context of urban planning. The ability to assess the long-term impact of urban planning decisions on what people do and how they get there is of central importance, with various disciplines addressing this topic. This study focuses on approaches proposed by urban morphologists, urban economists, and transportation planners, each aiming the attention at a different part of the form-activity-movement interaction. Even though there is no doubt about the advantages of these highly focused approaches, it remains unclear what is the cost of ignoring the effect of some interactions while considering others. The general aim of this dissertation is to empirically test the validity of the individual models and quantify the impact of this isolationist approach on their precision and bias.
For this purpose, we propose a joined form-activity-movement interaction model and conduct an empirical study in Weimar, Germany. We estimate how the urban form and activities affect movement as well as how movement and urban form affect activities. By estimating these effects in isolation and simultaneously, we assess the bias of the individual models.
On the one hand, the empirical study results confirm the significance of all interactions suggested by the individual models. On the other hand, we were able to show that when these interactions are estimated in isolation, the resulting predictions are biased. To conclude, we do not question the knowledge brought by transportation planners, urban morphologists, and urban economists. However, we argue that it might be of little use on its own.
We see the relevance of this study as being twofold. On the one hand, we proposed a novel methodological framework for the simultaneous estimation of the form-activity-movement interactions. On the other hand, we provide empirical evidence about the strengths and limitations of current approaches.
Das Kernthema dieser Arbeit ist die Beschäftigung mit den Folgen des Uranbergbaus in dem Gebiet um die ehemalige Abbauregion der Wismut SAG/SDAG in Ronneburg (Ostthüringen). Dieses Thema wird unter historischen, sozialen, kulturanthropologischen und künstlerischen Aspekten betrachtet und in den Zusammenhang mit den weltweiten Voraussetzungen der Nuklearindustrie und Auswirkungen des Uranbergbaus und seiner Folgen gestellt. Die Arbeit legt dar, wie eine Uranbergbaufolgelandschaft entsteht und welches Wissen ist für ein angemessenes Verständnis des Phänomens wichtig ist. Es wird untersucht, ob Kunst bezüglich der Uranbergbaufolgelandschaft einen relevanten Beitrag leisten kann bzw. in welcher Form dies versucht wurde, bzw. stellte Arbeiten vor, die verwandete Themen bearbeitet haben. In Kombination dieser beiden Hauptaspekte geht die Arbeit der Frage nach, welche Faktoren die Uranbergbaufolgelandschaft prägen und ob es sinnvolle Beteiligungsfelder für künstlerisches Forschen oder Handeln gibt sowie welche Bedingungen hierfür erfüllt werdenmüssten. Die Kernthese der Arbeit ist, dass künstlerische Arbeiten im Themenfeld des Uranbergbaus unter bestimmten Bedingungen relevante Beiträge leisten können.
Ausgehend von der vielfachen Verwertung der bäuerlichen Kleidung durch den Staat während des Sozialismus in Rumänien wird in der Arbeit das ‚Gemacht-Sein‘ von Volkstrachten befragt entlang von im untersuchten Zeitraum wirkenden Diskursen, wie dem Prozess der Modernisierung oder der Hervorhebung nationaler Werte. Die künstlerische Forschung setzt dabei auf Simulacra (Roland Barthes). Ziel war, tradierte Formate der Wissensaufbereitung und -verbreitung zu appropriieren, so auch von Strategien, die auf der Ebene von Bildern und Sprache agieren, um eine Re-Lektüre sowohl von ‚Volkstracht‘ im Sozialismus als auch von ihren Entsprechungen nach 1989 zu ermöglichen.
This dissertation concerns the changing role of fashion in the context of modern cities. In approaching this process, the research investigates the media discourse based on representations of fashion by cities and of cities by fashion. Moreover, this research focuses on fashion understood as a multidimensional phenomenon that aims to provide an explanation of urban spaces through fashion terms, actions, and garments. Additionally, cities are considered from the cultural geography approach that highlights the cultural component of urban spaces expressed in social and cultural practices in physical reality. Following this idea, it is suggested here that fashion today not only participates in the urban life as its significant component but also creates city images and representations of urban lifestyle through the fashion paradigm. In other words, fashion redefines urban spaces; at the same time, urban spaces are interpreted as a stage for fashion processes.
By integrating in social research the fields of urban studies and fashion studies, this dissertation offers the discussion considering the fashion phenomenon not only as an urban phenomenon of modern reality. On the one hand, such discussion concerns the re-conceptualization of urban phenomena by the fashion influence; on the other hand, it relates the re-contextualization of fashion in a city. The empirical focus is based on the media context of fashion magazines in which variety of possibilities to represent fashion and cities lead to promising interpretations and analysis. The idea of representation specifies the ways of constructing the notion of urban space as fashionable space and the notion of fashion as placed in the urban context.
Die Entwicklung von Hybridtechnologien führt zu vielen neuartigen und effizienten Anwen-dungen. Hybridtechnologien kommen immer dann zum Einsatz, wenn die ausschließliche Nutzung einer Technologie oder eines Werkstoffs nicht zum gewünschten Ergebnis führt. Dann kann durch Kombination unterschiedlicher Werkstoffe oder Technologien ein System geschaffen werden, das in seiner Konfiguration ein Optimum an Eigenschaften darstellt.
Im Bauwesen geht die Entwicklung schon seit jeher in Richtung von immer schlankeren ar-chitektonisch ansprechenden Konstruktionen. In der gegenwärtigen Entwicklung ermöglichen hochtechnologische Kunststoffe und Faserwerkstoffe, wie z. B. Kohlenstofffasern, sehr schlanke, leichte und dennoch hochtragfähiger Konstruktionen. Der wirtschaftliche Aspekt bei der Entwicklung von Tragsystemen bzw. -strukturen erfordert dabei in fast allen Fällen eine kostengünstig effiziente Ausbildung und die Optimierung von Trageigenschaften und Kostenfaktoren. Daher besteht oft die Anforderung nach einem Verbundsystem, bei dem unterschiedliche Materialien in der Art miteinander kombiniert werden, dass jeder Werkstoff für eine bestimmte Beanspruchung angeordnet wird und sein Tragfähigkeitspotenzial optimal ausschöpft. Im Rahmen dieser Arbeit werden an konkreten Beispielen Möglichkeiten aufge-zeigt, Hochtechnologiewerkstoffe in effizienter Art und Weise zu nutzen.
Der Kunststoff-Faser-Verbundwerkstoff stellt eine Möglichkeit dar, den als solches nur für dünnschichtige Klebverbindungen nutzbaren Klebstoff in seinen Anwendungsmöglichkeiten zu erweitern. Die Fasern wirken dabei dem mechanischen Schwachpunkt des Klebstoffs, einer nur geringen Zugfestigkeit, effektiv entgegen. Mit faserverstärkten Klebstoff können Anwendungen realisiert werden, bei denen der Klebstoff auch zur Zugkraftübertragung ge-nutzt wird. Zusätzlich bieten Füllstoffe eine Möglichkeit, die Steifigkeit des Klebstoffs zu stei-gern, was für viele mechanischen Beanspruchungen Vorteile mit sich bringt. Die Kombination aus einem partikelgefüllten und zusätzlich faserverstärkten Klebstoff führt zu einem Ver-bundwerkstoff, der für viele unterschiedliche Anwendungen geeignet ist. Praktische Anwen-dungsmöglichkeiten finden sich in der Herstellung von Fassadenelementen, wo der faserver-stärkte Klebstoff zur Verbindung von Aluminiumhohlprofilen verwendet wird. Weitere Anwen-dungsgebiete erstrecken sich auf die Zugkraftbewehrung von Betontragelementen, bei denen der faserverstärkte Klebstoff die Rolle einer Zugbewehrung an der Betonoberfläche übernimmt.
Alu-CFK-Hybridelemente ermöglichen die Herstellung sehr effizienter Tragsysteme, bei de-nen Gewichtsreduzierung der Tragstruktur und Kosteneinsparungen im Betrieb des Bauwerks gleichermaßen ermöglicht werden. Die CFK-Lamellen werden dabei in den am stärksten längskraftbeanspruchten Bereichen eines Aluminiumtragelementes angeordnet, wodurch sich die Biegetragfähigkeit des dann hybriden Tragelements signifikant erhöht. In der Folge können Gewichtsreduzierungen, verglichen mit herkömmlichen Aluminiumtragelementen, erzielt werden. Weiterhin können die Querschnittsaußenmaße bei Alu-CFK-Hybridelementen deutlich reduziert werden. In der Folge vereinfachen sich der Transport und die Montage dieser Art Tragwerke, was besonders bei fliegenden Bauten einen wesentlichen Vorteil dar-stellt.
Der Einsatz von Glas-Kunststoff-Hybridelementen ermöglicht die Konstruktion transparenter Tragstrukturen in einer optisch einzigartigen Qualität. Die Konstruktion eines Glas-Kunststoff-Hybridelementes ermöglicht ein redundant wirkendes Tragverhalten, bei dem die Steifigkeit und optische Qualität des Glases optimal im Tragsystem genutzt werden können. Der Kunst-stoff stellt eine Art Sicherheitselement dar und übernimmt im Falle eines Glasbruchs die Tragwirkung des Glases. Die Eigenschaft der Vorankündigung eines Systemversagens stellt die Grundlage für eine baupraktische Anwendung des Glas-Kunststoff-Hybridelementes als statisches Tragsystem dar. Durch die Redundanz des Tragverhaltens von Glas-Kunststoff-Hybridelementen ist das Versagen dieser Tragstruktur durch optische oder strukturelle An-zeichen erkennbar und eine Bemessung somit möglich.
Für die mechanische Analyse grundlegender Zusammenhänge in Hybridsystemen können ingenieurmäßige, analytische und numerische Betrachtungen durchgeführt werden. Die in-genieurmäßigen Betrachtungen sind sehr gut geeignet, um Abschätzungen zu treffen, die in später durchgeführten experimentellen Bauteiluntersuchungen oft auch ihre Bestätigung fan-den. Bei Detailbetrachtungen, wie z. B. der Analyse eines nichtlinearen Spannungsverlaufes in mechanisch beanspruchten Klebfugen, bietet eine numerische Betrachtung mittels FEM Vorteile, da sie eine sehr detaillierte Auswertung in Bereichen mit hohen Spannungsgradien-ten ermöglicht. Durch die Anwendung der FEM ist es möglich, Strukturen in unterschiedlichen Skalierungsbereichen zu analysieren und dabei auch Bereiche einzubeziehen, die für experimentelle Untersuchungen nur sehr schwer zugänglich sind. Genaue Kenntnisse über das Materialverhalten der zu analysierenden Stoffe stellen dabei eine wesentliche Grundlage für die Erstellung qualitativ hochwertiger Rechenmodelle dar.
Die Dissertation adressiert das Gebiet der Entwicklung von (räumlicher) Präsenz in computer-generierten virtuellen Umgebungen im speziellen und virtueller Architektur im besonderen. Der erste Teil motiviert die Arbeit, führt in die Terminologie ein und beschreibt die grundlegenden Prinzipien der virtuellen Realität (VR) und von VR-basierter Architektur. Der Schwerpunkt liegt auf sogenannten immersiven VR-Systemen. Der folgende Teil erarbeitet den theoretischen Hintergrund der Entwickling von Präsenz unter besonderer Beachtung philosophischer und kognitiver Ansätze. Ein eigenes Kapitel widmet sich der Klassifikation von Präsenz-Faktoren unter dem Gesichtspunkt der praktischen Gestaltung virtueller Architektur. Letztendlich werden verschiedene empirische Untersuchungen vorgestellt, die die entwickelten Ansaetze evaluieren und beschreiben. Die Ergebnisse werden im Kontext des architektonischen Gestaltens diskutiert.
Die Dissertation exploriert und evaluiert Faktoren für alternative Entwurfsmethoden in räumlich verteilten Arbeitsstrukturen. Der erste Teil motiviert die Arbeit durch eine theoretische Exploration von Alltagserfahrungen im Vergleich zu historischen Analogien beim Einsatz neuer Techniken / Technologien. Im zweiten Teil werden empirisch Faktoren für alternative digitale Entwurfsmethoden exploriert. Im dritten Teil erfolgt eine Theoriebildung und die Entwicklung einer Entwurfsmethode auf der Basis der Explorierten Hypothesen aus Teil eins und zwei. Der vierte und fünfte Teil widmet sich der explanativen Falsifikation der Theorie durch einen Feldversuch. Dieser wird durch eine sozialwissenschaftliche Evaluation unterstützt. Die Ergebnisse werden im Hinblick auf die entwickelte Methode und weitere Untersuchungen diskutiert.
This practice-based research examines platforms and encounters that have a participatory character as a strategy to create lived and shared experiences where new forms of appropriation of the city can emerge. The selected case studies propose and initiate certain urban experiences that induce changes in perception, the exchange of perspectives, and that denaturalize habits and patterns of behavior. I suggest that when these sensitive experiences become imprinted in body memory, they can empower citizens to have more active, creative, and/or critical attitudes towards their environments. Searching for new repertoires of everyday practices that contest commodification of both the body and the city, this thesis is oriented towards open-ended processes of constructing mentalities rather than those of planning changes on the material conditions of public space. It uses forms of academic investigation that merge intellectual debate and experimental practice, joining art, urbanism and social engaged practices in an extradisciplinary (Howes 2007) attitude towards the city. Based on the materials generated by the case studies (combining theoretical knowledge with artistic sensibility), the affective and corporeal involvement of researchers in the situations they analyze and co-create, is sustained in opposition to the traditional academic critical distance.
Der Zusammenhang zwischen Schädigung und der Veränderung dynamischer und statischer Eigenschaften von Stahlbetonstrukturen wird untersucht. Auf der einen Seite stehen die statischen Lastversuche in Verbindung mit dynamischen Experimenten an Stahlbetonstrukturen (Platten und Balken). Auf der anderen Seite wird für die Balkenstrukturen ein nichtlineares Stochastisches Finite Elemente Modell entwickelt. Dies berücksichtigt zufällige Material- und Festigkeitseigenschaften durch räumlich korrelierte Zufallsfelder. So werden stochastische Rissentwicklungen für den Stahlbeton simuliert. Für die Berechnungen vieler Realisationen und damit verschiedenartige "Lebensgeschichten" einer Struktur wird als Monte Carlo Methode Latin Hypercube Sampling verwendet. Die Auswertung der Strukturantworten für die Lastgeschichte zeigt den Einfluss der zufälligen Eigenschaften auf die Schädigungsentwicklung. Die Arbeit leistet einen Beitrag zur Bewertung und zum zukünftigen Einsatz dynamischer Untersuchungsmethoden im Bauwesen.
Polymer-modified cement concrete (PCC) is a heterogeneous building material with a hierarchically organized microstructure. Therefore, continuum micromechanics-based multiscale models represent a promising method to estimate the mechanical properties. By means of a bottom-up approach, homogenized properties at the macroscopic scale are derived considering microstructural characteristics. The extension of existing multiscale models for the application to PCC is the main objective of this work. For that, cross-scale experimental studies are required. Both macroscopic and microscopic mechanical tests are performed to characterize the elastic and viscoelastic properties of different PCC. The comparison between experiment and model prediction illustrates the success of the modeling approach.
In der vorliegenden Arbeit wird die Bedeutung und Funktion des fotografischen Bildes und im Besonderen der Handyfotografie im Kontext von Internet und sozialen Onlinenetzwerken beschrieben, untersucht und diskutiert.
Im Spannungsfeld zwischen sozialwissenschaftlichen Theorien, foto- und medientheoretischem Diskurs sowie ästhetisch künstlerischen Perspektiven wird ausgelotet, welche konkreten visuellen und sozialen Formen die gegenwärtige mobile digitale Bildpraxis angenommen hat, wie sich ihre Gebrauchsweise innerhalb des globalen gesellschaftlichen Alltags darstellt, und in welcher Weise ihr spezielles Zusammenspiel aus „shooting“, „uploading“, „sharing“ zu neuen menschlichen Handlungsmustern und zur Schaffung neuer kultureller Realitäten beiträgt.
Landwirtschaftliche Biogasanlagen leisten mit ca. 9.300 Anlagen und einem Anteil von 5,3% an der Stromerzeugung, einen Beitrag zur Erzeugung Erneuer-barer Energien in Deutschland. Die Optimierung dieser Anlagen fördert die nachhaltige Bereitstellung von Strom, Wärme und BioErdgas.
Das Ergebnis dieser Forschungsarbeit ist die Entwicklung eines mehrmethodi-schen Bewertungsansatzes zur Beschreibung der Qualität der Eingangs-substrate als Teil einer ganzheitlichen Prozessoptimierung. Dies gelingt durch die kombinierte Nutzung klassischer Analysesätze, der Nutzung organolepti-scher Parameter – der humansensorischen Sinnenprüfung – und der Integration von prozess- und substratspezifischem Erfahrungswissen. Anhand von halbtechnischen Versuchen werden Korrelationen und Kausalitäten zwi-schen chemisch-physikalischen, biologischen, organoleptischen und erfahrungsbezogenen Parametern erforscht. Die Entwicklung einer Fallbasis mit Hilfe des Fallbasierten Schließens, einer Form Künstlicher Intelligenz, zeigt das Entwicklungs- und Integrationspotenzial der Automatisierung auf, insbesondere auch im Hinblick auf neue Ansätze z.B. Industrie 4.0. Erste Lösungen zur Bewältigung der identifizierten Herausforderungen der mehrmethodischen Prozessbewertung werden vorgestellt.
Abschließend wird ein Ausblick auf den weiteren Forschungsbedarf gegeben und die Übertragbarkeit des mehrmethodischen Bewertungsansatzes auf andere Anwendungsfelder z.B. Bioabfallbehandlung, Kläranlagen angeregt.
Analysiert werden 18.751 meldepflichtige Arbeitsunfälle aus dem Bauwesen der 90er Jahre. Für die Ermittlung der Unfallursachen finden Ereignisbereichs-Checklisten Verwendung, welche Unfallschwerpunkte prozessbezogen nach Unfallhäufigkeit und –schwere deutlich machen. Sowohl der Gesamtprozess als auch jede einzelne der 14 technologischen Linien und der 3 prozessübergreifenden Unfallgruppen wird durch eine charakteristische Struktur der Verletzungen gekennzeichnet. Diese Strukturen werden mit Hilfe von Verletzungsprofilen dargestellt. Letztere ordnen die Unfälle komplex nach Verletzungsarten und verletzten Körperteilen. Auf Grundlage der statistischen Auswertungen werden prozessbezogene sowie prozessübergreifende Präventionsmaßnahmen u. a. für folgende Bereiche abgeleitet: Planung von Neubauten, Arbeitsvorbereitung, Bauausführung und Unterweisung des Personals.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
Der junge Beton ist durch thermische und hygrische Einwirkungen sowie die Entwicklung der Festigkeitseigenschaften und die Relaxation der Zwangsspannungen gekennzeichnet. Ziel der Arbeit ist es, ausgehend vom Materialverhalten eine Strategie zur wirlichkeitsnahen Berechnung von Spannungen in jungen Betonbauteilen infolge von Temperaturfeldern zu entwickeln. Die Berechnungsergebnisse wurden für die Temperatur mit Versuchen im Labor und in situ verifiziert; für die Spannung wurde die Überprüfung der Berechnung mit Hilfe von Versuchen im Labor durchgeführt. Am Beispiel eines Hochofenfundamentes wurde zur Minimierung der Beanspruchungen der Einfluss der Betonrezeptur und der Herstellungstechnologie auf die Temperatur und Spannung des Bauteils untersucht. Anschließend wurde daraus der Einfluss der Erhärtung auf die Materialfelder im Querschnitt beurteilt. Die vorliegende Arbeit leistet einen Beitrag zur rechnerischen Lösung von therm! ischen und mechanischen Problemen des jungen Betons.
Die Arbeit gliedert sich in drei Komplexe. Der erste Komplex umfaßt Voruntersuchungen zum Ultraschallmeßsystem hinsichtlich Sendefrequenzen, Ankoppeldruck und gerätespezifischen Verzögerungszeiten. Zur schrittweisen Entwicklung eines berührungslos arbeitenden Ultraschallverfahrens werden Grundlagenuntersuchungen zur laserinduzierten Anregung von Ultraschallwellen und zur berührungslosen Signalerfassung mittels Laservibrometer durchgeführt. Der zweite Komplex beinhaltet die Untersuchung von Gefügeschädigungen durch Frostangriff. Als Kennwert der inneren Schädigung wird die Änderung des dynamischen E-Moduls durch Anwendung von akustischen Meßverfahren (z.B. Dehnwellenresonanzverfahren) bestimmt. Der Erfassung und Visualisierung des Schädigungsgradienten wird besondere Bedeutung beigemessen. Der dritte Komplex umfaßt die Untersuchung der Gefügeentwicklung während der Hydratation von Normalbetonen zur Bestimmung der Erhärtungsdruckfestigkeit mit dem Ultraschallmeßsystem CONSONIC 60. Ausgewertet werden kontinuierliche und diskontinuierliche Impulslaufzeitmessungen unter Einbeziehung der Betonrezeptur.
Der Komplexität einer großen Baumaßnahme steht meist ein relativ unpräzises Termincontrolling gegenüber. Die Gründe dafür liegen in unzureichenden Baufortschrittsinformationen und der Schwierigkeit, eine geeignete Steuerungsmaßnahme auszuwählen. In der Folge kommt es häufig zu Terminverzügen und Mehrkosten.
Ziel der Arbeit war es, die realen Bau-Ist-Zustände eines Bauprojektes so genau zu erfassen, dass es möglich wird, täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes zu schaffen und mit Hilfe eines Simulationswerkzeuges nachzubilden. Zu diesem Zweck sollte ein Erfassungskonzept ausgearbeitet werden, mit dessen Hilfe unter Verwendung von Erfassungstechniken aussagekräftige sowie belastbare Daten zu einer auf die Anforderungen der Simulation abgestimmten Datenbasis zusammengeführt werden.
Um der Zielstellung gerecht zu werden, wurde anhand eines Beispiels ein Prozessmodell aufgebaut und definiert, welche Informationen zum Aufbau eines Simulationsmodells, das die reaktive Ablaufplanung unterstützt, erfasst werden müssen. Die einzelnen Prozessgrößen wurden detailliert beschrieben und die Erfassungsgrößen daraus abgeleitet. Weiterhin wurden Aussagen zur Prozessstrukturierung erarbeitet. Somit wurden Informationsstützstellen definiert.
Es wurden Methoden zur Erfassung des Bau-Ist-Zustandes hinsichtlich ihrer Eignung sowie Anwendungsmöglichkeiten analysiert und ausgewählte Anwendungsbeispiele für RFID, Barcodes und Bautagebücher dargestellt. Außerdem wurde betrachtet, welche Daten der baustelleneigenen Bauablaufdokumentation zur Belegung der Informationsstützstellen genutzt werden können. Diese Betrachtung stellte Dokumente in den Fokus, welche aufgrund von Vorschriften oder Vertragsbedingungen ohnehin auf Baustellen erfasst werden müssen.
Schließlich wurden die vorangegangenen Betrachtungen hinsichtlich der Erfassungsgrößen und der Erfassungsmethoden in einem Erfassungskonzept zusammengeführt und eine geeignete Kombination von Erfassungsmethoden entwickelt.
Der Baufortschritt soll anhand der Beschreibung, welchen Status die einzelnen Vorgänge angenommen haben, mit Hilfe eines digitalen Bautagebuchs erfasst werden. Die Randbedingungen, wie die Verfügbarkeit von Personal-, Material- und Geräteressourcen, werden mit Hilfe von RFID-Tags identifiziert, auf denen alle weiteren benötigten Informationen hinterlegt sind. Informationen über Ressourcen, welche geplante Termine wiedergeben, müssen ebenfalls im digitalen Bautagebuch hinterlegt und aktuell gehalten werden. Traditionelle Lieferscheine in Papierform müssen durch digitale Lieferscheine ersetzt werden.
Abgeschlossen wurde die Ausarbeitung des Erfassungskonzeptes durch Ansätze, mit deren Hilfe der Erfassungsaufwand reduziert werden kann. Zu diesem Zweck wurde eine hierarchische Ordnung des Erfassungskonzeptes eingeführt.
Im Ergebnis ist somit ein Erfassungskonzept entstanden, mit dessen Hilfe die realen Bau-Ist-Zustände einer Baumaßnahme so genau erfasst werden können, dass täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes in einer Simulations¬umgebung generiert werden kann. Die Erfassungskonzeption liefert eine Datenbasis, die auf die Anforderungen der Simulation abgestimmt ist.
In der Arbeit werden Verfahren zur baustofflichen und statisch-konstruktiven Beurteilung von bestehenden Gebäuden mit Außenwandelementen aus haufwerksporigem Leichtbeton mit gefügedichten Betondeckschichten entwickelt und beurteilt. Zunächst werden die an 110 Objekten auf der Grundlage von entwickelten Prüfverfahren diagnostizierten baustofflichen Parameter dieser Außenwandelemente dem Vorschriftenwerk der DIN zugeordet und Spektren bzw. Korrelationen ausgewiesen. Im Ergebnis der baustofflichen Beurteilung werden Berechnungsverfahren, welche das tatsächliche Tragverhalten dieser mehrschichtigen Außenwandelemente erfassen, entwickelt. Auf der Grundlage theoretischer und experimenteller Untersuchungen werden diese Berechnungsverfahren beurteilt und dem der ursprünglichen Planung der Gebäude zugrundeliegenden genormten Berechnungsverfahren für einschichtige Querschnitte gegenübergestellt. Desweiteren werden standsicherheitserhöhende Maßnahmen für diese Gebäude diskutiert und der Einfluß von Zementleiminjektagen auf die baustofflichen und statisch-konstruktiven Parameter beschrieben. Darüber hinaus werden die baustofflichen Voraussetzungen für eine Anwendbarkeit von Zementleiminjektagen im haufwerksporigen Leichtbeton ausgewiesen. Die Ergebnisse der Anwendung der in dieser Arbeit entwickelten Prüf- und Berechnungsverfahren auf vorhandene Gebäude im Rahmen von Fassadensanierungsmaßnahmen werden dargestellt und beurteilt.
Entwicklung und Untersuchung von alternativen Dicalciumsilicat-Bindern auf der Basis von alpha-C2SH
(2018)
Um den Klimawandel zu begrenzen, müssen die CO2-Emissionen drastisch gesenkt werden [100]. Bis 2050 soll bei der Herstellung von Zement eine Einsparung um 51–60 % auf 0,425–0,350 tCO2/tZement erfolgen [7]. Um dieses Ziel zu erreichen, sind alternative Bindemittelkonzepte notwendig [70].
Diese Arbeit widmet sich alternativen, hochreaktiven Dicalciumsilicat-Bindemitteln, die durch die thermische Aktivierung von α-Dicalcium-Silicat-Hydrat (α-C2SH) erzeugt werden. Das α-C2SH ist eine kristalline C S H-Phase, die im hydrothermalen Prozess, beispielsweise aus Branntkalk und Quarz, herstellbar ist. Die thermische Aktivierung kann bei sehr niedrigen Temperaturen erfolgen (>420 °C) und führt zu einem Multiphasen-C2S-Binder. Als besonders reaktive Bestandteile können x-C2S und röntgenamorphe Anteile enthalten sein. Weiterhin können β C2S, γ C2S und Dellait (Ca6(SiO4)(Si2O7)(OH)2) entstehen.
Im Rahmen der Arbeit wird zunächst der Stand des Wissens zur Polymorphie und Hydratation von C2S zusammengefasst. Es werden bekannte C2S-basierte Bindemittelkonzepte vorgestellt und bewertet.
Die Herstellung von C2S-Bindern wird experimentell im Labormaßstab untersucht. Dabei kommen unterschiedliche Autoklaven und ein Muffelofen zum Einsatz. Die Herstellungsparameter werden hinsichtlich Phasenbestand und Reaktivität optimiert. Die Bindemittel werden durch quantitative Röntgen-Phasenanalyse (QXRD), Rasterelektronenmikroskopie (REM), N2-Adsorption (BET-Methode), Heliumpycnometer, Thermoanalyse (TGA/DSC) und 29Si-MAS- sowie 29Si-1H-CP/MAS-NMR-Spektroskopie charakterisiert. Das Hydratationsverhalten der Bindemittel wird vorrangig mithilfe von Wärmeflusskalorimetrie untersucht. Weiterhin werden in situ und ex situ XRD-, TGA/DSC- und REM-Untersuchungen durchgeführt. Anhand von zwei Bindemitteln wird die Fähigkeit zur Erzielung hoher Festigkeiten demonstriert. Abschließend erfolgt eine Abschätzung zu Energiebedarf und CO2-Emissionen für die Herstellung der untersuchten C2S-Binder.
Die Ergebnisse zeigen, dass für eine hohe Reaktivität der Binder eine niedrige Brenntemperatur und ein geringer Wasserdampfpartialdruck während der thermischen Aktivierung entscheidend sind. Weiterhin muss das hydrothermal hergestellte α-C2SH eine möglichst hohe spezifische Oberfläche aufweisen. Diese Parameter beeinflussen den Phasenbestand und die phasenspezifische Reaktivität. Brenntemperaturen von ca. 420–500 °C führen zu hochreaktiven Bindern, die im Rahmen dieser Arbeit als Niedertemperatur-C2S-Binder bezeichnet werden. Temperaturen von ca. 600–800 °C führen zu Bindern mit geringerer Reaktivität, die im Rahmen dieser Arbeit als Hochtemperatur-C2S bezeichnet werden. Höhere Brenntemperaturen (1000 °C) führen zu Bindemitteln, die innerhalb der ersten drei Tage keine hydraulische Aktivität zeigen.
Die untersuchten Bindemittel können sehr hohe Reaktionsgeschwindigkeiten erreichen. Die Wärmeflusskalorimetrie deutet bei einigen Bindemitteln einen nahezu vollständigen Umsatz innerhalb von drei Tagen an. Durch XRD wurde für einen Binder der vollständige Verbrauch von x-C2S innerhalb von drei Tagen nachgewiesen. Für einen mittels in-situ-XRD und Wärmeflusskalorimetrie untersuchten Binder wurde gezeigt, dass die Phasen vorrangig in der Reihenfolge röntgenamorph > x-C2S > β-C2S > γ-C2S hydratisieren. Hydratationsprodukte sind nadelige C S H-Phasen und Portlandit.
Die Herstellung durch thermische Aktivierung von α-C2SH führt zu tafeligen Bindemittelpartikeln, die teilweise Zwickelräume und Poren zwischen den einzelnen Partikeln einschließen. Um eine verarbeitbare Bindemittelpaste zu erzeugen, sind daher sehr hohe Wasser/Bindemittel-Werte (z. B. 1,4) erforderlich. Der Wasseranspruch kann durch Mahlung etwa auf das Niveau von Zement gesenkt werden.
Die Druckfestigkeitsentwicklung wurde an zwei Niedertemperatur-C2S-Kompositbindern mit 40 % Kalksteinmehl bzw. 40 % Hüttensand untersucht. Aufgrund von theoretischen Betrachtungen zur Porosität in Abhängigkeit des w/b-Wertes wurde dieser auf 0,3 festgelegt. Durch Zugabe von PCE-Fließmittel wurde ein verarbeitbarer Mörtel erhalten. Die Festigkeitsentwicklung ist sehr schnell. Der Kalksteinmehl-Binder erreichte nach zwei Tagen 46 N/mm². Bis Tag 28 trat keine weitere Festigkeitssteigerung ein. Der Hüttensand-Binder erreichte nach zwei Tagen 62 N/mm². Durch die Hüttensandreaktion stieg die Festigkeit bis auf 85 N/mm² nach 28 Tagen an.
Für den Herstellungsprozess von Niedertemperatur-C2S-Binder wurden Energieverbräuche und CO2-Emissionen abgeschätzt. Es deutet sich an, dass, bezogen auf die Bindemittelmenge, keine wesentlichen Einsparungen im Vergleich zur Portlandzementherstellung möglich sind. Für die tatsächlichen Emissionen muss jedoch zusätzlich die Leistungsfähigkeit der Bindemittel berücksichtigt werden. Die Leistungsfähigkeit kann als erforderliche Bindemittelmenge betrachtet werden, die je m³ Beton eingesetzt werden muss, um bestimmte Festigkeits-, Dauerhaftigkeits- und Verarbeitungseigenschaften zu erreichen.
Aus verschiedenen Veröffentlichungen [94, 201, 206] wurde die These abgeleitet, dass die Leistungsfähigkeit eines Bindemittels maßgeblich von der C-S-H-Menge bestimmt wird, die während der Hydratation gebildet wird. Daher wird für NT-C2S-Binder eine außergewöhnlich hohe Leistungsfähigkeit erwartet.
Auf Basis der Leistungsfähigkeitsthese verringern sich die abgeschätzten CO2-Emissionen von NT-C2S-Bindern, sodass gegenüber Portlandzement ein mögliches Einsparpotenzial von 42 % ermittelt wurde.
Marine Makroalgen besitzen vielversprechende Eigenschaften und Inhaltsstoffe für die Verwendung als Energieträger, Nahrungsmittel oder als Ausgangsstoff für Pharmazeutika. Dass die Quantität und Qualität der in natürlicher Umgebung wachsenden Makroalgen schwankt, reduziert jedoch deren Verwertbarkeit und erschwert die Erschließung hochpreisiger Marktsegmente. Zudem ist eine Ausweitung der Zucht in marinen und küstennahen Aquakulturen in Europa gegenwärtig wenig aussichtsreich, da vielversprechende Areale bereits zum Fischfang oder als Erholungs- bzw. Naturschutzgebiete ausgewiesen sind. Im Rahmen dieser Arbeit wird demzufolge ein geschlossenes Photobioreaktorsystem zur Makroalgenkultivierung entwickelt, welches eine umfassende Kontrolle der abiotischen Kultivierungsparameter und eine effektive Aufbereitung des Kulturmediums vorsieht, um eine standortunabhängige Algenproduktion zu ermöglichen. Zur Bilanzierung des Gesamtkonzeptes einer Kultivierung und Verwertung (stofflich oder energetisch) werden die spezifischen Wachstumsraten und Methanbildungspotentiale der Algenarten Ulva intestinalis, Fucus vesiculosus und Palmaria palmata in praktischen Versuchen ermittelt.
Im Ergebnis wird für den gegenwärtigen Entwicklungsstand der Kultivierungsanlage eine positive Bilanz für die stoffliche Verwertung der Algenart Ulva intestinalis und eine negative Bilanz für die energetische Verwertung aller untersuchten Algenarten erzielt. Wird ein Optimalszenario betrachtet, indem die Besatzdichten und Wachstumsraten der Algen in der Zucht erhöht werden, bleibt die Energiebilanz negativ. Allerdings summieren sich die finanzielle Einnahmen durch einen Verkauf der Algen als Produkt auf jährlich 460.869€ für Ulva intestinalis, 4.010€ für Fucus vesiculosus und 16.913€ für Palmaria palmata. Im Ergebnis ist insbesondere eine stoffliche Verwertung der gezüchteten Grünalge Ulva intestinalis anzustreben und die Produktivität der Zuchtanlage im Sinne des Optimalszenarios zu steigern.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
Im Rahmen der Dissertation wurde ein Toolboxmodell für transdisziplinäres Wasserressourcenmanagement entwickelt. Das Modell liefert den methodischen Rahmen Wasserressourcen nachhaltig und transdisziplinär zu bewirtschaften.
Der Begriff der Nachhaltigkeit und eine Konkretisierung der nachhaltigen Bewirtschaftung globaler Wasserressourcen scheinen unüberschaubar und suggerieren die Forderung nach einer neuen Weltformel. Die globale Bedeutung der Wasserressourcen, die für Regionen spezifischen Besonderheiten des natürlichen Wasserhaushalts und der anthropogenen Nutzung, die Zeitskala und die Kontextualisierung in alle betroffenen und benachbarten Disziplinen deuten auf die Komplexität der Thematik hin. Es wird eine Systematisierung des Planungsprozesses von Wasserressourcen notwendig, anhand derer eine holistische Herangehensweise mit einer Strategieentwicklung für Regionen spezifischer Schwerpunktprobleme erfolgt. Ziel der Arbeit ist die Erarbeitung einer Strategie zur Systematisierung nach diesen Forderungen und die Bereitstellung eines Toolboxmodelles als Planungswerkzeug für das transdisziplinäre Wasserressourcenmanagement.
Das Toolboxmodell stellt den konzeptionellen Rahmen für die Bewirtschaftung von Wasserressourcen mit der Anwendung transdisziplinärer Forschungsmethoden bereit. Wesentliche Herausforderung bei der Anwendung der transdisziplinären Methode sind die Implementierung verschiedener Skalenbereiche, der Umgang mit der Komplexität von Daten, das Bewahren von Transparenz und Objektivität sowie die Ermöglichung eines auf andere Regionen übertragbaren Planungsprozesses.
Die theoretischen Grundlagen naturwissenschaftlicher Forschung zur Nachhaltigkeit haben ihren Ursprung in den biologischen und geographischen Disziplinen. Das Ineinandergreifen naturräumlicher Zusammenhänge und der Einfluss anthropogener Nutzung und technischer Innovationen auf den Naturhaushalt sind Kern der Kausalität übergreifenden Denkens und Verstehens. Mit dem Ansatz des integrierten Wasserressourcenmanagements (IWRM) erfolgt die Berücksichtigung wirtschaftlicher und sozioökonomischer Ziele in den Planungsprozess für ökologisch nachhaltige Wasserwirtschaft. Das Instrument der Wasserrahmenrichtlinie (EU-WRRL) ist auf eine Gewässerökologie ausgerichtete Richtlinie, welche die Integration verschiedener Interessenvertreter in den Planungsprozess vorsieht. Das Konzept der neuartigen Sanitärsysteme basiert auf Stoffflüssen zwischen konkurrierenden Handlungsbereichen, wie Abfall-, Ressourcen- und Landwirtschaft.
Den integrierten Ansätzen fehlt eine übergeordnete gemeinsame Zielstrategie – eine sogenannte Phase Null. Diese Phase Null – das Lernen aller 7 Zusammenfassung 157 relevanten, konkurrierenden und harmonisierenden Handlungsfelder eines Planungshorizontes wird durch eine transdisziplinäre Perspektive ermöglicht. Während bei der integralen Perspektive eine disziplinorientierte Kooperation im Vordergrund steht, verlangt die transdisziplinäre Perspektive nach einer problemorientierten Kooperation zwischen den Interessenvertretern (Werlen 2015). Die bestehenden Konzepte und Richtlinien für das nachhaltige Management von Wasserressourcen sind etabliert und evaluiert. Der Literatur zur Folge ist eine Weiterentwicklung nach der Perspektive der Transdisziplinarität erforderlich. Das Toolboxmodell für integrales Wasserressourcenmanagement entspricht einem Planungstool bestehend aus Werkzeugen für die Anwendung wissenschaftlicher Methoden. Die Zusammenstellung der Methoden/Werkzeuge erfüllt im Rahmen die Methode transdisziplinärer Forschung. Das Werkzeug zum Aufstellen der relevanten Handlungsfelder umfasst die Charakterisierung eines Untersuchungsgebietes und Planungsrahmens, die kausale Verknüpfung des Bewirtschaftungskonzeptes und konkurrierender sowie sich unterstützender Stakeholder. Mit dem Werkzeug der Kontextualisierung und Indikatorenaufstellung wird eine Methode der stufenweisen und von einer Skala unabhängigen Bewertung des Umweltzustandes für die Zielpriorisierung vorgenommen. Damit wird das Toolboxmodell dem Problem der Komplexität und Datenverfügbarkeit gerecht. Anhand der eingesetzten ABC Methode, werden die Bewertungsgrößen differenziert strukturiert auf verschiedene Skalen und Datenressourcen (A=Ersterkennung,B=Zeigerwerte, C=Modell/Index). Die ABC-Methode ermöglicht die Planung bereits mit unsicherer und lückenhafter Datengrundlage, ist jederzeit erweiterbar und bietet somit eine operative Wissensgenerierung während des Gestaltungsprozesses.
Für das Werkzeug zur Bewertung und Priorisierung wird der Algorithmus der Composite Programmierung angewandt. Diese Methode der Mehrfachzielplanung erfüllt den Anspruch der permanenten Erweiterbarkeit und der transparenten und objektiven Entscheidungsfindung. Die Komplexität des transdisziplinären Wasserressourcenmanagements kann durch die Methode der Composite Programmierung systematisiert werden. Das wesentliche Ergebnis der Arbeit stellt die erfolgreiche Erarbeitung und Anwendung des Tool-boxmodells für das transdisziplinäre Wasserressourcenmanagement im Untersuchungsgebiet Stadt Darkhan in der Mongolei dar. Auf Grund seiner besonderen hydrologischen und strukturellen Situa-tion wird die Relevanz eines nachhaltigen Bewirtschaftungskonzeptes deutlich. Im Rahmen des Querschnittsmoduls des MoMo-Projektes wurde eine für das Toolboxmodell geeignete Datengrundlage erarbeitet. Planungsrelevante Handlungsfelder wurden im Rahmen eines Workshops mit verschiedenen Interessenvertretern erarbeitet. Im Ergebnis dessen wurde die Systematik eines Zielbaumes mit Hauptzielen und untergeordneten Teilzielen als Grundlage der Priorisierung nach den holistischen Anspruch der transdisziplinären Forschung aufgestellt. Für die Messbarkeit, in-wieweit Teilziele erreicht sind oder Handlungsbedarf besteht, wurden Indikatoren erarbeitet. Die Indikatoren-Aufstellung erfolgte exemplarisch für das Handlungsfeld Siedlungswasserwirtschaft in allen Skalen des ABC-Systems. Die im BMBF-MoMo Projekt generierte umfassende Datengrundlage ermöglichte die Anwendung und Evaluierung des Toolboxmodells mit unterschiedlichem quantitativem und qualitativem Dateninput. Verschiedene Kombination von A (Ersterkennung), B (Zeigerwerte) und C (Modell/Index) als Grundlage der Priorisierung mit der Compostite Programmierung ermöglichten die Durchführung und Bewertung des transdisziplinären Planungstools. Die er-mittelten Rangfolgen von Teilzielen mit unterschiedlichen Bewertungsvarianten ergaben ähnliche
Tendenzen. Das ist ein Hinweis dafür, dass für die zukünftige Anwendung des Toolboxmodells die operative Wissensgenerierung, d.h. das schrittweise Hinzufügen neu ermittelter, gesicherterer Daten, funktioniert. Eine schwierige Datenverfügbarkeit oder eine noch im Prozess befindliche wissenschaftliche Analyse sollen keine Hindernisse für eine schrittweise und erweiterbare Zielpriorisierung und Maßnahmenplanung sein. Trotz der Komplexität des transdisziplinären Ansatzes wird durch die Anwendung des Toolboxmodells eine effiziente und zielorientierte Handlungspriorisierung ermöglicht. Die Effizienz wird erreicht durch ressourcenschonende und flexible, Ziel fokussierte Datenermittlung. Zeit und Kosten im Planungsprozess können eingespart werden. Die erzielte Priorisierung von letztlich Handlungsempfehlungen erfolgt individuell auf die Eigenart des Untersuchungsgebietes angepasst, was hinsichtlich seiner Wirkung als erfolgsversprechend gilt.
Im Rahmen der Dissertation ist ein analytisches Berechnungsverfahren zur Ermittlung der Kapazität in lichtsignalgeregelten Zufahrten mit zusätzlichen Aufstellstreifen bei gleichzeitiger Freigabezeit entwickelt worden, dass sich durch folgende Eigenschaften auszeichnet:
a) einfaches Berechnungsverfahren – Ansatz eines einfachen linearen Berechnungsansatzes, der auf den Grundzusammenhängen des Verkehrsablaufs in lichtsignalgeregelten Zufahrten aufbaut,
b) breites Anwendungsgebiet – Berechnungsverfahren kann in Zufahrten mit bis zu zwei zusätzlichen Aufstellstreifen angewendet werden,
c) hohe Genauigkeit – Im Rahmen eines direkten Vergleichs konnte u. a.
gezeigt werden, dass mit dem hergeleiteten analytischen Berechnungsverfahren genauere Kapazitätswerte ermittelt werden können, als mit dem Berechnungsverfahren nach HBS 2015.
Die zu beobachtenden kürzeren Produktlebenszyklen und eine schnellere Marktdurchdringung von Produkttechnologien erfordern adaptive und leistungsfähige Produktionsanlagen. Die Adaptivität ermöglicht eine Anpassung der Produktionsanlage an neue Produkte, und die Leistungsfähigkeit der Anlage stellt sicher, dass ausreichend Produkte in kurzer Zeit und zu geringen Kosten hergestellt werden können. Durch eine Modularisierung der Produktionsanlage kann die Adaptivität erreicht werden. Jedoch erfordert heutzutage jede Adaption manuellen Aufwand, z.B. zur Anpassung von proprietären Signalen oder zur Anpassung übergeordneter Funktionen. Dadurch sinkt die Leistungsfähigkeit der Anlage.
Das Ziel dieser Arbeit ist es, die Interoperabilität in Bezug auf die Informationsverwendung in modularen Produktionsanlagen zu gewährleisten. Dazu werden Informationen durch semantische Modelle beschrieben. Damit wird ein einheitlicher Informationszugriff ermöglicht, und übergeordnete Funktionen erhalten Zugriff auf alle Informationen der Produktionsmodule, unabhängig von dem Typ, dem Hersteller und dem Alter des Moduls. Dadurch entfällt der manuelle Aufwand bei Anpassungen des modularen Produktionssystems, wodurch die Leistungsfähigkeit der Anlage gesteigert und Stillstandszeiten reduziert werden.
Nach dem Ermitteln der Anforderungen an einen Modellierungsformalismus wurden potentielle Formalismen mit den Anforderungen abgeglichen. OWL DL stellte sich als geeigneter Formalismus heraus und wurde für die Erstellung des semantischen Modells in dieser Arbeit verwendet. Es wurde exemplarisch ein semantisches Modell für die drei Anwendungsfälle Interaktion, Orchestrierung und Diagnose erstellt. Durch einen Vergleich der Modellierungselemente von unterschiedlichen Anwendungsfällen wurde die Allgemeingültigkeit des Modells bewertet. Dabei wurde gezeigt, dass die Erreichung eines allgemeinen Modells für technische Anwendungsfälle möglich ist und lediglich einige Hundert Begriffe benötigt.
Zur Evaluierung der erstellten Modelle wurde ein wandlungsfähiges Produktionssystem der SmartFactoryOWL verwendet, an dem die Anwendungsfälle umgesetzt wurden. Dazu wurde eine Laufzeitumgebung erstellt, die die semantischen Modelle der einzelnen Module zu einem Gesamtmodell vereint, Daten aus der Anlage in das Modell überträgt und eine Schnittstelle für die Services bereitstellt. Die Services realisieren übergeordnete Funktionen und verwenden die Informationen des semantischen Modells. In allen drei Anwendungsfällen wurden die semantischen Modelle korrekt zusammengefügt und mit den darin enthaltenen Informationen konnte die Aufgabe des jeweiligen Anwendungsfalles ohne zusätzlichen manuellen Aufwand gelöst werden.
Entscheidungshilfen für die Planung von Anlagen zum naßmechanischen Recycling von Betonrestmassen
(2004)
Trotz der weiten Verbreitung erfolgt die Planung der Restbetonrecyclinganlagen immer noch durch learnig-by-doing, da verfahrenstechnisches Grundlagenwissen nicht vorliegt. Wer an verantwortlicher Stelle die Investition in eine neue oder in die Verbesserung einer bestehenden Restbetonrecyclinganlage beurteilen soll, steht vor einer komplexen Entscheidung, die unter Berücksichtigung unterschiedlichster Kriterien getroffen werden muss. In der Praxis besteht hinsichtlich der Qualitätssicherung der Recyclingprodukte, der Ablagerungen der noch reaktiven Zementpartikel, der Bemessung der eingesetzten Maschinen, der praktikablen Handhabung hinsichtlich einiger Detailprobleme sowie der Anordnung der verfahrenstechnischen Komponenten in Bezug zur Geländeoberkante weitgehend Unklarheit. Das allgemeine Verlangen nach einer durchdachten Entscheidungshilfe und die Notwendigkeit, zu einem sachlich begründeten Urteil zu kommen, macht Entscheidungshilfen für die Planung von Restbetonrecyclinganlagen erforderlich. Insbesondere da Fehlentscheidungen nicht nur mit großem Aufwand rückgängig gemacht werden können. Hierfür wurden 18 maßgebliche Entscheidungskriterien entwickelt. Diese Entscheidungskriterien wurden im Rahmen der Nutzwertanalyse als Projektziele entwickelt. Die erarbeiteten Kriterien einteilen: - Kriterien zur Qualitätssicherung bei der Verwendung der Recyclingprodukte Für die Wiederverwendung der Recyclingprodukte Restwasser und Restbetonzu- schlag sind im technischen Regelwerk Verfahrensweisen vorgechrieben. Hinsichtlich der Prozesse bei der Wiederverwendung konnten deutliche Ver- besserungspotentiale aufgezeigt werden. Besonders die Anwendung von online- Dichtemessverfahren im Vergleich zur Aräometermessung verbessert die Len- kungsprozesse zur Qualitätssicherung. Aber auch die weitere Klassierung oder das getrennte Lagern und Dosieren des Restbetonzuschlags im Vergleich zu der im technischen Regelwerk vorgeschriebenen Verfahrensweise des volumetrischen Abschätzens bringt Verbesserungspotential. - Kriterien zur Minimierung von Ablagerungen Noch reaktive Zementpartikel kommen zeitweise permanent mit Anlagen- komponenten, Leitungen und Beckeninnenflächen der Recyclinganlage in Be- rührung. Ablagerungen von Zementpartikeln, die den Betrieb der Anlage be- hindern, verschlechtern oder sogar verhindern, sind unvermeidbar. Aller- dings kann, wie im Rahmen dieser Arbeit gezeigt wurde, eine Minimierung der Ablagerungen durch geeignete Maßnahmen herbeigeführt werden. Die Ablage- rungen im Suspensionsbeckenlassen sich durch den Zustand der homogenen Suspension sowie durch das Strömungsbild angepasste Formgebung minimieren. Durch die geeignete Gefällewahl und vor allem durch die korrekte Wahl der Pumpenart können die Ablagerungen in Leitungen minimiert werden. - Kriterien zur Bemessung der verfahrenstechnischen Apparate Die Auslegung der Recyclinganlage hinsichtlich der Auswaschleistung, der Rührerleistung und der Größe des Suspendierraumes erfolgt bisher anhand von praktischen Erfahrungswerten. In dieser Arbeit wurde für die Auswasch- leistung ein allgemeingültiges Berechnungsmodel hergeleitet. Darüber hinaus wurde gezeigt, dass die Rührerleistung für das Suspendieren von Restwasser berechnet werden kann. Die Größe des Suspendierraumes kann unter Be- rücksichtigung der zu- und abfließenden Materialströme berechnet werden. Das Trennverhalten des mechanischen Klassierers wurde im Rahmen einer Ver- suchsreihe mit folgenden Ergebnissen ermittelt: a. Die Klassierdurchsätze steigen mit größer werdendem Entleerdurchsatz. ufgrund der Pufferwirkung des mechanischen Klassierers, bei der die diskontinuierlich in den Aufgabetrichter gefüllte Restbetontrübe (Ent- leeren) in einem kontinuerlichen Prozess (Klassieren) durch den Trog gefördert wird, nähert sich der Klassierdurchsatz asymtotisch einem Grenzwert an. b. Das Masseausbringen rbz wird signifikant vom Klassierdurchsatz und weniger vom Entleerdurchsatz beeinflusst. c. Die Korngrößenverteilung des Restbetons, des Restbetonzuschlags und des Restwassers belegen anschaulich den erreichten Trenneffekt. d. Die Trennkorngröße steigt mit zunehmendem Klassierdurchsatz an. Diese Tendenz ist allerdings nur bei Betrachtung des "nassen" Klassier- durchsatzes signifikant erkennbar. Bei Betrachtung des "trockenen" Durchsatzes ergibt sich keine Abhängigkeit. Die Ursache hierfür ist, dass in den "nassen" Durchsatz Prozesse wie Trübeagitation und Feinkorn- konzentration indirekt eingehen. e. Der Fehlkornanteil < 125 µm im Restbetonzuschlag steigt ebenfalls mit "nassem" Klassiersatz an. f. Im Unterschied dazu bestehen für den Fehlkornanteil > 125 µm im Rest- wasser signifikante Abhängigkeiten zu Entleer- und Klassierdurchsätzen. Ursache ist der tote Fluss. - Kriterien zur Praktikabilität des Anlagenberiebes - Interdependenzen zwischen Anlagenkomponenten
Gründungsunternehmen stehen vor der Herausforderung, eine unternehmerische Leistung zu entwickeln und gleichzeitig eine Markenidentität aufzubauen. Dabei sind sie mit finanziellen, personellen und strukturellen Besonderheiten konfrontiert, aber auch mit Unbekanntheit und Kundenunsicherheit. Die Dissertation zielt darauf ab, durch die Analyse markenbildender Strategiepraktiken einen Beitrag zur wissenschaftlichen Auseinandersetzung mit der Markenbildung bei Gründungsunternehmen zu leisten und praktische Implikationen für angehende Gründer:innen sowie akademische Startup-Inkubatoren abzuleiten.
Der Fokus liegt dabei auf Gründungsvorhaben und Startups in der Vorgründungs- oder frühen Gründungsphase aus dem Hochschulumfeld. Zur Analyse markenbildender Strategiepraktiken wird der Strategy-as-Practice Ansatz (SAP) angewendet. Die qualitative Forschungsmethodik wird genutzt, um Handlungsmuster bestimmter Akteursgruppen in diesem spezifischen Kontext zu rekonstruieren. Beobachtungen, Interviews und Dokumente im Feld dienen als Grundlage für die Forschung.
Die Ergebnisse dieser Arbeit liefern umfassende Einblicke in die markenbildende Praxis bei Gründungsunternehmen. Auf Basis dieser Erkenntnisse wurde ein Modell entwickelt, das Komponenten beschreibt, die zusammen einen Handlungsrahmen für die Markenbildung in emergenten Strategiekontexten wie der Unternehmensgründung bilden. Dieses Modell bietet die Möglichkeit, sich vor dem Hintergrund der gründungsspezifischen Rahmenbedingungen mit der Markenentwicklung in der frühen Gründungsphase auseinanderzusetzen und sie systematisch in das Gründungsvorhaben zu implementieren.
Krankenhäuser sind heute äußerst komplexe Objekte, in denen komplizierte funktionale Anforderungen zusammen stoßen, die nur mit Hilfe einer sehr intensiven technischen Ausstattung zufrieden stellend gelöst werden können. Sie sind durch die medizintechnische Ausrüstung, die zum Teil sehr hohen hygienischen Anforderungen, die Patientenansprüche sowie die schärferen wirtschaftlichen Bedingungen gekennzeichnet. Gleichzeitig haben Krankenhäuser einen sehr hohen Energieverbrauch, der ein großes Einsparpotenzial beinhaltet, das vor dem Hintergrund der schlechteren Verfügbarkeit und der ökologischen Probleme des CO2-Ausstoßes durch die Verbrennung fossiler Brennstoffe sowie der Notwendigkeit einer gesicherten Energieversorgung eine zunehmende Bedeutung hat. Die energetische Struktur eines Gebäudes wird entscheidend in den frühen projekt- und Entwurfsphasen für die gesamte Lebensdauer des Gebäudes festgelegt. Der Architekt und andere Entscheider benötigen daher Instrumente, um diese Struktur einfach bestimmen und beurteilen zu können. Hierfür ist eine energetische Analyse und die Definition des Einflusspotenzials des architektonischen und baukonstruktiven Entwurfes auf den Energieverbrauch notwendig. Darauf aufbauend werden spezifische flächenbezogene Energieaufwandszahlen gebildet, wodurch eine energetische Beurteilung unabhängig von konkreten Entwürfen möglich wird. Durch die Definition von optimalen energetischen Strukturen einzelner Referenzbereiche von Krankenhäusern wird ein Maßstab geschaffen, an dem die tatsächlichen Entwürfe gemessen werden können, um daraus dimensionslose flächenbezogene Energieaufwandszahlen bilden zu können. Diese stellen Kennzahlen für die energetische Struktur von Entwürfen dar, wodurch eine Vergleichbarkeit sowohl bei einzelnen Bereichen des Krankenhauses wie auch beim gesamten Gebäude hergestellt wird. Energetisch vorteilhafter ist eine flächige Gebäudestruktur mit einer direkten Zuordnung der Technikzentralen zu den angeschlossenen Versorgungsbereichen. Die Schaffung von optimierten Installationsbedingungen ermöglicht eine energieoptimierte Struktur der Technischen Ausrüstung und ist beim Entwurf zu berücksichtigen.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
El paisaje de la Cuenca Lechera Central Argentina: la huella de la producción sobre el territorio
(2022)
In recent times, the study of landscape heritage acquires value by virtue of becoming an alternative to rethink regional development, especially from the point of view of territorial planning. In this sense, the Central Argentine Dairy Basin (CADB) is presented as a space where the traces of different human projects have accumulated over centuries of occupation, which can be read as heritage. The impact of dairy farming and other productive activities has shaped the configuration of its landscape. The main hypothesis assumed that a cultural landscape would have been formed in the CADB, whose configuration would have depended to a great extent on the history of productive activities and their deployment over the territory, and this same history would hide the keys to its alternative.
The thesis approached the object of study from descriptive and cartographic methods that placed the narration of the history of territory and the resources of the landscape as a discursive axis. A series of intentional readings of the territory and its constituent parts pondered the layers of data that have accumulated on it in the form of landscape traces, with the help of an approach from complementary dimensions (natural, sociocultural, productive, planning). Furthermore, the intersection of historical sources was used in order to allow the construction of the territorial story and the detection of the origin of the landscape components. A meticulous cartographic work also helped to spatialise the set of phenomena and elements studied, and was reflected in a multiscalar scanning.
Die Einflüsse polymerer Zusätze auf die Ausbildung der Mikrostruktur im frühen Stadium der Erhärtung und auf die Eigenschaften, insbesondere die Dauerhaftigkeit der modifizierten Mörtel wurden erforscht. Es sollte die Frage beantwortet werden, ob durch die Modifizierung die Dauerhaftigkeit von Mörteln mehr verbessert werden kann, als dies durch übliche betontechnologische Maßnahmen möglich ist. Die Ausbildung der Mikrostruktur in den ersten 24 Stunden der Erhärtung wurde mit verschiedenen Methoden, u.a. mittels ESEM, untersucht. Es wurden Modellvorstellungen zur Ausbildung der organischen Matrix und der anorganischen Matrix entwickelt: Interaktionen sind Adsorptionsreaktionen, Agglomerationen und Behinderung der Hydratation. Es wurden Frisch- und Festmörteluntersuchungen beschrieben und interpretiert. Unterschiedliche Dauerhaftigkeitsuntersuchungen wurden durchgeführt und bewertet. Die Mikrostruktur der Festmörtel wurde hinsichtlich ihres Einflusses auf die Dauerhaftigkeit betrachtet.
Die Untersuchungen zu Frost-Tau-Widerstand und Alkali-Zuschlag-Reaktionen an Gesteinen, Gesteinskörnungen sowie daraus hergestelltem Beton erfolgen jeweils mit und ohne Taumitteleinfluss. Neben Untersuchungen nach in Deutschland gebräuchlichen Normen und Richtlinien werden auch Prüfverfahren nach US-Standards und -Richtlinien einbezogen und kritisch analysiert, Modifikationsvorschläge unterbreitet sowie Klimawechsellagerungen und Auslagerungsversuche durchgeführt. Ziel war u.a. festzustellen, ob anhand von Prüfergebnissen an Gesteinskörnungen tatsächlich auf deren Dauerhaftigkeitsverhalten im Beton zu schließen ist. Im Ergebnis erwies sich der Washington Hydraulic Fracture Test als optimales Frostprüfverfahren. Eine Alkali-Carbontat-Reaktion kann theoretisch und praktisch ablaufen, war aber in Mörtel und Beton nicht nachweisbar. Mittels Klimawechsellagerung konnte die Prüfzeit für AKR-gefährdete Gesteine in Beton drastisch verkürzt werden. Zudem fördern alkalihaltige Taumittel eine AKR.
In der praktischen Anwendung werden den Calciumsulfatbindemitteln Kombinationen verschiedenster Zusätze beigegeben. Ein Verständnis für die Wirkungsweise der verschiedenen Zusätze wird folglich mit steigender Komplexität moderner Bindemittelrezepturen zunehmend wichtiger. In der vorliegenden Arbeit werden die Auswirkungen von Alkalisalzen und Fließmitteln auf die verschiedenen Phasen der Hydratation von Calciumsulfathalbhydrat systematisch analysiert und anschließend diskutiert.
Im ersten Teil der Arbeit wird gezeigt, dass Alkalisulfate und Alkalichloride die Hydratation von Calciumsulfathalbhydrat in unterschiedlicher Weise beeinflussen. Die Beschleunigungswirkung der gleichionigen Zusätzen K2SO4 und Na2SO4 wird sowohl durch eine verbesserte Keimbildung als auch durch einen Anstieg der Kristallwachstumsgeschwindigkeit verursacht. Während Alkalisulfate die Dihydratkeimbildung begünstigen, wird diese bei Zugabe von KCl und NaCl verzögert. Ein Beschleunigungseffekt setzt erst später in der Phase des Kristallwachstums ein. Die Wirkung der zugegebenen Ionen lässt sich entsprechend der Hofmeister-Serie einordnen.
Der zweite Teil der vorliegenden Arbeit präsentiert eine systematische Betrachtung der Wirkungsweise dreier Fließmittelgruppen im Calciumsulfatsystem (Polykondensat, Polycarboxylatether, Kammpolymer mit Phosphatgruppen). Untersuchungen zur Verflüssigungswirkung der Fließmittel zeigen, dass diese in der Reihenfolge Polykondensat < Polycarboxylatether < Kammpolymer mit Phosphatgruppen zunimmt. Eine direkte Korrelation zwischen Verflüssigungswirkung und Adsorptionsneigung besteht nicht. Neben den gewünschten Effekten weisen Fließmittel häufig auch eine Verzögerung der Hydratation des Bindemittels als unerwünschte Nebenwirkung auf. Ursächlich für diese fließmittelinduzierte Verzögerung ist eine Behinderung der Keimbildung und des Kristallwachstums. Untersuchungen zur Auflösung von Calciumsulfathalbhydrat zeigen eine Behinderung des Auflösungsprozesses in Anwesenheit der Fließmittel. Die Ergebnisse lassen eine partielle Belegung der Halbhydratoberflächen mit Fließmittelmolekülen vermuten. Die veränderte Morphologie der Dihydratkristalle verweist auf eine selektive Belegung der Dihydratoberflächen mit Fließmittelmolekülen.
Einfluss der Porosität von Beton auf den Ablauf einer schädigenden Alkali-Kieselsäure-Reaktion
(2016)
Der Dissertation liegt die Frage zugrunde, welchen Einfluss die Porosität von Beton auf den Ablauf einer schädigenden AKR hat. Insbesondere soll geklärt werden, ob der Einsatz von Gleitschalungsfertigern – anstelle von klassischen schienengeführten Betondeckenfertigern – und die damit verbundene verringerte Porosität der Betone den Ablauf einer schädigenden AKR begünstigt. Eine verringerte Porosität führt zu einer reduzierten Duktilität des Betons, so dass infolge AKR entstehende Zugspannungen schlechter abgebaut werden können. Weiterhin steht ein geringerer Expansionsraum für das entstehende AKR-Gel zur Verfügung. Diese Faktoren können den Ablauf einer AKR begünstigen. Allerdings können extern anstehende Alkalien schlechter in den Beton mit einer verringerten Porosität eindringen. Ferner wird die Diffusion der Alkalien zu den potenziell reaktiven Gesteinskörnungen verlangsamt.
Zur Beantwortung der aufgeworfenen Frage wird unter Einsatz einer neuartigen Prüfmethodologie und bei variierender Porosität untersucht, welche Schädigungsparameter maßgebend für den Ablauf und die Intensität einer schädigenden AKR sind. Die berücksichtigten Schädigungsparameter sind die mechanischen Eigenschaften des Betons, der zur Verfügung stehende Expansionsraum und die im Beton ablaufenden Transportvorgänge. Um den Einfluss der jeweiligen Schädigungsparameter spezifizieren zu können, gehen die Prüfungen einerseits von einem hohen internen und andererseits von einem hohen externen AKR-Schädigungspotenzial aus. In beiden Fällen erfolgen die Untersuchungen an langsam reagierenden alkaliempfindlichen Gesteinskörnungen. Die unterschiedlichen Porositäten ergeben sich hauptsächlich durch Variation des w/z-Wertes.
Bei dem hohen internen AKR-Schädigungspotenzial stehen die mechanischen Eigenschaften und der Expansionsraum im Vordergrund; außerdem ist der Einfluss der Zugabe eines LP-Bildners zu analysieren. Um ein hohes internes AKR-Schädigungspotenzial zu erreichen, kommt bei der Herstellung der Betonprobekörper ein Zement mit einem hohen Alkaligehalt zum Einsatz. Die Betonprobekörper werden der 40 °C-Nebelkammerlagerung und dem 60 °C-Betonversuch über Wasser unterzogen. Dabei findet eine neue Prüfmethodologie Anwendung, die der kontinuierlichen Messung der Dehnung und der ablaufenden Erhärtungs- und Rissbildungsprozesse dient. Diese Prüfmethodologie umfasst die Messung der Ultraschallgeschwindigkeit, die Schallemissionsanalyse und die µ-3D-Computertomografie.
Hingegen richtet sich der Fokus bei dem hohen externen AKR-Schädigungspotenzial auf die Transportvorgänge. Zur Provokation eines hohen externen AKR-Schädigungspotenzials werden die Probekörper der FIB-Klimawechsellagerung ausgesetzt.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Die fachlichen und organisatorischen Aufgaben der Informationsverarbeitung im Prozeß der Bauauftragsrechnung werden als theoretische Grundlage für die Anpassung und Neukonzeption netzverteilter Informationssysteme formal beschrieben. Hierzu erfolgen Untersuchungen von Methoden, Verfahren, Strukturen und Abläufen sowie der in Bauunternehmen angewendeten Informationssysteme. Grundlage einer Modellierungsmethode sind Abstraktionen von Prozeßschritten und Ereignissen in einer Ereignisgesteuerten Prozeßkette, Entitytypen in einem Entity Relationship Model, Funktionsbäume und Organisationseinheiten sowie deren mögliche Relationen. Mit dieser Methodik werden die Prozesse, Informationsdefinitionen, Funktionen und die Organisationsstruktur einzeln modelliert und Relationen zwischen den Modellelementen gebildet. Aus der fachlichen Auswertung der Modelle und Relationen folgen fachgebietsspezifische Prozeßabläufe und Arbeitsumgebungen. Deren Anwendung wird für ein Customizing vorhandener Informationsysteme und bei einer Neuimplementierung betrachtet. Neben einer umfangreichen fachlichen Problemanalyse leistet die Arbeit einen Beitrag zum methodischen Vorgehen bei Neukonzeption baubetrieblicher Informationssysteme.
Eine Analyse zum Strömungswiderstand natürlicher Fließgewässer mit ausgeprägter Sohlstrukturierung
(2008)
Übliche Ansätze zur Quantifizierung des Strömungswiderstandes natürlicher Fließgewässer mit geringer relativer Überdeckung und ausgeprägter Sohlstrukturierung basieren auf der Abhängigkeit von einem konstanten charakteristischen Rauheitsparameter. Diese Annahme ist nur für die turbulente rotationssymmetrische Rohrströmung mit hoher relativer Überdeckung gültig. Die Quantifizierung der Widerstandsprozesse mit einem konstant erhöhten Rauheitsmaß für die betrachteten Randbedingungen erfasst nicht die individuellen Charakteristiken von Rauheitsstruktur und integralem Strömungsfeld an unterschiedlichen Gewässerabschnitten sowie identischen Gewässerabschnitten bei Abflussvariation. Auf Basis detaillierter Datensätze von Oberflächenstrukturen und dem jeweiligen Strömungsfeld erfolgt die Untersuchung der Interaktion zwischen vorgenannten Punkten. Für die Charakterisierung der individuellen Rauheitsstruktur in Abhängigkeit der relativen Überdeckung erweist sich die vertikale Rauheitsdichte cK,V (Verbauungsgrad) als starke Funktion. Die Charakterisierung der Ungleichförmigkeit des integralen Strömungsfeldes als Folge der individuellen Rauheitsstruktur erfolgt auf Basis physischer Modellversuche und mathematisch-physikalischer Untersuchungen anhand des Geschwindigkeitshöhenausgleichsbeiwertes au. Die Formulierung des Strömungswiderstandes in Abhängigkeit dieser beiden Parameter resultiert in einer wesentlichen Verringerung des Fehlerbetrages und damit des Unsicherheitsbereiches. Die bestehende Reststreuung ist auf Einflüsse aus Anordnung und Form der Elemente, Turbulenz, Sekundärströmung, Wasserspiegeldeformationen, lokal kritische Strömung und Lufteinzug zurückzuführen.
Inhaltlich beschäftigt sich die Arbeit, die im Rahmen des Promotionsstudiengangs Kunst und Gestaltung an der Bauhaus-Universität entstand, mit der Erforschung sozio-interaktiver Potentiale der Videotelefonie im Kontext von Nähe und Verbundenheit mit Fokus auf Eigenbild, Embodiment sowie den Rederechtswechsel.
Die Videotelefonie als Kommunikationsform hat sich – und darauf deuten die Erfahrungen der Co- vid-19-Pandemie hin – im lebensweltlichen Alltag der Menschen etabliert und wird dort in naher Zukunft nicht mehr wegzudenken sein. Auf Basis ihrer Möglichkeiten und Errungenschaften ist es inzwischen Realität und Lebenswirklichkeit, dass die Kommunikation sowohl im privaten als auch im geschäftlichen Kontext mittels verschiedenster Kanäle stattfindet. Der Videotelefonie kommt hierbei als solche nicht nur eine tragende Funktion, sondern auch eine herausragende Rolle bei der vermeintlichen Reproduktion der Face-to-Face-Kommunikation im digitalen Raum zu und wird wie selbstverständlich zum zwischenmenschlichen Austausch genutzt. Just an diesem Punkt knüpft die Forschungsarbeit an. Zentral stand dabei das Vorhaben einer dezidierte Untersuchung des Forschungsgegenstandes Videotelefonie, sowohl aus Kultur- als auch Technikhistorischer, aber auch Medien-, Wahrnehmungs- wie Kommunikations- theoretischer Perspektive, indem analytische und phänosemiotische Perspektiven miteinander in Beziehung gesetzt werden (z.B. Wahrnehmungsbedingungen, Interaktionsmerkmale, realisierte Kommunikationsprozesse etc.). Damit verbundenes, wünschenswertes Ziel war es, eine möglichst zeitgemäße wie relevante Forschungsfrage zu adressieren, die neben den kulturellen Technisierungs- und Mediatisierungstendenzen in institutionellen und privaten Milieus ebenfalls eine conditio sine qua non der pandemischen (Massen-)Kommunikation entwirft.
Die Arbeit ist damit vor allem im Bereich des Produkt- und Interactiondesigns zu verorten. Darüber hinaus hatte sie das Ziel der Darlegung und Begründung der Videotelefonie als eigenständige Kommunikationsform, welche durch eigene, kommunikative Besonderheiten, die sich in ihrer jeweiligen Ingebrauchnahme sowie durch spezielle Wahrnehmungsbedingungen äußern, und die die Videotelefonie als »Rederechtswechselmedium« avant la lettre konsolidieren, gekennzeichnet ist. Dabei sollte der Beweis erbracht werden, dass die Videotelefonie nicht als Schwundstufe einer Kommunikation Face-to-Face, sondern als ein eigenständiges Mediatisierungs- und Kommunikationsereignis zu verstehen sei. Und eben nicht als eine beliebige – sich linear vom Telefon ausgehende – entwickelte Form der audio-visuellen Fernkommunikation darstellt, sondern die gestalterische (Bewegtbild-)Technizität ein eigenständiges Funktionsmaß offeriert, welches wiederum ein innovatives Kommunikationsmilieu im Kontext einer Rederechtswechsel-Medialität stabilisiert.
Die Arbeit beschäftigt sich mit den diskursiven Konstruktion urbaner Images in Großprojekten. Aufbauend auf einer soziologischen Definition der Begriffe „Raumbild“ und „Ortsbild“ wird am Beispiel des städtebaulichen Großprojekts Paris Rive Gauche untersucht, wie sich ortsspezifische Referenzen in einem Planungsprozess bilden, zu welchen Zwecken sie eingesetzt werden und wie mit Hilfe dieser Referenzen im Planungsprozess diskursiv ein Image für einen entstehenden Stadtteil konstruiert wird.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
In der vorliegenden Arbeit wird das Tragverhalten und das Sicherheitsniveau axial belasteter Großbohrpfähle in den pleistozänen Kalkarenit der Küstenregion von Dubai untersucht. Zunächst wird auf der Grundlage von Ergebnissen umfangreicher Baugrundanalysen und Probebelastungen das Tragverhalten detailliert beschrieben. Anschließend wird ein auf der Finiten-Elemente-Methode basierendes Strukturmodell zur Simulation des Last-Setzungsverhaltens von Großbohrpfählen im Sinne eines numerischen Versuchsstandes entwickelt. Um herstellungsbedingte Veränderungen der Baugrundeigenschaften in der Kontaktzone Pfahl-Baugrund zu berücksichtigen, die mit boden- und felsmechanischen Elementversuchen gewöhnlich nicht erfassbar sind, werden die Größen der relevanten konstitutiven Parameterwerte iterativ mittels inverser Optimierungsstrategien bestimmt. Abschließend wird eine methodische Vorgehensweise aufgezeigt, wie das Sicherheitsniveau axial belasteter Großbohrpfählen unter Berücksichtigung der räumlichen Variabilität der Baugrundeigenschaften zuverlässig abgeschätzt werden kann.
Der Siedlungsbau in Hanoi kan heutzutage - über 20 Jahre nach dem Beginn der Renovierungspolitik udn der Markwirtschaft, die dem Städtebau eine große Gelegenheit zur Verbesserung gegeben haben - zurückblickend und eingeschätz werden. Die letzten 20 Jahre sind eine kurze Zeit in der tausendjährigen Geschichte der Stadt, trotzdem entwickelte sich die Stadt in diesem Zeitraum am schnellsten und auch am problematischten aus Sicht der Umwelt. Ohne eine passende Entwicklungsstategie oder eine geeignete Maßnahme bei der Stadtplanung vergrößert sich der Konflikt Ökonomie - Ökologie immer weiter. ... Die Findung eines neuen Wohnkonzeptes im Gleichgewicht zwischen Ökonomie und der Ökologie ist eine hochaktuelle Frage geworden.
Die Auseinandersetzung mit der Digitalisierung ist in den letzten Jahren in den Medien, auf Konferenzen und in Ausschüssen der Bau- und Immobilienbranche angekommen. Während manche Bereiche Neuerungen hervorbringen und einige Akteure als Pioniere zu bezeichnen sind, weisen andere Themen noch Defizite hinsichtlich der digitalen Transformation auf. Zu dieser Kategorie kann auch das Baugenehmigungsverfahren gezählt werden. Unabhängig davon, wie Architekten und Ingenieure in den Planungsbüros auf innovative Methoden setzen, bleiben die Bauvorlagen bisher zuhauf in Papierform oder werden nach der elektronischen Einreichung in der Behörde ausgedruckt. Vorhandene Ressourcen, beispielsweise in Form eines Bauwerksinformationsmodells, die Unterstützung bei der Baugenehmigungsfeststellung bieten können, werden nicht ausgeschöpft. Um mit digitalen Werkzeugen eine Entscheidungshilfe für die Baugenehmigungsbehörden zu erarbeiten, ist es notwendig, den Ist-Zustand zu verstehen und Gegebenheiten zu hinterfragen, bevor eine Gesamtautomatisierung der innerbehördlichen Vorgänge als alleinige Lösung zu verfolgen ist.
Mit einer inhaltlich-organisatorischen Betrachtung der relevanten Bereiche, die Einfluss auf die Baugenehmigungsfeststellung nehmen, wird eine Optimierung des Baugenehmigungsverfahrens in den
Behörden angestrebt. Es werden die komplexen Bereiche, wie die Gesetzeslage, der Einsatz von Technologie aber auch die subjektiven Handlungsalternativen, ermittelt und strukturiert. Mit der Entwicklung eines Modells zur Feststellung der Baugenehmigungsfähigkeit wird sowohl ein Verständnis für Einflussfaktoren vermittelt als auch eine Transparenzsteigerung für alle Beteiligten geschaffen.
Neben einer internationalen Literaturrecherche diente eine empirische Studie als Untersuchungsmethode. Die empirische Studie wurde in Form von qualitativen Experteninterviews durchgeführt, um den Ist-Zustand im Bereich der Baugenehmigungsverfahren festzustellen. Das erhobene Datenmaterial wurde aufbereitet und anschließend einer softwaregestützten Inhaltsanalyse unterzogen. Die Ergebnisse wurden in Kombination mit den Erkenntnissen der Literaturrecherche in verschiedenen Analysen als Modellgrundlage aufgearbeitet.
Ergebnis der Untersuchung stellt ein Entscheidungsmodell dar, welches eine Lücke zwischen den gegenwärtigen
Abläufen in den Baubehörden und einer Gesamtautomatisierung der Baugenehmigungsprüfung schließt. Die prozessorientierte Strukturierung entscheidungsrelevanter Sachverhalte im Modell ermöglicht eine Unterstützung bei der Baugenehmigungsfeststellung für Prüfer und Antragsteller. Das theoretische Modell konnte in Form einer Webanwendung in die Praxis übertragen werden.
Die Arbeit beschäftigt sich mit der komplexen Aufgabe Stadtstrukturen mit einem Simulationsmodell im Rechner erzeugen zu können. Dafür wird ein Vierebenenmodell als Untermodellebene eingeführt, um mit allgemeinen Informationen, Parzellierung, Gebäuden und Optimierung der Struktur arbeiten zu können.
In der vorliegenden Arbeit werden auf Basis des Tensegrity-Konzeptes Strukturen entwickelt und vorgestellt, welche durch einen signifikanten Steifigkeitszuwachs in der Lage sind, die Anforderungen an die Gebrauchstauglichkeit von Tragwerken zu erfüllen.
Selbstverankerte Strukturen mit aufgelösten Druckstäben werden als Seil-Stab-Systeme bezeichnet und sind alleiniger Gegenstand aller angestellten Betrachtungen.
Tensegrity-Strukturen sollen eine Untergruppe der Seil-Stab-Systeme darstellen, deren symptomatische Eigenschaft eine sich im Tensegrity-Zustand befindliche Geometrie ist.
Einer Definition des Tensegrity-Zustandes folgt ein Überblick über die zur Untersuchung von Seil-Stab-Systemen notwendigen Berechnungsalgorithmen.
Der Kern der Arbeit beschäftigt sich zunächst mit dem Einfluss der Geometrie auf die Empfindlichkeit von Seil-Stab-Systemen gegenüber unvermeidlichen Herstellungstoleranzen sowie dem Einfluss von Topologie, Vorspannung, lokaler Steifigkeit der Elemente und Geometrie auf die Steifigkeit dieser Systeme.
Darauf aufbauend wird eine Möglichkeit gezeigt, die Steifigkeit von beweglichen Seil-
Stab-Systemen merklich zu erhöhen, ohne die Strukturen durch zusätzliche Elemente oder Verbindungen optisch zu verändern.
Der zu erzielende Steifigkeitszuwachs wird mittels Vergleichrechnungen und durchgeführten Belastungsversuchen verifiziert.
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.
Die vorliegende Arbeit gliedert sich in das Gebiet der Systemidentifikation ein. Besonderes Augenmerk wird auf die Detektion, die Lokalisierung und die Quantifizierung von Systemveränderungen gerichtet. Für diese Ziele werden -basierend auf Schwingungsmessungen- modale Parameter sowie Ein- und Ausgangsgrößen im Frequenzbereich extrahiert. Die in dieser Arbeit entwickelte Adaption des Polyreferenz-Verfahrens beruht auf einer veränderten Bestimmung der Fundamentalmatrix mit Hilfe der verallgemeinerten Singulärwertzerlegung. Eine Vorfilterung, die eine Reduktion der Frequenzanteile im Signal bewirkt, ist dabei Voraussetzung. Diese basiert auf dem Einsatz rekursiver Filtertechiken und der einfachen Singulärwertzerlegung. Als Resultat können modale Parameter auch im Falle, wenn eng benachbarte und verrauschte Signalanteile vorliegen oder nur wenige Mess- und Anregungspunkte zur Verfügung stehen, präzise bestimmt und damit auch sehr geringe Syemveränderungen detektiert werden. Die mit dem adaptierten Polyreferenz-Verfahren extrahierten modalen Parameter werden in der Lokalisierung von Systemveränderungen eingesetzt. Zur Bestimmung modaler Parameter auch an realen Bauwerken wird die Konstruktion eines Impulshammers vorgestellt. Besonderes Gewicht wird dabei auf die Gestaltung des Erregerkraftspektrums gelegt. Die Arbeit enthält eine mögliche Vorgehensweise zum Abgleich von Finite-Elemente Modellen. In vielen praxisnahen Fällen sind weit weniger modale Parameter vorhanden, als freie, zum Abgleich bestimmte Parameter gesucht werden. Das Gleichungssystem ist schlechtgestellt und benötigt eine Regularisierung. Eine andere Möglichkeit zur Korrektur von Rechenmodellen bietet das Projektive Eingangsgrößenverfahren, das auf der Basis unvollständig gemessener Ein- und Ausgangsgrößen arbeitet. In einer Versagenswahrscheinlichkeitsstudie wird die Robustheit des Verfahrens gegenüber! Rauscheinflüssen untersucht
In computer-aided design (CAD), industrial products are designed using a virtual 3D model. A CAD model typically consists of curves and surfaces in a parametric representation, in most cases, non-uniform rational B-splines (NURBS). The same representation is also used for the analysis, optimization and presentation of the model. In each phase of this process, different visualizations are required to provide an appropriate user feedback. Designers work with illustrative and realistic renderings, engineers need a
comprehensible visualization of the simulation results, and usability studies or product presentations benefit from using a 3D display. However, the interactive visualization of NURBS models and corresponding physical simulations is a challenging task because of the computational complexity and the limited graphics hardware support.
This thesis proposes four novel rendering approaches that improve the interactive visualization of CAD models and their analysis. The presented algorithms exploit latest graphics hardware capabilities to advance the state-of-the-art in terms of quality, efficiency and performance. In particular, two approaches describe the direct rendering of the parametric representation without precomputed approximations and timeconsuming pre-processing steps. New data structures and algorithms are presented for the efficient partition, classification, tessellation, and rendering of trimmed NURBS surfaces as well as the first direct isosurface ray-casting approach for NURBS-based isogeometric analysis. The other two approaches introduce the versatile concept of programmable order-independent semi-transparency for the illustrative and comprehensible visualization of depth-complex CAD models, and a novel method for the hybrid reprojection of opaque and semi-transparent image information to accelerate stereoscopic rendering. Both approaches are also applicable to standard polygonal geometry which contributes to the computer graphics and virtual reality research communities.
The evaluation is based on real-world NURBS-based models and simulation data. The results show that rendering can be performed directly on the underlying parametric representation with interactive frame rates and subpixel-precise image results. The computational costs of additional visualization effects, such as semi-transparency and stereoscopic rendering, are reduced to maintain interactive frame rates. The benefit of this performance gain was confirmed by quantitative measurements and a pilot user study.
System identification is often associated with the evaluation of damage for existing structures. Usually, dynamic test data are utilized to estimate the parameter values for a given structural model. This requires the solution of an inverse problem. Unfortunately, inverse problems in general are ill-conditioned, particularly with a large number of parameter to be determined. This means that the accuracy of the estimated parameter values is not sufficiently high in order to enable a damage identification. The goal of this study was to develop an experimental procedure which allows to identify the system parameters in substructures with high reliability. For this purpose, the method of selective sensitivity was employed to define special dynamic excitations, namely selectively sensitive excitation. Two different approaches have been introduced, which are the quasi-static approach and the iteratively experimental procedure. The former approach is appropriate for statically determinate structures and excitation frequencies below the structure's fundamental frequency. The latter method, which uses a-priori information about the parameters to be identified to set up an iterative experiment, can be applied to statically indeterminate structures. The viability of the proposed iterative procedure in detection of small changes of structure's stiffness was demonstrated by a simple laboratory experiment. The applicability of the strategy, however, depends largely on experimental capacity. It was also experienced that such a test is associate with expensive cost of equipments and time-consuming work.
In the last two decades, Peridynamics (PD) attracts much attention in the field of fracture mechanics. One key feature of PD is the nonlocality, which is quite different from the ideas in conventional methods such as FEM and meshless method. However, conventional PD suffers from problems such as constant horizon, explicit algorithm, hourglass mode. In this thesis, by examining the nonlocality with scrutiny, we proposed several new concepts such as dual-horizon (DH) in PD, dual-support (DS) in smoothed particle hydrodynamics (SPH), nonlocal operators and operator energy functional. The conventional PD (SPH) is incorporated in the DH-PD (DS-SPH), which can adopt an inhomogeneous discretization and inhomogeneous support domains. The DH-PD (DS-SPH) can be viewed as some fundamental improvement on the conventional PD (SPH). Dual formulation of PD and SPH allows h-adaptivity while satisfying the conservations of linear momentum, angular momentum and energy. By developing the concept of nonlocality further, we introduced the nonlocal operator method as a generalization of DH-PD. Combined with energy functional of various physical models, the nonlocal forms based on dual-support concept are derived. In addition, the variation of the energy functional allows implicit formulation of the nonlocal theory. At last, we developed the higher order nonlocal operator method which is capable of solving higher order partial differential equations on arbitrary domain in higher dimensional space. Since the concepts are developed gradually, we described our findings chronologically.
In chapter 2, we developed a DH-PD formulation that includes varying horizon sizes and solves the "ghost force" issue. The concept of dual-horizon considers the unbalanced interactions between the particles with different horizon sizes. The present formulation fulfills both the balances of linear momentum and angular momentum exactly with arbitrary particle discretization. All three peridynamic formulations, namely bond based, ordinary state based and non-ordinary state based peridynamics can be implemented within the DH-PD framework. A simple adaptive refinement procedure (h-adaptivity) is proposed reducing the computational cost. Both two- and three- dimensional examples including the Kalthoff-Winkler experiment and plate with branching cracks are tested to demonstrate the capability of the method.
In chapter 3, a nonlocal operator method (NOM) based on the variational principle is proposed for the solution of waveguide problem in computational electromagnetic field. Common differential operators as well as the variational forms are defined within the context of nonlocal operators. The present nonlocal formulation allows the assembling of the tangent stiffness matrix with ease, which is necessary for the eigenvalue analysis of the waveguide problem. The present formulation is applied to solve 1D Schrodinger equation, 2D electrostatic problem and the differential electromagnetic vector wave equations based on electric fields.
In chapter 4, a general nonlocal operator method is proposed which is applicable for solving partial differential equations (PDEs) of mechanical problems. The nonlocal operator can be regarded as the integral form, ``equivalent'' to the differential form in the sense of a nonlocal interaction model. The variation of a nonlocal operator plays an equivalent role as the derivatives of the shape functions in the meshless methods or those of the finite element method. Based on the variational principle, the residual and the tangent stiffness matrix can be obtained with ease. The nonlocal operator method is enhanced here also with an operator energy functional to satisfy the linear consistency of the field. A highlight of the present method is the functional derived based on the nonlocal operator can convert the construction of residual and stiffness matrix into a series of matrix multiplications using the predefined nonlocal operators. The nonlocal strong forms of different functionals can be obtained easily via the concept of support and dual-support. Several numerical examples of different types of PDEs are presented.
In chapter 5, we extended the NOM to higher order scheme by using a higher order Taylor series expansion of the unknown field. Such a higher order scheme improves the original NOM in chapter 3 and chapter 4, which can only achieve one-order convergence. The higher order NOM obtains all partial derivatives with specified maximal order simultaneously without resorting to shape functions. The functional based on the nonlocal operators converts the construction of residual and stiffness matrix into a series of matrix multiplication on the nonlocal operator matrix. Several numerical examples solved by strong form or weak form are presented to show the capabilities of this method.
In chapter 6, the NOM proposed as a particle-based method in chapter 3,4,5, has difficulty in imposing accurately the boundary conditions of various orders. In this paper, we converted the particle-based NOM into a scheme with interpolation property. The new scheme describes partial derivatives of various orders at a point by the nodes in the support and takes advantage of the background mesh for numerical integration. The boundary conditions are enforced via the modified variational principle. The particle-based NOM can be viewed a special case of NOM with interpolation property when nodal integration is used. The scheme based on numerical integration greatly improves the stability of the method, as a consequence, the operator energy functional in particle-based NOM is not required. We demonstrated the capabilities of current method by solving the gradient solid problems and comparing the numerical results with the available exact solutions.
In chapter 7, we derived the DS-SPH in solid within the framework of variational principle. The tangent stiffness matrix of SPH can be obtained with ease, and can be served as the basis for the present implicit SPH. We proposed an hourglass energy functional, which allows the direct derivation of hourglass force and hourglass tangent stiffness matrix. The dual-support is {involved} in all derivations based on variational principles and is automatically satisfied in the assembling of stiffness matrix. The implementation of stiffness matrix comprises with two steps, the nodal assembly based on deformation gradient and global assembly on all nodes. Several numerical examples are presented to validate the method.
Die vorliegende Arbeit untersucht das Potential von Webanwendungen in 3D zur Vermittlung von Informationen im Allgemeinen und zur Darstellung von städtebaulichen Zusammenhängen im Speziellen.
Als grundlegender Faktor der visuellen und funktionalen Qualität - welche die Wahrnehmung des Nutzers direkt beeinflusst -, erfolgt die Bewertung der Machbarkeit von 3D Webinhalten unter Anwendung einer explorativen, qualitativen Evaluierung von Webagenturen.
Darauf aufbauend wird das Potential von 3D Webanwendungen aus Nutzerperspektive untersucht, um Zusammenhänge herstellen zu können: einerseits zwischen der Machbarkeit bei der Entwicklung und anderseits die Akzeptanzkriterien beim Rezipienten betreffend.
Die empirische Studie, die mit dem Forschungspartner Bosch für diese Arbeit modelliert wurde, eruiert zum einen, inwiefern 3D im Vergleich zu 2D und 2,5D, und zum anderen WebGL im Vergleich zu bisherigen 3D Webtechnologien die visuelle Wahrnehmung und kognitive Leistungsfähigkeit des Nutzers beeinflusst.
Die Erkenntnisse der Untersuchung zeigen Parallelen zu bestehenden Studien aus web-fernen Bereichen.
Um die Bedeutung von 3D Webanwendungen zur Verbesserung von Entscheidungsprozessen in Stadtplanungsprojekten ableiten zu können, werden Aspekte zur Interaktion und visuellen Wahrnehmung in den speziellen Kontext von Stadtplanungswerkzeugen gebracht. Dabei wird überprüft, ob sich web-basierte 3D Visualisierungen sinnvoll zur Vermittlung städtebaulicher Zusammenhänge einbinden lassen und inwieweit bestehende Projekte, wie in dieser Arbeit beispielhaft das vom Fraunhofer IGD entwickelte Forschungsprojekt urbanAPI, die Technologie WebGL nutzen können.
Vor diesem Hintergrund soll die Arbeit Akzeptanzkriterien und Nutzungsbarrieren von 3D Webanwendungen auf Basis der Technologie WebGL identifizieren, um einen Beitrag zur Machbarkeit von Webanwendungen und zur Entwicklung entsprechender Stadtplanungswerkzeuge zu leisten.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
Die Arbeit beschreibt ein Konzept zur computergestützten, schrittweisen Erfassung und Abbildung der Geometrie von Gebäuden im Kontext der planungsrelevanten Bauaufnahme. Zunächst wird die Bauaufnahme als Erstellung eines verwendungsspezifischen Modells betrachtet. Anschließend wird der Fokus auf das geometrische Abbild gelegt. Es werden u.a. die Aufmaßtechniken Handaufmaß, Tachymetrie und Photogrammetrie bewertet und gebäudetypische geometrische Abstraktionen aufgelistet. Danach erfolgt eine Aufstellung von Anforderungen an ein computergestütztes Aufmaßsystem, welche mit kommerziellen Lösungen aus dem nichtgeodätischen Bereich verglichen wird. Im Hauptteil wird das zu Beginn genannte Konzept beschrieben. Betrachtet wird die skizzenbasierte Erstellung eines nichtmaßlichen geometrischen Abbildes des Gebäudes in den Frühphasen der Bauaufnahme, seine anschließende schrittweise maßliche Anpassung an das Original und topologische Detaillierung im Zuge des Bauaufmaßes, sowie die Extraktion von Bauteilen und ihren geometrischen Parametern. Zur Vereinfachung der maßlichen Anpassung des geometrischen Abbildes im Aufmaßprozeß werden geometrische Abstraktionen wie Parallelitäten, rechte Winkel usw. genutzt, aber nicht erzwungen. Mit Hilfe der Ausgleichungsrechnung erfolgt eine Zusammenführung der geometrischen Abstraktionen und verschiedener Aufmaßtechniken. Es werden die nötigen Beobachtungsgleichungen und andere relevante Aspekte beschrieben. Gezeigt wird weiter ein Konzept, wie ein nutzerseitig veränderbares Bauwerksmodell mit dem geometrischen Abbild in Bezug gebracht werden kann, wobei aus dem geometrischen Abbild geometrische Parameter des nutzerseitig veränderbaren Bauwerkmodells gewonnen werden können. Ausgesuchte Problematiken der Arbeit wurden prototypisch implementiert und getestet. Hierbei stand die Verbindung der Aufmaßtechniken und geometrischen Abstraktionen im Mittelpunkt. Die geometrischen Ansätze der Arbeit beschränken sich auf planare Oberflächen.
Oberflächenabdichtungen von Deponien sind in ihrer langfristigen Funktion häufig durch eine austrocknungsbedingter Rissbildung der mineralischen Dichtungskomponente gefährdet. Als Ursachen gelten insbesondere das standortspezifische Klima mit den stark schwankenden Randbedingungen (Niederschlag, Temperatur), Pflanzen und Tiere sowie auch ein ungeeigneter Systemaufbau. Durch einen Wasserentzug treten Schrumpfungsprozesse in der mineralischen Dichtung auf welche über negative Dehnungen zu Dehnungsbrüchen und damit zu einer Rissbildung führen. Für die Beanspruchbarkeit eines Dichtungsmaterials bei Wasserentzug sind insbesondere dessen Schrumpfverhalten und dessen Zugfestigkeit von Bedeutung. Beide Eigenschaften wurden durch eigens konzipierte Laborversuche beispielhaft an zwei typischen Dichtungsböden untersucht. Die Ergebnisse zeigen eine große Abhängigkeit von der Wasserspannung sowie von der Bodenstruktur. Für die Zugfestigkeit und dem daraus abgeleiteten Dehnungsmodul gilt z. B. jeweils eine eindeutige Zunahme mit Zunahme der Wasserspannungen. Mit Hilfe der Ergebnisse aus den Laborversuchen sowie numerischen Berechnungen des Was-serhaushaltes und der vorherrschenden Spannungen kann eine erste Rissgefährdungsabschätzung für mineralische Dichtungen in Oberflächenabdichtungen abgeleitet und angewandt werden. Weitere Erläuterungen z. B. zu den Eigenschaften und der Teilsättigung bindiger Böden, analytische Zugfestigkeitsberechnungen oder Empfehlungen zum Entwurf und der Herstellung von Oberflächenabdichtungen ergänzen die Arbeit.
Die Arbeit beschäftigt sich mit den Auswirkungen des Baus von neuen Stadtautobahnen in Santiago de Chile. Ziel der Studie ist, die Veränderungen im Segregationsmuster der Hauptstadt Chiles, die durch den Bau dieser Autobahnen entstanden sind, zu beschreiben.
Die Arbeit betrachtet die Entstehung von Segregationsmustern als kulturell-historisches Phänomen urbaner Bedeutung, weswegen die Entwicklung der Stadt Santiago und deren Segregationsmuster nicht nur aus der Perspektive der Stadtsoziologie und der Stadtgeographie, sondern auch aus einer historischen Perspektive analysiert wird. Dabei liegt der Schwerpunkt der Arbeit auf der Wechselbeziehung zwischen Verkehrsinfrastruktur und sozial-räumlicher Verteilung der verschiedenen sozialen Gruppen.
Die Entstehung der neuen Stadtautobahnen in Santiago de Chile lässt sich nur durch eine mehrdimensionale Betrachtung erklären. Diese Bauten und die besondere Art in der sie gebaut und betrieben werden, konnten nur durch die Einführung von Konzessionsmechanismen innerhalb einer neoliberalen Markwirtschaft entstehen. In diesem sozial-ökonomischer Rahmen, bei dem die Bürger lediglich als potenzielle Kunden betrachtet werden, sind die Infrastrukturbauten – darunter auch die Stadtautobahnen – maßgeschneiderte Produkte für eine Minderheit. Dieses Konzept hat gravierende Folgen für das Sozialgefüge der Stadt Santiago.
Die Folgen der Einführung der Stadtautobahnen auf das Segregationsmuster und das Sozialgefüge der Hauptstadt Chiles werden anhand zweier Fallstudien veranschaulicht. Mittels einer mehrschichtigen qualitativen Methodik werden die Auswirkungen des Baus von Stadtautobahnen im Armenviertel »Santo Tomás« des südlichen Stadtbezirk »La Pintana« und im elitären »Condominio La Reserva« im nördlichen Ausdehnungsgebiet »Chacabuco« analysiert.
Anschließend wird ein neues Beschreibungsmodell für die lateinamerikanische Stadt vorgeschlagen; das »symbiotische Stadtmodell« stützt sich zum größten Teil auf den Ausbau des Autobahnnetzes.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
Die Arbeit untersucht auf der Basis der Neuen Institutionenökonomik die Rolle von Immobilieninvestoren, d.h. offene und geschlossene Immobilienfonds, Real Estate Investment Trusts, Real Estate Private Equity Fonds und Lebensversicherungen, auf dem deutschen Markt für Public Private Partnership Projekte im öffentlichen Hochbau. Dafür werden Immobilienanlagevehikel als institutionelle Ausgestaltung einer Prinzipal-Agent-Beziehung aufgefasst, bei der der Anleger als Prinzipal die Kapitalanlage an den Immobilieninvestor als Agent delegiert. Die geschäftlichen Aktivitäten eines Immobilieninvestors werden durch den normierten Handlungsspielraum, d.h. die rechtlichen Vorgaben, determiniert. Daneben beeinflusst auch die Ausgestaltung der PA-Beziehung, d.h. die Rechte des Prinzipals und die Anreize für den Agenten, die geschäftlichen Aktivitäten eines Immobilieninvestors. Zusammengeführt werden diese beiden Kategorien unter dem Begriff des „definierten Gestaltungsrahmens“, der als Rahmen der geschäftlichen Aktivitäten eines Immobilieninvestors verstanden wird, der dessen PPP-Investitionsmöglichkeiten bestimmt. So ist die Eignung eines Immobilieninvestors für eine PPP-Investition davon abhängig, ob sein „definierter Gestaltungsrahmen“ zum „erforderlichen Gesamtgestaltungsrahmen“ des PPP-Projektes passt. Letzterer wird dabei durch das PPP-Vertragsmodell, die PPP-Immobilienart, die PPP-Wertschöpfungsphase sowie die gewählte Handlungsoption des Investors auf dem PPP-Markt determiniert. In der Arbeit werden theoretische PPP-Investitionsmodelle entwickelt, in denen dargelegt wird, welche Immobilieninvestoren in welche PPP-Projekte investieren sollten. Dabei werden Empfehlungen zu den geeigneten Handlungsoptionen des jeweiligen Investors auf dem PPP-Markt erarbeitet und dargelegt, in welcher PPP-Wertschöpfungsphase dieser investieren sollte und welche der PPP-Vertragsmodelle und PPP-Immobilienarten für eine Investition geeignet sind. Zudem werden Gestaltungsempfehlungen zum rechtlichen Rahmen hergeleitet. Des Weiteren werden die Immobilieninvestoren auch für die bisher schon auf dem PPP-Markt agierenden Bau- und Betreiberunternehmen, insbesondere den Mittelstand, als potentielle Kooperationspartner auf dem Erstmarkt (Primärmarkt), als Exitpartner auf dem Zweitmarkt (Sekundärmarkt) oder als Wettbewerber klassifiziert. Die Thematik ist auch für die öffentliche Hand von Interesse, da der durch den Markteintritt neuer Investoren erhöhte Wettbewerb die Konditionen der PPP-Verträge verbessern kann und die Einbindung des Mittelstandes in PPP-Projekte ausdrückliches Ziel der Bundesregierung ist.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
Die Reise der Zeichen - Eine Studie zur symbolischen Bildwelt der Xiyü-Kultur an der Seidenstraße
(2015)
Kurzfassung
Die vorliegende Studie untersucht die traditionellen Xiyü-Zeichen im Visuellen verschiedener Volksgruppen am Beispiel Xinjiangs im Nordwesten Chinas, wo einst die alte Seidenstraße entlangführte. Die Untersuchung versteht sich als ein Versuch der systematischen Darstellung der symbolischen Bildwelt in Xinjiang und damit im weiteren Sinne auch als ein Versuch, das Xiyü-Kulturerbe zu bewahren, das angesichts des tiefgreifenden Wandels in China und der Go-West-Strategie des chinesischen Wirtschaftsprogramms, welches sich auf die weiten Westgebiete Chinas bezieht, in Gefahr geraten ist. Es muss ein Weg gefunden werden, Modernisierung und Tradition in Einklang zu bringen.
Diese Studie beschreibt, analysiert und bewertet exemplarisch, wie sich Zeichen und Symbole des Wissens und der Kultur entlang der Seidenstraße in Xinjiang zwischen den östlichen und westlichen Kulturen vermischt haben, wie sie übertragen wurden und inwieweit die Xiyü-Kultur reflektiert, dass Xinjiang ein Treffpunkt zwischen östlichen und westlichen Einflüssen war. In der Annährung an dieses Forschungsziel werden drei Hauptfragen zusammengefasst:
Erstens, was kann das Erfahrungsmodell der alten Seidenstraße zum Verständnis der kulturellen Entwicklung im heutigen Informationszeitalter beitragen?
Zweitens, was bedeutet Vielfalt für die kulturelle Kommunikation in Xinjiang? Steigen die Medienereignisse der visuellen Kommunikation und die internationalen Einflüsse an?
Drittens, wie kann Xinjiang die Chancen der Go-West-Strategie des chinesischen Wirtschaftsprogramms in einer zunehmend globalisierten Welt nutzen und in der zukünftigen weltwirtschaftlichen Entwicklung wieder Vitalität zeigen?
Um sich auf diese Weise den Antworten zu nähern, verwendet diese Studie einen Ansatz, der eine kulturanthropologische Perspektive integriert. Auf Grundlage einer Feldstudie werden Eigenschaften der traditionellen visuellen Xiyü-Zeichen, ihre Bedeutung für die ethnischen Volksgruppen Xinjiangs und den kulturellen Austausch zwischen Europa und Asien diskutiert und der besondere Einfluss von Handel und Verkehrswegen aufgezeigt.
Die visuellen Zeichenformen der Xiyü-Kultur wurden von der Zeit vor der Islamisierung bis hin zur heutigen islamischen Zeit dargestellt. Die Forschung zeigt, dass die Zeichen kein ortsgebundenes Kulturphänomen oder eine lokale Tradition sind, vielmehr werden sie von regionalen, nationalen und internationalen Kulturkreisen bewusst oder unbewusst beeinflusst. Sie sind ein Ergebnis kultureller Kommunikation. Schließlich setzt sich die Studie mit den Zeichen der Xiyü-Kultur Xinjiangs in Relation mit der Go-West-Strategie der chinesischen Regierung auseinander. Die wirtschaftliche Entwicklung bringt für Xinjiang nicht nur Modernisierung und Wohlstand, sondern auch ein kulturelles und ökologisches Ungleichgewicht.
Der Mensch strukturiert alles, was er in seiner Umgebung wahrnimmt, mit Zeichen. Die Xiyü-Zeichen schaffen eine visuelle Strukturierung. Die Xiyü-Kultur hat nach wie vor Einfluss auf die Lebensweise der ethnischen Gruppen in Xinjiang. Heute hat die Konfrontation zwischen der traditionellen Xiyü-Kultur und der wirtschaftlichen Entwicklung zu einem ernsthaften Konflikt in Xinjiang geführt.
Diese Studie versteht sich als eine kritische Interpretation der aktuellen Situation der Xiyü-Kultur bzw. des chinesischen Wirtschaftsprogramms in Xinjiang. Sie will darüber hinaus einen Beitrag leisten zur Analyse der bislang nur unzureichend erfassten Wechselwirkungen zwischen Geschichte, Kultur, Politik und Wirtschaft in der kulturellen Globalisierung in Xinjiang.
Die Arbeit fokussiert die Rolle des Abjekten in der zeitgenössischen Kunst und hier insbesondere die Rolle der Künstler aus den wohlhabenden – sogenannten postindustriellen – Ländern. Die Arbeit mit abjekten Themen in der Kunstproduktion ist sehr präsent, jedoch aus einer anderen, eher individualistischen Perspektive. Die wichtigsten Orte der Kunst (Galerien, Museen, Kulturzentren) sind Räume der Legitimation dieser Art von Produktion, dabei wird das Potential der Provokation hinterfragt. Die klassische Avantgarde, besonders der Dadaismus, hat das Abjekte zu Beginn des 20. Jahrhunderts als künstlerisches Material genutzt. Das Spiel mit Grenzüberschreitungen durch die Darstellung des Verbotenen und Ekelerregenden machte das Abjekte zur produktiven Kraft auch auf sozialer Ebene, weil es als Mittel dem gesellschaftlichen Protest und der sozialen Kritik diente.
Diese Dissertation befasst sich mit den technischen und institutionnellen Grundlagen einer Politik des audiovisuellen Gedächtnisses in Frankreich und Deutschland. Es wurden exemplarisch das Nationalinstitut für Audiovision (Paris), die Deutsche Mediathek Berlin als auch einige Archive der ARD-Rundfunkanstalten (SWR) und schliesslich das SAT1 Nachrichtenarchiv untersucht. Ein Hauptanliegen war, inwieweit digitale Technologien die Zugänglichkeit als auch die Selektionspolitik von fernsehdokumenten neu definieren. Schliesslich wurde die Tragfähigkeit des Archivbegriffs im digitalen Zeitalter hinterfragt.
Kein anderes Material hat im 19. Jahrhundert das Design und die Architektur beeinflußt, wie die Kunststoffe. Das Feld der Realisationen und der Projekte des gesamten Kunststoffbaus ist dabei aufgrund der unterschiedlichen Kunststoffarten und somit Ausführungen sehr weitläufig. Daher begrenzt sich diese Untersuchung auf die glasfaserverstärkten Kunststoffe (GFK). Die Glasfasern übertragen die auftretenden Kräfte und werden durch das sie umschließende Harz gebunden. Die GFK sind daher bestens für tragende Bauteile geeignet. Die glasfaserverstärkten Kunststoffe durchliefen in den 1940er bis 1970er Jahren eine für einen Baustoff kurze aber sehr ergiebige Pionierphase. Die umfassende Analyse der drei zu unterscheidenden Perioden setzt sich aus der Untersuchung der wirtschaftlichen, politischen, gesellschaftlichen und kulturellen Beeinflussungen zusammen. Circa 260 unterschiedliche Projekte wurden weltweit aus selbsttragenden / tragenden GFK-Bauteilen realisiert. Diese sind ausführlich innerhalb des Kataloges im Anhang aufgelistet. GFK-Bauten waren nicht allein aufgrund des neuen Materials modern, sondern auch aufgrund ihrer freien Formbarkeit, transluzenten Flächen und auffälligen Farben und den flexiblen Nutzungskonzepten entsprechend einer modernen demokratischen Gesellschaft, die aufgeschlossen und optimistisch der Zukunft gegenübersteht. Die Realisationen, die zum Teil bis heute noch genutzt werden, beweisen den hohen Wissensstand der Pioniere. Die von den Pionieren gesuchte GFK-Architektur war eine sehr vielfältige, die sich nicht auf wenige Formenmerkmale zusammenfassen läßt. Das neue Material ermöglichte es den Architekten, ihre Vorstellungen und Träume von Formen, Gehäusen und Bauten zu realisieren. Die Analyse der Vorgänger und der Inspirationsquellen diese Formenvielfalt sind Grundlage einer objektiven Beurteilung dieser Bauten. Architekten und Bauingenieure suchten ideale Einsatzgebiete und Konstruktionsvarianten für den bis dahin assoziationsfreien Baustoff. Die Nutzungskonzepte: Wohnhaus, Zweithaus, Ausstellung, Spielgerät und die Entwicklung von Gebäudeteilen: Gebäudehülle, Überdachung, Fassade werden im Gesamtzusammenhang und nach der optimalen Verwendbarkeit untersucht. Das Wissen über den Verlauf der Pionierphase der GFK, die damals formulierten Gründe für und wider deren Einsatz und der entwickelten Konstruktionen, Verbindungstechniken und Tragwerke kann einem erneuten Einsatz des Baumateriales nur dienlich sein. Anliegen dieser Dissertation ist es, die GFK als einsatzfähige Werkstoffe innerhalb der Architekturlandschaft wieder einen Platz zu geben. Diese Analyse soll verschüttetes Wissen aufdecken, die in den 1970er Jahren entstandenen Vorurteile sichtbar machen und die glasfaserverstärkten Kunststoffe als das darstellen, was sie sind, leistungsfähige Baustoffe für gekrümmte und gefaltete Konstruktionen.
Die Dissertation erschließt der deutschen Forschung die derzeit weltweit vergebenen nationalen Umweltzeichen. Dabei steht nicht der politische Kontext, sondern die gestalterisch-formale und inhaltliche Standortbestimmung, Analyse und Interpretation der Zeichenfamilie im Vordergrund. Teil I der Arbeit unterwirft den Untersuchungsgegenstand einer semiotischen Analyse nach Umberto Eco und diskutiert die Umweltzeichen im Kontext von graphischen Zeichen, Markenzeichen, Piktogrammen und Emblemen. Ein kurzer Abriss der Geschichte von Natur- und Welt-, d.h. Globusdarstellungen lotet den Bildervorrat aus, auf den zur Darstellung von 'Umwelt' zurückgegriffen werden kann. Das Umweltzeichen-Design, so zeigt sich, arbeitet mit den rhetorischen Figuren des pars pro toto bzw. des totum pro parte, um die kulturelle Einheit von /Umwelt/ und /Umweltschutz/ graphisch zu fassen. Teil II, der Hauptteil der Arbeit, besteht aus der ikonographischen Analyse und ikonologischen Interpretation aller nationalen Umweltzeichen gemäß Theorie und Methode von Aby Warburg und Erwin Panofsky. In 30 Kapiteln werden für jedes Zeichen Informationen zu Design und Designer/in, Entstehungsjahr, Abbildungsvorschriften und Intentionen der Vergabeinstitutionen zusammengestellt und die Vor-Bilder und Hintergründe zu einer ikonographisch-ikonologischen Deutung zusammengetragen. Insbesondere für die in der Arbeit detaillierter analysierten Zeichen aus Deutschland, Japan, Kanada, den USA, Österreich und Skandinavien ermöglicht die Untersuchung tiefe Einsichten in die Kulturgeschichte des jeweiligen Vergabelandes. Erkenntnisinteresse der Arbeit ist für jedes einzelne Zeichen die Entschlüsselung des (inter)kulturellen Bildgedächtnisses zum Thema /Umweltschutz/ vor dem Hintergrund der Herkunftskultur und ihrer nationalen Mythen. Farbgebung und Zeichenbildungsstrategien zeigen beim Untersuchungsgegenstand den Verzicht auf Signalement und Originalität. Neue nationale Umweltzeichen werden mehr und mehr aus dem Bildervorrat bestehender Umweltzeichen geschaffen. Die synchrone Vernetzung der Zeichen tritt gegenüber der diachronen Verankerung im Bildervorrat der Herkunftskultur immer stärker in den Vordergrund. Obwohl international einheitliche Gestaltungsrichtlinien fehlen, entsteht so eine globale Zeichentradition. Angesichts insbesondere des Designs und Re-Designs asiatischer Zeichen drängt sich abschließend die Frage auf, ob die eigentliche Zielgruppe der nationalen Umweltzeichen noch der einheimische Konsument ist oder ob – insbesondere in den Schwellenländern – die nationalen Umweltzeichenprogramme zum außenpolitischen Instrumentarium geworden sind, mit dem man sich in der Staatengemeinschaft positioniert.
Die vorliegende Arbeit hat die Absicht, den Bedarf der Umsetzung der Planungsidee ‚kinder- und jugendfreundliche Stadtentwicklung’ in Korea zu erforschen und Vorschläge für die Umsetzung zu machen. Darüber hinaus will sie herausfinden, warum man sich bezüglich der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung zunächst auf die Schulen und deren Umgebungen konzentrieren soll.
Deshalb widmet sich die Dissertation zuerst der Literaturrecherche, sowohl was den Begriff der kinder- und jugendfreundlichen Stadtentwicklung angeht als auch der Literatur bezüglich des Beitrags der Schulen zur Realisierung der kinder- und jugendfreundlichen Stadtentwicklung. Danach wird untersucht, ob das deutsche Instrument ‚Spielleitplanung‘ sich als Leitfaden für die gesamte Konzeption der koreanischen kinder- und jugendfreundlichen Stadtentwicklung eignet. Darüber hinaus werden Interviews mit koreanischen Experten aus Stadtplanung und Architektur, Pädagogik und öffentlicher Verwaltung als Forschungsmethode verwendet, um in Bezug auf die kinder- jungendfreundliche Stadtentwicklung den koreanischen Zustand zu analysieren. Zuletzt werden anhand der Untersuchungsergebnisse Handlungs-empfehlungen für die Durchführung der koreanischen kinder- und jugend-freundlichen Stadtentwicklung formuliert.
Anhand dieser Forschung kann konstatiert werden, dass die kinder- und jugendfreundliche Stadtentwicklung eine wichtige Planungsidee ist, weil dadurch Stadtplanerinnen und Stadtplaner sowohl zum körperlichen und geistigen gesunden Aufwachsen von Kindern und Jugendlichen als auch zur Entwicklung ihrer sozialen Kompetenzen erheblich beitragen können. Vor allem soll man die koreanische kinder- und jugendfreundliche Stadtentwicklung zunächst auf den Schulen und den schulischen Umgebungen umsetzen. Denn dadurch lassen sich vielseitige eventuelle Hindernisse bei der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung vermeiden. Ein weiterer Grund ist, dass die Schulen in Korea nicht nur in der Gesellschaft eine zentrale Rolle spielen, sondern auch im Rahmen der Stadtplanung. Auffällig ist, dass die kinder- und jugendfreundliche Stadtentwicklung sowohl auf die räumlichen Gestaltungen als auch auf die Beteiligung von Kindern und Jugendlichen in der städtischen Planung fokussiert ist. Allerdings werden bei der Stadtentwicklung die Kinder und Jugendliche in Korea noch nicht als wichtige Akteure angesehen. Darum soll man die Spielleitplanung in Korea einbeziehen, weil sie als Leitbild bei einer Konzeption der koreanischen kinder- und jugendlichen Stadtentwicklung fungieren kann. Jedoch müssen dabei die kulturellen Unterschiede zwischen Deutschland und Korea berücksichtigt werden.
Weiterhin wurde durch die Interviews festgestellt, dass das Interesse und der Wille von Experten aus der Stadtplanung an Kinder- und Jugendfreundlichkeit die wichtigsten Voraussetzungen sind, um die kinder- und jugendfreundliche Stadtentwicklung in Korea zu verankern und zu verbreiten.
Die Stadt Weimar nimmt in der deutschen Geschichte und in deren Rezeption eine besondere Stellung ein. Sie steht als Metapher für verschiedene kulturhistorische Epochen. Seit der Jahrhundertwende avancierte sie zum komprimierten Spiegelbild deutscher Befindlichkeiten. Für die Nationalsozialisten stellte Weimar eine wesentliche Station für ihren Aufstieg von München nach Berlin, einen erfolgreichen "Kampf- und Experimentierort" dar. Doch auch von 1932-1945 konnten sie in der Stadt außerordentlich aktiv werden. Beispielhaft äußerte sich das in den zeitgenössischen Bauprojekten, in der zeitgenössischen Baupolitik. Die Dissertation behandelt die gesamte Spannbreite der baulichen und planerischen Aktivitäten in und um Weimar in der Zeit des Nationalsozialismus. Sie thematisiert sowohl die repräsentativen Projekte, als auch die Baulichkeiten des Komplexes zum Konzentrationslager Weimar-Buchenwald, ebenso die Wohn- und Kulturbauten, die Kasernenarchitekturen, die Industrie-, Verkehrs- und Behelfsbauten sowie städtebauliche Planungen. Die Gebäude und Komplexe werden im kulturpolitischen Kontext betrachtet, planungs- und baugeschichtlich untersucht, umfassend architektonisch-gestalterisch und städtebaulich-gestalterisch analysiert, dokumentiert, in ihrer gegenseitigen Beeinflussung dargestellt, verglichen und gewertet. Gegebenenfalls werden Querbeziehungen zu anderen Objekten in Deutschland, außerdem zu zeitgleichen nichtbaulichen Ereignissen in Weimar bzw. Deutschland aufgezeigt. Ein Gesamtbild zur Bauplanung und zum Bauschaffen im Dritten Reich in einer Stadt, beispielhaft in der symbolbeladenen Stadt Weimar wird erstellt; ein Stück verdrängter Kulturgeschichte der Stadt Weimar wird rekonstruiert.
Die kommunale Energiewende stellt die beteiligten Akteure vor große Herausforderungen: Auf Grundlage strukturierter Daten sollen Maßnahmen
für eine nachhaltige Infrastruktur geplant und umgesetzt werden. Oft fehlt
den Beteiligten jedoch das nötige Wissen über die lokalen Potentiale und Rahmenbedingungen—und an geeigneten Methoden der Informationsvermittlung. Gegenstand dieser Arbeit ist die Analyse der Planungsstrukturen und der Entwurf eines visuellen Informationssystems. Mit der vorliegenden Untersuchung wird gezeigt, wie mit Hilfe von Befragungen, partizipativen Visualisierungen, fiktionalen Szenarien und der systematischen Anwendung visueller Variablen eine fundierte Grundlage geschaffen werden kann für eine nutzerorientierte Gestaltung.
Die Genese der Thüringer Kunstvereinslandschaft im ausgehenden 19. und frühen 20. Jahrhundert
(2023)
Zu Beginn des 19. Jahrhunderts existierten in Deutschland noch keine öffentlichen Museen, welche sich der Präsentation von Kunst widmeten und dem zeitgenössischen Kunstschaffen einen Raum bieten konnten. In den Genuss von Malerei und bildender Kunst kamen damit lediglich jene gesellschaftlichen Stände, denen durch Macht, Prestige und Adelszugehörigkeit dieses Privileg zu Teil wurde. Als neue Form des Erwachens der Bourgeoisie entwickelt, repräsentierten die sich im Entstehen befindlichen Kunstvereine erstmalig eine wirkungsvolle, dem Adel den Vormachtanspruch auf Kunst und Kultur entreißende Instanz, welche die Möglichkeit der öffentlichen Kunstvermittlung und Präsentation boten. Zwischen 1860 und 1945 entstand auf dem Gebiet des heutigen Landes Thüringen eine Unzahl an Kunstvereinen, Künstlerbünden und Kunstgesellschaften, welche die Gegenwartskunst und ihre lokalen Künstler förderten. Nach dem Ende des Zweiten Weltkrieges verschwanden diese Förderer jedoch gänzlich von der Bildfläche und ihr Wirken geriet in Vergessenheit. Bisher fand die Vergangenheit dieser Kunstvereine und -bünde nur wenig Aufmerksamkeit in der Kunstgeschichtsbetrachtung. Daher versucht die vorliegende Dissertation die Konstitutionen, Strukturen, die Wirksamkeit und den Einsatz für die (moderne) Kunst von 15 Kunstvereinen, -gesellschaften und Künstlervereinen nachzuzeichnen und damit längst überfällige Erkenntnisse der Beitragsleistung zur Kulturtätigkeit der Institutionen zu erbringen. Das Überblickswerk leistet einen ersten Vorstoß in die noch weithin unbekannten Kunstvereinsgefilde in Thüringen, vor allem auch im Kontext des nationalen Gefüges. Die historische Betrachtung, die Darstellung der Ausstellungspraxis und die finanziellen Handlungsrahmen sollen als direkte Vergleichsansätze die primäre Gegenüberstellung erleichtern.
Die Form der Datenbank
(2023)
Datenbanken sind heute die wichtigste Technik zur Organisation und Verarbeitung von Daten. Wie wurden sie zu einer der allgegenwärtigsten und gleichzeitig unsichtbarsten Praxis, die menschliche Zusammenarbeit ermöglicht? Diese Studie beginnt mit einer historiographischen Erkundung der zentralen medialen Konzepte von Datenbanken und mündet in das praxeologische Konzept der "Daten als Formation", kurz: In-Formation.
Der erste Hauptteil befasst sich mit der Formatierung von Daten durch die Verarbeitung strukturierter Daten mittels relationaler Algebra. Es wird erarbeitet, auf welche Weise Struktur neues Wissen schafft. Im zweiten Teil wird erörtert, wie Datenbanken durch den diagrammatisch-epistemischen Raum der Tabelle operationalisiert werden. Drittens untersucht die Studie Transaktionen als Erklärungen dafür, wie Daten und reale Handlungen koordiniert und synchronisiert werden können.
Im zweiten Hauptteil wird untersucht, wie relationale Datenbanken zunehmend zum Zentrum von Softwareanwendungen und Infrastrukturen wurden, wobei der Schwerpunkt auf wirtschaftlichen Praktiken liegt. In einem vergleichenden Ansatz wird anhand von Fallstudien in der DDR der 1970er bis 1990er Jahren die Frage gestellt, ob es eine „sozialistische“ Datenbankmanagement-Software gegeben hat. Dabei werden die „westlichen“ Produktionsdatenbanken BOMP, COPICS und MAPICS (IBM) sowie R2 (SAP) im Zusammenspiel mit den ostdeutschen Sachgebietsorientierten Programmiersystemen (SOPS) von Robotron diskutiert. Schließlich untersucht dieser Teil, wie die DDR ihr eigenes relationales Datenbankmanagementsystem, DABA 1600, entwickelte und dabei „westliche“ Technologie neu interpretierte.
Das abschließende Kapitel fasst die Konzepte der relationalen Datenbanken als heute wichtigsten Datenorganisationstechnik zusammen. Es erörtert, inwiefern es möglich ist, die historiographische Erzählung über die Entstehung von Datenbankmanagementsystemen und ihre Folgen für die Geschichte der Informatik zu dezentrieren. Es schließt mit der Erkenntnis, dass östliche und westliche Medien der Kooperation sich in Form und Funktion erstaunlich ähnlich sind, beide wurzeln in den tiefen Genealogien von organisatorischen und wissensbildenden Datenpraktiken.
Neben dieser medienwissenschaftlichen Arbeit besteht die Dissertation aus einem künstlerischen Teil, der dokumentiert wird: Anhand einer Reihe von Vlogs erkundet die fiktionale Figur „Data Proxy“ aktuelle Datenökologien.
Die vorliegende Dissertation zeigt am Beispiel der Entwicklung eines modernen geriatrischen Zentrums, dass Architektur einen eigenständigen Beitrag dazu leisten kann, die Probleme des Alters in der heutigen Gesellschaft anzunehmen und zu bewältigen. Die Arbeit setzt zum einen an stadtplanerischen Defiziten der vergangenen Jahrzehnte an und verdeutlicht, wie ein bedürfnisgerechtes, innerstädtisches geriatrisches Zentrum dem Leitbild der „humanen Stadt“ zu entsprechen vermag, um damit die Stadt wieder zu einem multifunktionalen Erlebnisraum für alle Bevölkerungsgruppen werden zu lassen. Zum anderen greift sie die aktuelle gesundheitspolitische Debatte auf und weist nach, dass ein solches Zentrum als integrierte Verbundlösung, die alle Versorgungsstrukturen unter einem Dach anbietet, ideal dazu geeignet ist, die Anforderungen unserer Zeit auf geriatrischem und pflegerischem Gebiet zu erfüllen. Die Anforderungen an eine derartige Einrichtung sind umfangreich und differenziert. Sie werden unter Heranziehung aktueller Forschungsergebnisse aus stadtsoziologischer, psychologischer, gerontologischer und sozialökologischer Sicht hergeleitet und in praktische architektonische bzw. baukonstruktive Handlungsanweisungen umgesetzt. Als zentrale, übergeordnete Anforderungen neben optimaler medizinischer und pflegerischer Betreuung werden herausgearbeitet: 1. Erhöhung der Lebenszufriedenheit der Bewohner 2. Stärkung der Autonomie und Selbstständigkeit der älteren Menschen 3. Befolgung des Grundsatzes >Prävention vor Rehabilitation, Rehabilitation vor Pflege< 4. Förderung eines selbstbestimmten Lebens in vertrauter Umgebung bis ins hohe Alter 5. Gewährung von Geborgenheits- und Heimatgefühlen 6. Gemeinwesenorientierung und enge Anbindung an die Strukturen des Quartiers 7. Erhaltung bzw. Stärkung der sozialen Integration der älteren und kranken Menschen 8. Förderung eines hohen Aktivitätsniveaus und einer anspruchsvollen Freizeitgestaltung 9. Bereitstellung einer anregenden sowie sicheren, weil Orientierung gebenden Umgebung Das vorgestellte geriatrische Zentrum bildet die architektonische Entsprechung zum gesellschaftlichen Strukturwandel des Alters und zu den gesundheits- und pflegepolitischen Entwicklungen unserer Zeit und leistet damit einen eigenständigen Beitrag, die gesundheitlichen und sozialen Probleme alter Menschen in unserer Gesellschaft zu lindern, in dem nutzerorientierte Gebäudestrukturen geschaffen werden, die einem integrativen Netzwerk aus Wohn-, Therapie- und Pflegeformen Raum geben. Damit steht das geriatrische Zentrum beispielhaft für eine Architektur, die stets von den Bedürfnissen der Menschen ausgeht und mit baulichen Lösungen auf die sozialen Herausforderungen unserer Zeit reagiert.
Ziel der Arbeit ist die Ermittlung des Einflußes Otto Hetzers auf die Entwicklung des Holzleimbaus. Dabei werden vor allem die ersten Holzleim-Bauwerke in der Zeit bis 1918 umfassend dargestellt. Die Recherchen stützen sich hauptsächlich auf die damaligen Veröffentlichungen, wobei die noch bestehenden Gebäude vom Verfasser vor Ort untersucht und dokumentiert wurden. Karl Friedrich Otto Hetzer entwickelte den Holzleimbau unter Verwendung von Kaseinleim zu industrieller Reife. Nach der Entwicklung von Dachkonsruktionen und Typenhallen gelang auf der Weltausstellung 1910 in Brüssel der technische Durchbruch mit der Ausstellungshalle der Deutschen Reichsbahn, welche mit 43 Meter Spannweite Maßstäbe setze. Nachfolgende Bogenbinderhallen vergrößerten immer mehr die Spannweiten bis über 100m. Als Weiterentwicklung sind vor allem die zeltartigen Konstruktionen zu nennen, die eine ideale Tragwirkung als zugbeanspruchte Konstruktion ermöglichen.
Am Beispiel der Elektrifizierung zweier Großstädte an der Westküste Südamerikas zeigt die Arbeit den globalen Einfluss deutscher Industrie- und Finanzakteure auf technische, städtebauliche und gesellschaftlich-kulturelle Entwicklungen zur Blütezeit des europäischen Imperialismus auf. Damit werden die Regionalgeschichten der chilenischen Hauptstadtregion und der Elektropolis Berlin zu einer Globalgeschichte miteinander verknüpft. Ein Hauptaugenmerk der Analyse liegt dabei auf den weltweiten Akteursnetzwerken und Machtverhältnissen sowie dem kulturellen Erbe und seiner gegenwärtigen Interpretation.
Die Bedeutung von klassischen Elementen in virtueller Architektur - Untersucht am Beispiel der Wand
(2004)
Die Dissertation exploriert und evaluiert die Definition einer Entsprechung der architektonischen Kategorie der Wand für virtuelle Architekturen. Es wird der Frage nachgegangen, inwieweit eine architektonische Strukturierung in der virtuellen Architektur fortzuführen ist, um Handlungs- und Kommunikationsstrukturen zu sichern. Der erste Teil motiviert die Arbeit und vermittelt die Grundlagen und Termini, die in einem direkten Zusammenhang mit der virtuellen Architektur verwendet werden. Der folgende Teil konzentriert sich ausschließlich auf die reale Architektur. Ausgehend vom Element der Wand wird, in einer analytischen und architekturtheoretischen Betrachtung, ein Modell von Raumkategorien entwickelt, welches im Hinblick auf die virtuelle Architektur von besonderer Bedeutung ist. Die aus der Analyse gewonnen Erkenntnisse in Form von Raumkategorien werden im dritten Teil aus der realen in die virtuelle Architektur übertragen. Das folgende Kapitel beschreibt drei Experimente, die Fra-gen, Hypothesen und Ansätze aus den vorangegangenen Kapiteln empirisch evaluieren. Im abschließenden Kapitel werden die Erkenntnisse der experimentellen Untersuchung im Kontext des architektonischen Gestaltens von virtuellen Architekturen diskutiert.
Die Bau-Ausstellung zu Beginn des 20. Jahrhunderts oder „Die Schwierigkeit zu wohnen“, so lautet der Titel der Arbeit und legt damit ihren Fokus offen. Sie betrachtet ein um 1900 aufkommendes Ausstellungsphänomen in seinen ersten Dekaden; in einer Zeit, in der das Wohnen problematisiert wurde.
Der Praxis des Wohnens ist Anfang des 20. Jahrhunderts seine Selbstverständlichkeit abgesprochen worden. Die Bau-Ausstellung wird als ein Symptom dieses Verlusts interpretiert und zugleich als Versuch, ihm entgegenzuwirken. Statt sie innerdisziplinär als eine architekturgeschichtliche Episode der Moderne rein positivistisch zu beschreiben, legt die vorliegende Arbeit im Typus der Bau-Ausstellung eine weit reichende Problematik frei, die kulturphilosophische ebenso wie medientheoretische Dimensionen hat: Inwieweit lässt sich das Wohnen überhaupt ausstellen? Wie kann man eine alltägliche Praxis, die kaum eine Definition erlaubt, zeigen? Den Umgang mit dieser Aporie untersucht die Arbeit.
Die Dissertation analysiert und bewertet die Kindergartenarchitektur des 20.Jhd.'s im Spektrum von individueller Planung und Baukastensystemen. Den Ausgangspunkt bildet ein Defizit an Betreuungsplätzen in Deutschland am Ende des 20.Jhd.'s. Dieses resultiert aus dem gesetzlich garantierten Rechtsanspruch auf einen Kindergartenplatz und der rezessiven Wirtschaftslage. Der dringende Handlungsbedarf der Kommunen führte zu einer primär ökonomisch ausgerichteten Baukultur. Anhand eines Kriterienkataloges wird u.a. bewertet, wie eine ökonomische Architektur im Kindergartenbau ohne Qualitätsminderung erzielt werden kann. Zukunftsweisende Kindergartenplanungen für das 21.Jhd. werden analysiert. Ein eigenes weiterführendes, integriertes Planungskonzept wird u.a. hinsichtlich seiner Mehrfach- und Umnutzungspotentiale überprüft. Nur ein ganzheitlicher Architekturansatz kann die vielfältigen Anforderungen an Kindergärten realisieren und zukunftsweisende Überlegungen sinnvoll integrieren.
Das Hauptziel der Arbeit war es zu klären, ob alkalihaltige Enteisungsmittel eine Alkali-Kieselsäure-Reaktion (AKR) auslösen und/oder beschleunigen können und was die dabei ggf. zugrunde liegenden Mechanismen sind. Die Untersuchungen dazu ergaben, dass die auf Verkehrsflächen eingesetzten alkalihaltigen Enteisungsmittel auf Basis von Natriumchlorid (Fahrbahndecken) bzw. auf Basis der Alkaliacetate und -formiate (Flugbetriebsflächen) den Ablauf einer AKR in Betonen mit alkalireaktiven Gesteinskörnungen auslösen und mitunter stark beschleunigen können. Dabei nimmt die AKR-fördernde Wirkung der Enteisungsmittel in der Reihenfolge Natriumchlorid - Alkaliacetate - Alkaliformiate erheblich zu.
Es zeigte sich, dass im Fall der Alkaliacetate und -formiate nicht allein die Zufuhr von Alkalien von Bedeutung ist, sondern dass es außerdem zu einer Freisetzung von OH-Ionen aus dem Portlandit und folglich zu einem Anstieg des pH-Wertes in der Porenlösung kommt. Dadurch wird der Angriff auf alkalireaktives SiO2 in Gesteinskörnungen verstärkt und der Ablauf einer AKR beschleunigt. Unter äußerer NaCl-Zufuhr kommt es hingegen nicht zu einem Anstieg des pH-Wertes, was der Grund für die weniger stark AKR-fördernde Wirkung von NaCl ist. Von Bedeutung sind hier die zugeführten Na-Ionen und offenbar ein sich andeutender, direkter Einfluss von NaCl auf das SiO2-Löseverhalten. Sind pH-Wert und Na-Konzentration in der Porenlösung ausreichend hoch, wird sich thermodynamisch bedingt AKR-Gel bilden. Die Bildung von FRIEDEL’schem Salz ist dabei nur eine Begleiterscheinung, aber keine Voraussetzung für den Ablauf einer AKR unter äußerer NaCl-Zufuhr.
Es zeigte sich weiter, dass sich mit der FIB-Klimawechsellagerung als Performance-Prüfung das AKR-Schädigungspotential von Betonen für Fahrbahndecken und Flugbetriebsflächen zuverlässig beurteilen lässt. Die Vorteile der FIB-Klimawechsellagerung liegen in der Prüfung kompletter, projektspezifischer Betonzusammensetzungen unter Beachtung aller praxisrelevanten klimatischen Einwirkungen und vor allem in der Berücksichtigung einer äußeren Alkalizufuhr. Innerhalb von 36 Wochen kann das AKR-Schädigungspotential einer Betonzusammensetzung für eine Nutzungsdauer von 20-30 Jahren in der Praxis sicher beurteilt werden.
Ziel der Arbeit war das Adsorptionsverhalten ausgewählter schutzkolloidstabilisierter Polymerpartikel mit variierender chemischer Basis im zementären System zu beschreiben und basierend auf den gewonnenen Erkenntnissen das Konkurrenzverhalten beim Angebot unterschiedlicher mineralischer Oberflächen zu klären.
Sowohl die Destabilisierung der Polymerpartikel im alkalischen Milieu, welche eine Voraussetzung für derartige Adsorptionsprozesse ist, als auch die Veränderung von Oberflächeneigenschaften verschiedener mineralischer Partikel durch Hydratations- und Ionenadsorptionsprozesse, wurden u. a. mit Hilfe elektrokinetischer Experimente erfasst. Die spektralphotometrische Erstellung von Adsorptionsisothermen ermöglichte zudem die Ermittlung der jeweiligen adsorbierten Polymermenge zu verschiedenen Zeitpunkten der frühen Hydratation. Weiterhin wurde die Polymeradsorption an Partikeln ausgewählter Zusatzstoffe in Abhängigkeit von der Ionenstärke der Flüssigphase beschrieben.
Rasterelektronenmikroskopische Untersuchungen cryo-präparierter polymermodifizierter Zementleimproben ermöglichten es außerdem deren Mikrostruktur im suspensiven Zustand zu visualisieren. Diese Aufnahmen, ebenso wie die Ergebnisse grundlegender hydratationskinetischer Untersuchungen wurden in Wechselbeziehung zu den Ergebnissen der Adsorptionsuntersuchungen gebracht.
Maßgelbliche intermolekulare und interpartikuläre Wechselwirkungen, infolge derer sich die Stabilitätsverhältnisse im Zementleim ändern und die Polymerpartikel adsorbieren sind im Wesentlichen die Desorption des Schutzkolloids von der Polymerpartikeloberfläche, die Ionisation funktioneller Gruppen der Polymerpartikel und der Schutzkolloidmakromoleküle im alkalischen Milieu und infolgedessen die Komplexbildung mit Ionen der Zementleimporenlösung. Die Auswirkungen dieser Vorgänge auf die Lösungs- und Fällungskinetik des Zementleimes wurden erfasst und mit der chemischen Zusammensetzung der polymeren Systeme korreliert.
Isogeometric analysis (IGA) is a numerical method for solving partial differential equations (PDEs), which was introduced with the aim of integrating finite element analysis with computer-aided design systems. The main idea of the method is to use the same spline basis functions which describe the geometry in CAD systems for the approximation of solution fields in the finite element method (FEM). Originally, NURBS which is a standard technology employed in CAD systems was adopted as basis functions in IGA but there were several variants of IGA using other technologies such as T-splines, PHT splines, and subdivision surfaces as basis functions. In general, IGA offers two key advantages over classical FEM: (i) by describing the CAD geometry exactly using smooth, high-order spline functions, the mesh generation process is simplified and the interoperability between CAD and FEM is improved, (ii) IGA can be viewed as a high-order finite element method which offers basis functions with high inter-element continuity and therefore can provide a primal variational formulation of high-order PDEs in a straightforward fashion. The main goal of this thesis is to further advance isogeometric analysis by exploiting these major advantages, namely precise geometric modeling and the use of smooth high-order splines as basis functions, and develop robust computational methods for problems with complex geometry and/or complex multi-physics.
As the first contribution of this thesis, we leverage the precise geometric modeling of isogeometric analysis and propose a new method for its coupling with meshfree discretizations. We exploit the strengths of both methods by using IGA to provide a smooth, geometrically-exact surface discretization of the problem domain boundary, while the Reproducing Kernel Particle Method (RKPM) discretization is used to provide the volumetric discretization of the domain interior. The coupling strategy is based upon the higher-order consistency or reproducing conditions that are directly imposed in the physical domain. The resulting coupled method enjoys several favorable features: (i) it preserves the geometric exactness of IGA, (ii) it circumvents the need for global volumetric parameterization of the problem domain, (iii) it achieves arbitrary-order approximation accuracy while preserving higher-order smoothness of the discretization. Several numerical examples are solved to show the optimal convergence properties of the coupled IGA–RKPM formulation, and to demonstrate its effectiveness in constructing volumetric discretizations for complex-geometry objects.
As for the next contribution, we exploit the use of smooth, high-order spline basis functions in IGA to solve high-order surface PDEs governing the morphological evolution of vesicles. These governing equations are often consisted of geometric PDEs, high-order PDEs on stationary or evolving surfaces, or a combination of them. We propose an isogeometric formulation for solving these PDEs. In the context of geometric PDEs, we consider phase-field approximations of mean curvature flow and Willmore flow problems and numerically study the convergence behavior of isogeometric analysis for these problems. As a model problem for high-order PDEs on stationary surfaces, we consider the Cahn–Hilliard equation on a sphere, where the surface is modeled using a phase-field approach. As for the high-order PDEs on evolving surfaces, a phase-field model of a deforming multi-component vesicle, which consists of two fourth-order nonlinear PDEs, is solved using the isogeometric analysis in a primal variational framework. Through several numerical examples in 2D, 3D and axisymmetric 3D settings, we show the robustness of IGA for solving the considered phase-field models.
Finally, we present a monolithic, implicit formulation based on isogeometric analysis and generalized-alpha time integration for simulating hydrodynamics of vesicles according to a phase-field model. Compared to earlier works, the number of equations of the phase-field model which need to be solved is reduced by leveraging high continuity of NURBS functions, and the algorithm is extended to 3D settings. We use residual-based variational multi-scale method (RBVMS) for solving Navier–Stokes equations, while the rest of PDEs in the phase-field model are treated using a standard Galerkin-based IGA. We introduce the resistive immersed surface (RIS) method into the formulation which can be employed for an implicit description of complex geometries using a diffuse-interface approach. The implementation highlights the robustness of the RBVMS method for Navier–Stokes equations of incompressible flows with non-trivial localized forcing terms including bending and tension forces of the vesicle. The potential of the phase-field model and isogeometric analysis for accurate simulation of a variety of fluid-vesicle interaction problems in 2D and 3D is demonstrated.
The world society faces a huge challenge to implement the human right of “access to sanitation”. More and more it is accepted that the conventional approach towards providing sanitation services is not suitable to solve this problem. This dissertation examines the possibility to enhance “access to sanitation” for people who are living in areas with underdeveloped water and wastewater infrastructure systems. The idea hereby is to follow an integrated approach for sanitation, which allows for a mutual completion of existing infrastructure with resource-based sanitation systems.
The notion “integrated sanitation system (iSaS)” is defined in this work and guiding principles for iSaS are formulated. Further on the implementation of iSaS is assessed at the example of a case study in the city of Darkhan in Mongolia. More than half of Mongolia’s population live in settlements where yurts (tents of Nomadic people) are predominant. In these settlements (or “ger areas”) sanitation systems are not existent and the hygienic situation is precarious.
An iSaS has been developed for the ger areas in Darkhan and tested over more than two years. Further on a software-based model has been developed with the goal to describe and assess different variations of the iSaS. The results of the assessment of material-flows, monetary-flows and communication-flows within the iSaS are presented in this dissertation. The iSaS model is adaptable and transferable to the socio-economic conditions in other regions and climate zones.
Development of a Sustainability-based Sanitation Planning Tool (SusTA) for Developing Countries
(2014)
Background and Research Goal
Despite all the efforts in the sanitation sector, it is acknowledged that the world is not on track to meet the MDG sanitation target to reduce the number of people without access to sanitation by 2015. Furthermore, a large number of existing sanitation facilities in developing countries is out of order. This leads to the conclusion that, besides technical failures, the planning process in the sanitation sector was ineffective. This ineffectiveness may be attributed to the lack of knowledge of the sanitation planners about the local conditions of the sanitation project. In addition, sustainability of a technology is often approached from a fragmented perspective that often leads to an unsustainable solution.
The dissertation is conducted within the framework of the Integrated Water Resources Management (IWRM) Indonesia project. The goal of this work is to contribute to the development of a methodology of a planning tool for sustainable sanitation technology. The tool is designed for sanitation planners in developing countries, where a top-down planning approach is common practice. The proposed tool enables comprehensive sustainability assessments (using the Helmholtz Concept of Sustainability as reference), taking into account local conditions.
State of the Science
In the planning practice, many sanitation planning tools focus on technology selection. However, it has become evident that the selection criteria for sustainable technologies are not always considered in the tools’ framework. In other cases, when the criteria are provided by the tool, there is no clear indication of the conditions to be fulfilled in order to meet these criteria. Specifically, there is no reference to what is meant by sustainable technology in a particular context and how to comprehensively assess the sustainability of different technology options.
Research Methodology
Developing a planning tool is an empirical process, combining theory and practical experience. Hence, the development process of such a tool requires extensive observations, particularly on the interaction between stakeholders in the sanitation sector as well as between technology and its environment. For this purpose, a case study within the project area was carried out. Pucanganom, a village representing common strategic problems in developing countries (e.g. top-down planning approaches, lack of involvement of beneficiaries in the planning process, lack of sustainability assessments) was finally selected as the case study area. After the in-depth case study, an analytical generalisation was developed to enable the tool’s application to a broader context.
Results
The result of this research is a new tool – the Sustainability-based Sanitation Planning Tool (SusTA). SusTA enables comprehensive sustainability assessment in its five generic steps, namely: (1) analysis of stakeholders and sanitation policy in the region, (2) distance-to-target analysis on sanitation conditions in the region, (3) examination of physical and socio-economic conditions in the project area, (4) contextualisation of the technology assessment process in the project area, and (5) sustainability-oriented technology assessment at the project level. These steps are conducted at two levels of planning – the region and the project area – in order to identify the specific problems and interests which influence the selection of a sanitation system. Each planning step is equipped with tool elements (e.g. set of indicators, household questionnaires, technology assessment matrices) to support the analysis.
From the development of SusTA, it can be concluded that four elements are required for an effective and widely applicable sanitation planning tool: sustainability concept, participatory approach, contextualisation framework and modification framework. SusTA provides both a theoretical and a practical basis for assessing the sustainability of sanitation technologies in developing countries. The tool’s main advantages for decision makers in these countries are: It is simple and transparent in its steps, does not require vast amounts of data and does not need a sophisticated computer program.
The study of memory, architecture, and urban space has been the interest of researchers from the diverse fields around the world due to, the significance of dealing with memories especially after the tragedy of the Second World War. Nations in Europe has chosen not to neglect their past, moreover, overcoming it by strengthening the national identity. An approach was clear in the literature, art, further in the way of rebuilding their cities; that mainly has reflected on the value of urban spaces and their role in narrating the country’s national memory. Thanks to this approach, which has supported the post-war European nations to invite to an act of forgiveness rather than to forget.
On the contrary, memory, in relation to architecture is a form of knowledge has been neglected in Egypt, especially during the previous decades after the declaration of independence from the colonial power, and since 1952 revolution. Recently, a rising debate about Egypt national history and the need to renationalize the Egyptian historical consciousness has rapidly grown up, due to the political transformation has occurred because of the 25th uprising, 2011, which unveiled the power of public spaces in constituting the nation thoughts, especially Tahrir square. At the same time, this has unveiled the results of neglecting the past instead of overcoming it; unveiled a present carries the danger of conflict and repeating previous mistakes.
Researchers, historians, politicians, governmental organization, have worked in the purpose of revisiting the historical information, and have tried to document the current transformation of the 25th uprising. There was a public demand for redesigning Tahrir square to reflect the memory of the uprising as a symbol of the power of the public. However, after eight years, those memories have faded as if the 25th uprising has never happened.
Those circumstances are very relevant to the gap between urban design and the art of memory-work, in the scientific field. Few studies in Egypt conducted the concept of memory in relation to urban spaces, however, the matter requires more attention, to associate the need for renationalizing Egypt memory, with viewing urban space as a mean of narrating the country’s national memory and reflecting the citizens' current thoughts, as a try of nearing the distances between competing narratives.
Therefore, the research aims at developing a methodological framework that should contribute to renationalizing memory through urban space. Further, benefiting from the German experience by investigating lessons to learn. That is based on the hypothesis that, although there is no fixed formula for all countries to renationalize the historical consciousness of memory through urban spaces, lessons to be learned from Germany experience could be a driving dimension when designing Egyptian urban spaces with a concept of memory as an essential factor.
To guide the validity of the study’s hypothesis, a set of research questions are thus formulated: Starting from why memory is an essential factor when designing urban spaces? Regarding Egypt national memory, how it was constituted through history and how to read its representation on urban spaces? Also, the study quests the means of nationalizing memory through urban spaces? And What are the learned lessons from the German experience?
The study tries to answer those questions. Via an inductive analytical methodology which moves from the gap of knowledge and from a particular situation in Egypt, to study the German experience in renationalizing the concept of memory through urban spaces.
Within the scope of the study, exploring Egypt prevailing narratives and the inherited concepts which influenced the national memory is essential. Moreover, the research develops analytical political psychosocial model that could help reading memories in urban spaces, memory’s actors, and memory influences. To validate this model, case studies are analysed in light of the concluded aspects. Consequently, the expected result is to infer broad general learned lessons for the Egyptian case.
Research findings and conclusions answer the research questions, interpret literature review, recommend some guide points to three target groups: first, practice field; to encourage designers to value the national and collective memories when designing urban spaces. Second, to ask policymakers to take the public participation into consideration, when taking decisions related to urban development. Third, the thesis recommends future researches of urban memory that connect theoretical information with the practice field.
Finally, enhancing the memory-work in relation to the national narrative, conveying a meaningful message, when designing urban spaces could encourage citizens to learn, to interact, and to dissolve boundaries between the competing narratives in post-conflict societies.
Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding.
The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes.
In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources.
The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES.
The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack.
Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features.
The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext.
From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption.
This study deals with design for AI/ML systems, more precisely in the industrial AI context based on case studies from the factory automation field. It therefore touches on core concepts from Human-Centered-Design (HCD), User Experience (UX) and Human Computer Interaction (HCI) on one hand, as well as concepts from Artificial Intelligence (AI), Machine Learning (ML) and the impact of technology on the other. The case studies the research is based on are within the industrial AI domain. However, the final outcomes, the findings, solutions, artifacts and so forth, should be transferable to a wider spectrum of domains. The study’s aim is to examine the role of designers in the age of AI and the factors which are relevant, based on the hypothesis that current AI/ML development lacks the human perspective, which means that there are pitfalls and challenges that design can help resolve. The initial literature review revealed that AI/ML are perceived as a new design material that calls for a new design paradigm. Additional research based on qualitative case study research was conducted to gain an overview of the relevant issues and challenges. From this, 17 themes emerged, which together with explorative expert interviews and a structured literature review, were further analyzed to produce the relevant HCD, UX and HCI themes. It became clear that designers need new processes, methods, and tools in the age of AI/ML in combination with not only design, but also data science and business expertise, which is why the proposed solution in this PhD features process modules for design, data science and business collaboration. There are seven process modules and their related activities and dependencies that serve as guidelines for practitioners who want to design intelligence. A unified framework for collecting use case exemplars was created, based on a workshop with different practitioners and researchers from the area of AI/ML to support and enrich the process modules with concrete projects examples.