Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
- Professur Holz- und Mauerwerksbau (10)
- Professur Raumplanung und Raumforschung (10)
- Professur Allgemeine Baustoffkunde (9)
- Professur Baumechanik (9)
- Professur Content Management und Webtechnologien (9)
- Professur Massivbau I (9)
- Professur Grundbau (8)
- Professur Systeme der Virtuellen Realität (8)
- Professur Angewandte Mathematik (7)
- Professur Betriebswirtschaftslehre im Bauwesen (7)
- Professur Entwerfen und Architekturtheorie (7)
- Graduiertenkolleg 1462 (6)
- Professur Baumanagement und Bauwirtschaft (6)
- Professur Geschichte und Theorie künstlicher Welten (6)
- Professur Werkstoffe des Bauens (6)
- Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is) (5)
- Medienkunst/Mediengestaltung (5)
- Professur Geschichte und Theorie der Kulturtechniken (5)
- Professur Medieninformatik (5)
- Professur Medienmanagement (5)
- Professur Medienphilosophie (5)
- Professur Mediensicherheit (5)
- Professur Soziologie und Sozialgeschichte der Stadt (5)
- Professur Stahlbau (5)
- Professur Tragwerkslehre (5)
- Professur Verkehrsplanung und Verkehrstechnik (5)
- bauhaus.institut für experimentelle Architektur (5)
- Freie Kunst (4)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Bauphysik (4)
- Professur Baustatik und Bauteilfestigkeit (4)
- Professur Bodenmechanik (4)
- Professur Informations- und Wissensverarbeitung (4)
- Professur Modellierung und Simulation - Mechanik (4)
- Geschichte und Theorie der Kunst (3)
- Professur Aufbereitung von Baustoffen und Wiederverwertung (3)
- Professur Bauaufnahme und Baudenkmalpflege (3)
- Professur Experimentelle Konstruktions- und Materialanalyse (3)
- Professur Interface Design (3)
- Professur Modellierung und Simulation - Konstruktion (3)
- Professur Planung von Ingenieurbauten (3)
- Professur Siedlungswasserwirtschaft (3)
- Bauhaus-Institut für Geschichte und Theorie der Architektur und Planung (2)
- Geschichte und Theorie des Design (2)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (2)
- Junior-Professur Augmented Reality (2)
- Produktdesign (2)
- Professur Abfallwirtschaft (2)
- Professur Bauformenlehre (2)
- Professur Bauklimatik (2)
- Professur Entwerfen und Baukonstruktion (2)
- Professur Marketing und Medien (2)
- Professur Massivbau II (2)
- Professur Stahl- und Hybridbau (2)
- Professur Stochastik und Optimierung (2)
- Professur Strömungsmechanik (2)
- Professur Theorie und Geschichte der modernen Architektur (2)
- Professur Wasserbau (2)
- Architekturgeschichte (1)
- Arts and Research (1)
- Fachbereich Medieninformatik (1)
- Geschichte und Theorie der Visuellen Kommunikation (1)
- Institut Geotechnik Weimar (1)
- Junior-Professur Computational Architecture (1)
- Junior-Professur Psychophysiologie und Wahrnehmung (1)
- Juniorprofessur CAD in der Bauinformatik (1)
- Juniorprofessur Polymere Bindemittel und Baustoffe im Bauwesen (1)
- Juniorprofessur Urban Energy Systems (1)
- Kompetenzzentrum Medienanthropologie (KOMA) (1)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (1)
- Professur Biotechnologie in der Ressourcenwirtschaft (1)
- Professur Computergestütztes kooperatives Arbeiten (1)
- Professur Darstellungsmethodik (1)
- Professur Datenbanken und Kommunikationssysteme (1)
- Professur Entwerfen und Baugestaltung (1)
- Professur Entwerfen und Industriebau (1)
- Professur Entwerfen und Innenraumgestaltung (1)
- Professur Entwerfen und Städtebau I (1)
- Professur Entwerfen und ländliches Bauen (1)
- Professur Gebäudetechnik (1)
- Professur Geotechnik (1)
- Professur Graphische Datenverarbeitung (1)
- Professur Konstruktives Entwerfen und Tragwerkslehre (1)
- Professur Medienwissenschaft (1)
- Professur Stadtplanung (1)
- Professur Verfahren und Umwelt (1)
- Professur Verkehrsbau (1)
- Professur Verkehrssystemplanung (1)
- Professur Wahrnehmungslehre, Geschichte und Theorie der Kommunikation und der Medien (1)
- Professur für Philosophie und Ästhetik (1)
- Visuelle Kommunikation (1)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
Communities in discourse and space. Towards a spatial dialectic in gated residential developments
(2015)
This research projects deals with the discoursivity of spatial production.
By looking at contemporary residential development in the city of Istanbul, I will examine the reciprocity of the material production of space on one hand, and social discourses on the other, in order to make a contribution to how physical space can be used as a source of research in urban studies. In real estate marketing social discourses are used as a source of reference for place branding or identity design. Branding concepts therefore relate to how social groups imagine their position or future position in society, imaginaries that are continuously influenced and changed by social dynamics within the city but also from the outside. How such urban identities are formed and it what way they relate to the urban environment is crucial to a wide spectrum of social and cultural science. The constitutive role urban space attains has been described and analysed in much detail. Such scrutiny however has yet to be applied to the visual and communicative forms of engagement, the build environment partakes in the formation and change of social discourses.
The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked.
This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored.
Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others.
This study permits a reliability analysis to solve the mechanical behaviour issues existing in the current structural design of fabric structures. Purely predictive material models are highly desirable to facilitate an optimized design scheme and to significantly reduce time and cost at the design stage, such as experimental characterization.
The present study examined the role of three major tasks; a) single-objective optimization, b) sensitivity analyses and c) multi-objective optimization on proposed weave structures for woven fabric composites. For single-objective optimization task, the first goal is to optimize the elastic properties of proposed complex weave structure under unit cells basis based on periodic boundary conditions.
We predict the geometric characteristics towards skewness of woven fabric composites via Evolutionary Algorithm (EA) and a parametric study. We also demonstrate the effect of complex weave structures on the fray tendency in woven fabric composites via tightness evaluation. We utilize a procedure which does not require a numerical averaging process for evaluating the elastic properties of woven fabric composites. The fray tendency and skewness of woven fabrics depends upon the behaviour of the floats which is related to the factor of weave. Results of this study may suggest a broader view for further research into the effects of complex weave structures or may provide an alternative to the fray and skewness problems of current weave structure in woven fabric composites.
A comprehensive study is developed on the complex weave structure model which adopts the dry woven fabric of the most potential pattern in singleobjective optimization incorporating the uncertainties parameters of woven fabric composites. The comprehensive study covers the regression-based and variance-based sensitivity analyses. The second task goal is to introduce the fabric uncertainties parameters and elaborate how they can be incorporated into finite element models on macroscopic material parameters such as elastic modulus and shear modulus of dry woven fabric subjected to uni-axial and biaxial deformations. Significant correlations in the study, would indicate the need for a thorough investigation of woven fabric composites under uncertainties parameters. The study describes here could serve as an alternative to identify effective material properties without prolonged time consumption and expensive experimental tests.
The last part focuses on a hierarchical stochastic multi-scale optimization approach (fine-scale and coarse-scale optimizations) under geometrical uncertainties parameters for hybrid composites considering complex weave structure. The fine-scale optimization is to determine the best lamina pattern that maximizes its macroscopic elastic properties, conducted by EA under the following uncertain mesoscopic parameters: yarn spacing, yarn height, yarn width and misalignment of yarn angle. The coarse-scale optimization has been carried out to optimize the stacking sequences of symmetric hybrid laminated composite plate with uncertain mesoscopic parameters by employing the Ant Colony Algorithm (ACO). The objective functions of the coarse-scale optimization are to minimize the cost (C) and weight (W) of the hybrid laminated composite plate considering the fundamental frequency and the buckling load factor as the design constraints.
Based on the uncertainty criteria of the design parameters, the appropriate variation required for the structural design standards can be evaluated using the reliability tool, and then an optimized design decision in consideration of cost can be subsequently determined.
Encapsulation-based self-healing concrete (SHC) is the most promising technique for providing a self-healing mechanism to concrete. This is due to its capacity to heal fractures effectively without human interventions, extending the operational life and lowering maintenance costs. The healing mechanism is created by embedding capsules containing the healing agent inside the concrete. The healing agent will be released once the capsules are fractured and the healing occurs in the vicinity of the damaged part. The healing efficiency of the SHC is still not clear and depends on several factors; in the case of microcapsules SHC the fracture of microcapsules is the most important aspect to release the healing agents and hence heal the cracks. This study contributes to verifying the healing efficiency of SHC and the fracture mechanism of the microcapsules. Extended finite element method (XFEM) is a flexible, and powerful discrete crack method that allows crack propagation without the requirement for re-meshing and has been shown high accuracy for modeling fracture in concrete. In this thesis, a computational fracture modeling approach of Encapsulation-based SHC is proposed based on the XFEM and cohesive surface technique (CS) to study the healing efficiency and the potential of fracture and debonding of the microcapsules or the solidified healing agents from the concrete matrix as well. The concrete matrix and a microcapsule shell both are modeled by the XFEM and combined together by CS. The effects of the healed-crack length, the interfacial fracture properties, and microcapsule size on the load carrying capability and fracture pattern of the SHC have been studied. The obtained results are compared to those obtained from the zero thickness cohesive element approach to demonstrate the significant accuracy and the validity of the proposed simulation. The present fracture simulation is developed to study the influence of the capsular clustering on the fracture mechanism by varying the contact surface area of the CS between the microcapsule shell and the concrete matrix. The proposed fracture simulation is expanded to 3D simulations to validate the 2D computational simulations and to estimate the accuracy difference ratio between 2D and 3D simulations. In addition, a proposed design method is developed to design the size of the microcapsules consideration of a sufficient volume of healing agent to heal the expected crack width. This method is based on the configuration of the unit cell (UC), Representative Volume Element (RVE), Periodic Boundary Conditions (PBC), and associated them to the volume fraction (Vf) and the crack width as variables. The proposed microcapsule design is verified through computational fracture simulations.
Encapsulation-based self-healing concrete has received a lot of attention nowadays in civil engineering field. These capsules are embedded in the cementitious matrix during concrete mixing. When the cracks appear, the embedded capsules which are placed along the path of incoming crack are fractured and then release of healing agents in the vicinity of damage. The materials of capsules need to be designed in a way that they should be able to break with small deformation, so the internal fluid can be released to seal the crack. This study focuses on computational modeling of fracture in encapsulation-based selfhealing concrete. The numerical model of 2D and 3D with randomly packed aggreates and capsules have been developed to analyze fracture mechanism that plays a significant role in the fracture probability of capsules and consequently the self-healing process. The capsules are assumed to be made of Poly Methyl Methacrylate (PMMA) and the potential cracks are represented by pre-inserted cohesive elements with tension and shear softening laws along the element boundaries of the mortar matrix, aggregates, capsules, and at the interfaces between these phases. The effects of volume fraction, core-wall thickness ratio, and mismatch fracture properties of capsules on the load carrying capacity of self-healing concrete and fracture probability of the capsules are investigated. The output of this study will become valuable tool to assist not only the experimentalists but also the manufacturers in designing an appropriate capsule material for self-healing concrete.
The key objective of this research is to study fracture with a meshfree method, local maximum entropy approximations, and model fracture in thin shell structures with complex geometry and topology. This topic is of high relevance for real-world applications, for example in the automotive industry and in aerospace engineering. The shell structure can be described efficiently by meshless methods which are capable of describing complex shapes as a collection of points instead of a structured mesh. In order to find the appropriate numerical method to achieve this goal, the first part of the work was development of a method based on local maximum entropy (LME)
shape functions together with enrichment functions used in partition of unity methods to discretize problems in linear elastic fracture mechanics. We obtain improved accuracy relative to the standard extended finite element method (XFEM) at a comparable computational cost. In addition, we keep the advantages of the LME shape functions,such as smoothness and non-negativity. We show numerically that optimal convergence (same as in FEM) for energy norm and stress intensity factors can be obtained through the use of geometric (fixed area) enrichment with no special treatment of the nodes
near the crack such as blending or shifting.
As extension of this method to three dimensional problems and complex thin shell structures with arbitrary crack growth is cumbersome, we developed a phase field model for fracture using LME. Phase field models provide a powerful tool to tackle moving interface problems, and have been extensively used in physics and materials science. Phase methods are gaining popularity in a wide set of applications in applied science and engineering, recently a second order phase field approximation for brittle fracture has gathered significant interest in computational fracture such that sharp cracks discontinuities are modeled by a diffusive crack. By minimizing the system energy with respect to the mechanical displacements and the phase-field, subject to an irreversibility condition to avoid crack healing, this model can describe crack nucleation, propagation, branching and merging. One of the main advantages of the phase field modeling of fractures is the unified treatment of the interfacial tracking and mechanics, which potentially leads to simple, robust, scalable computer codes applicable to complex systems. In other words, this approximation reduces considerably the implementation complexity because the numerical tracking of the fracture is not needed, at the expense of a high computational cost. We present a fourth-order phase field model for fracture based on local maximum entropy (LME) approximations. The higher order continuity of the meshfree LME approximation allows to directly solve the fourth-order phase field equations without splitting the fourth-order differential equation into two second order differential equations. Notably, in contrast to previous discretizations that use at least a quadratic basis, only linear completeness is needed in the LME approximation. We show that the crack surface can be captured more accurately in the fourth-order model than the second-order model. Furthermore, less nodes are needed for the fourth-order model to resolve the crack path. Finally, we demonstrate the performance of the proposed meshfree fourth order phase-field formulation for 5 representative numerical examples. Computational results will be compared to analytical solutions within linear elastic fracture mechanics and experimental data for three-dimensional crack propagation.
In the last part of this research, we present a phase-field model for fracture in Kirchoff-Love thin shells using the local maximum-entropy (LME) meshfree method. Since the crack is a natural outcome of the analysis it does not require an explicit representation and tracking, which is advantageous over techniques as the extended finite element method that requires tracking of the crack paths. The geometric description of the shell is based on statistical learning techniques that allow dealing with general point set surfaces avoiding a global parametrization, which can be applied to tackle surfaces of complex geometry and topology. We show the flexibility and robustness of the present methodology for two examples: plate in tension and a set of open connected
pipes.
Computer Spiel Welten
(2000)
Eine diskursarchäologische Studie zur Entstehung von Computerspielen entlang der Begriffe von Reaktion, Entscheidung und Regulation in Mensch-Maschine-Systemen. Sie rekonstruiert die Emergenz des Computerspiels aus heterogenen Wissensbereichen wie Experimentalpsychologie, Arbeitswissenschaft, Kriegstechnologie, Hard- und Softwaregeschichte, Graphentheorie, Meteorologie, Speläologie, Philosophie, Behaviorismus, Kognitionswissenschaft, Spieltheorie und Kybernetik.
Gegenstand der vorliegenden Arbeit ist die Konzeption und prototypische Umsetzung von Techniken des Computer Supported Cooperative Work (CSCW) im Rahmen einer integrierten objektorientierten und dynamischen Bauwerksmodellverwaltung zur Unterstützung der Bauwerksplanung. Die Planung von Bauwerken ist durch einen hohen Grad an Arbeitsteiligkeit, aber auch durch eine schwache Strukturierung der ablaufenden Prozesse gekennzeichnet. Besonders durch den Unikatcharakter des Planungsgegenstands \'Bauwerk\' ergeben sich signifikante Unterschiede zum Entwurf anderer, durch Serienfertigung produzierter Industriegüter. Zunehmend wird die Planung von Bauwerken in Virtual Enterprises ausgeführt, die sich durch eine dynamische Organisationsstruktur, geographische Verteilung der Partner, schwer normierbare Informationsflüsse und eine häufig stark heterogene informationstechnische Infrastruktur auszeichnen. Zur rechnerinternen Repräsent! ation des Planungsgegenstands haben sich objektorientierte Bauwerksmodelle bewährt. Aufgrund der Veränderlichkeit der Bauwerke und deren rechnerinterner Repräsentation im Laufe des Bauwerkslebenszyklus ist eine dynamische Anpassung der Modelle unumgänglich. Derartige in Form von Taxonomien dargestellte dynamische Bauwerksmodellstrukturen können gemeinsam mit den in Instanzform vorliegenden konkreten Projektinformationen in entsprechenden Modellverwaltungssystemen (MVS) gehandhabt werden. Dabei wird aufgrund der Spezialisierung und Arbeitsteilung im Planungsprozess von einer inhaltlich verknüpften Partialmodellstruktur, die räumlich verteilt sein kann, ausgegangen. Die vorgeschlagenen Methoden zur Koordinierung der Teamarbeit in der Bauwerksplanung beruhen auf der Nutzung von CSCW–Techniken für \'Gemeinsame Informationsräume\' und \'Workgroup Computing\', die im Kontext der als Integrationsbasis fungierenden Modellverwaltungssysteme umgesetzt werden. Dazu werden die zur d! ynamischen Bauwerksmodellierung erforderlichen Metaebenenfunk! tionalitäten sowie Ansätze zur Implementierung von Modellverwaltungskernen systematisiert. Ebenso werden notwendige Basistechniken für die Realisierung von MVS untersucht und eine Architektur zur rollenspezifischen Präsentation dynamischer Modellinhalte vorgestellt. Da klassische Schichtenmodelle nicht auf die Verhältnisse in Virtual Enterprises angewendet werden können, wird eine physische Systemarchitektur mit einem zentralen Projektserver, Domänenservern und Domänenclients vorgestellt. Ebenso werden Techniken zur Sicherung des autorisierten Zugriffs sowie des Dokumentencharakters beschrieben. Zur Unterstützung der asynchronen Phasen der Kooperation wird der gemeinsame Informationsraum durch Mappingtechniken zur Propagation und Notifikation von Änderungsdaten bezüglich relevanter Modellinformationen ergänzt. Zur Unterstützung synchroner Phasen werden Techniken zur Schaffung eines gemeinsamen Kontexts durch relaxierte WYSIWIS–Präsentationen auf Basis der Modellinformationen! verbunden mit Telepresence–Techniken vorgestellt. Weiterhin werden Methoden zur Sicherung der Group–Awareness für alle Kooperationsphasen betrachtet.
Die Dissertation setzt sich mit der Aufarbeitung der Aufnahme vorhandener Bauwerke hinsichtlich der IT-Unterstützung des Aufnahmeprozesses, auswertbarer Gebäudemodelle und der Bereitstellung von Informationen für die Planung auseinander. In der Arbeit ist der Bauaufnahmeprozeß gegliedert worden sowie die entstehenden Informationsmengen analysiert. Untersuchungen des aufzunehmenden Gegenstandes, der Strukturierung, der Aufnahme – hinsichtlich der Aufnahmegeräte und –methoden- und der Präsentation dienten als Grundlage für eine IT-Unterstützung. Die Aufnahme erfolgt immer als ein Prozeß der Modellbildung. Als IT-Paradigma bietet sich die „Objektorientierte Modellierungstechnologie“ an. Diese wurde einer Bewertung unterzogen. Mit Hinblick auf den konkreten Sachverhalt der Bauaufnahme, wie imperfekte und schwer formalisierbare Informationen, sind Erweiterungen berücksichtigt worden. Aus den diskutierten Ansätzen wurde ein Systemkonzept abgeleitet und Teilaspekte exemplarisch realisiert.
El presente trabajo se inscribe en el campo de los estudios urbanos y plantea como ejes estructurantes la intersección entre las políticas públicas, el barrio y las prácticas del habitar (de Certeau, 1996, 1999; Gravano, 2003) en el marco de las transformaciones del espacio urbano en los barrios pericentrales, también denominados tradicionales de la ciudad de Córdoba, particularmente lo acontecido en Barrio Güemes, durante el periodo 2010-2016.
El propósito del abordaje se inscribe en conocer y realizar aportes generalizables a la comprensión de las prácticas del habitar como unidad de análisis. En ese marco, el problema de investigación se formula en el siguiente interrogante: ¿cómo se modifican las prácticas del habitar en el marco de las transformaciones urbanas, en un modo de producción capitalista? Se entiende a las prácticas como acciones elementales de las “artes de hacer” que las personas ordinarias ponen en marcha en su vida cotidiana: para circular, cocinar, trabajar, vincularse. También, a través de las mismas resignifican los espacios, les otorgan una valoración (positiva o negativa), se identifican como parte de la identidad y a su vez se reconocen lugares de (des)encuentro y vías de circulación.
Para su abordaje se toma como unidad de estudio el caso de barrio Güemes. El recorte espacial (o físico) del trabajo empírico está localizado en la ciudad de Córdoba, y se sitúa en la periferia del área central. Esta localización permite comprender el surgimiento de las primeras expansiones urbanas como consecuencia del crecimiento demográfico y cómo estas, se transformaron en los primeros barrios. El recorte temporal se encuentra delimitado entre los años 2000 y 2016, respaldado intencionalmente por dos acontecimientos significativos: el censo de población (2001) y la celebración del Bicentenario de la Independencia en Argentina.
Los cambios materializados en ciertos espacios urbanos, tanto en ciudades latinoamericanas (Buenos Aires, Salvador de Bahía en Brasil, México Distrito Federal, etc.) como en otras partes del mundo (New Orleans en los Estados Unidos, el distrito de Kreuzberg- Friedrichshain en Berlín, el puerto de Hamburgo en Alemania, etc.) demuestran cómo estos espacios se van transformado acorde al modo de reproducción capitalista. Pues, se trataba de espacios que en algún momento cumplieron funciones económicas-sociales jerarquizadas y luego por la dinámica misma del capitalismo, la sobreacumulación, dejan de ser rentables y pasan a ser espacios “obsoletos”. En ese sentido, la omisión de acciones públicas y/o privadas, la desatención y el crecimiento de situaciones sociales conflictivas (delitos, inseguridad, degradación) en estos espacios, funciona como argumento para que los gobiernos locales comiencen a planear el futuro y modernizarlos.
De esta manera, se plantean políticas urbanas con el objetivo de impulsar acciones de renovación o rehabilitación para dinamizar económicamente determinados sectores. Dos elementos discursivos aparecen como posibilitadores del proceso de renovación urbana: el turismo y el patrimonio. En ese sentido, bajo la recuperación patrimonial de ciertos lugares se dinamizan los territorios, por lo que el turismo se vuelve una herramienta económica que produce un excedente de plusvalía. La puesta en valor de bienes tangibles e intangibles atrae la afluencia de visitantes y, a la vez, es rentable económicamente. Ahora bien, muchas veces los proyectos tienen en cuenta las variables morfológicas y físicas, dejando en un segundo plano el impacto en el espacio próximo y las relaciones entre los habitantes con su territorio. Actualmente los espacios elegidos por los municipios para la intervención pública y/o privada son los barrios, puesto que son espacios cercanos al centro y considerados estratégicos. Por lo general, el argumento es la necesidad de rehabilitar/renovar zonas poco aprovechadas o degradadas con el objetivo de mejorar la calidad de vida de la población y dinamizar el sector (Brites, 2017; Guevara, 2012). Desde los 2000 el barrio Güemes asiste a un proceso de crecimiento inusitado. La cantidad de artesanos se disparó y variedad de productos ofrecidos, emergieron los comercios que forman parte de la oferta comercial, gastronómica y cultural del barrio. Hace varios años, presenta nuevos actores económicos que se pueden observar en la apertura de galerías comerciales; ubicadas sobre el eje de las calles Belgrano, Achával Rodríguez, Fructuoso Rivera y la creciente aparición de edificaciones alrededor de la feria artesanal histórica; con la venta y exposición de piezas del arte plástico, gastronomía, negocios de diseñadores cordobeses y hasta la inclusión de la idea del del “desarrollo sustentable” en los techos de las galerías.
La modificación del corpus normativo, la aparición de edificación en altura y el boom económico tuvieron como resultado, la valorización del suelo urbano, la retroalimentación en el espacio con el emplazamiento de nuevas actividades comerciales y servicios culturales. A la par, en el espacio barrial se presentan nuevos residentes con otros hábitos y prácticas que ponen en disputa los modos de habitar en el espacio.
A riesgo de simplificar, estas transformaciones fueron producto de los cambios políticoideológicos, de los modelos e instrumentos de gestión urbana puestos en juego en los diversos momentos históricos y de las propias prácticas sociales y culturales de los habitantes. De esta manera, se centrará la mirada analítica en las transformaciones de las prácticas del habitar de los pobladores de los Barrios Güemes, en el marco de la metamorfosis del espacio urbano (atravesado por tendencias de mediatización y mercantilización de la experiencia) que conjugó un proceso de intersección y asociatividad entre políticas públicas y expansión inmobiliaria.
In recent years increasingly consideration has been given to the lifetime extension of existing structures. This is based on the fact that a growing percentage of civil infrastructure as well as buildings is threatened by obsolescence and that due to simple monetary reasons this can no longer be countered by simply re-building everything anew. Hence maintenance interventions are required which allow partial or complete structural rehabilitation. However, maintenance interventions have to be economically reasonable, that is, maintenance expenditures have to be outweighed by expected future benefits. Is this not the case, then indeed the structure is obsolete - at least in its current functional, economic, technical, or social configuration - and innovative alternatives have to be evaluated. An optimization formulation for planning maintenance interventions based on cost-benefit criteria is proposed herein. The underlying formulation is as follows: (a) between maintenance interventions structural deterioration is described as a random process; (b) maintenance interventions can take place anytime throughout lifetime and comprise the rehabilitation of all deterioration states above a certain minimum level; and (c) maintenance interventions are optimized by taking into account all expected life-cycle costs (construction, failure, inspection and state-dependent repair costs) as well as state- or time-dependent benefit rates. The optimization is performed by an evolutionary algorithm. The proposed approach also allows to determine optimal lifetimes and acceptable failure rates. Numerical examples demonstrate the importance of defining benefit rates explicitly. It is shown, that the optimal solution to maintenance interventions requires to take action before reaching the acceptable failure rate or the zero expected net benefit rate level. Deferring decisions with respect to maintenance not only results, in general, in higher losses, but also results in overly hazardous structures.
In the last decades, Finite Element Method has become the main method in statics and dynamics analysis in engineering practice. For current problems, this method provides a faster, more flexible solution than the analytic approach. Prognoses of complex engineer problems that used to be almost impossible to solve are now feasible.
Although the finite element method is a robust tool, it leads to new questions about engineering solutions. Among these new problems, it is possible to divide into two major groups: the first group is regarding computer performance; the second one is related to understanding the digital solution.
Simultaneously with the development of the finite element method for numerical solutions, a theory between beam theory and shell theory was developed: Generalized Beam Theory, GBT. This theory has not only a systematic and analytical clear presentation of complicated structural problems, but also a compact and elegant calculation approach that can improve computer performance.
Regrettably, GBT was not internationally known since the most publications of this theory were written in German, especially in the first years. Only in recent years, GBT has gradually become a fertile research topic, with developments from linear to non-linear analysis.
Another reason for the misuse of GBT is the isolated application of the theory. Although recently researches apply finite element method to solve the GBT's problems numerically, the coupling between finite elements of GBT and other theories (shell, solid, etc) is not the subject of previous research. Thus, the main goal of this dissertation is the coupling between GBT and shell/membrane elements. Consequently, one achieves the benefits of both sides: the versatility of shell elements with the high performance of GBT elements.
Based on the assumptions of GBT, this dissertation presents how the separation of variables leads to two calculation's domains of a beam structure: a cross-section modal analysis and the longitudinal amplification axis. Therefore, there is the possibility of applying the finite element method not only in the cross-section analysis, but also the development for an exact GBT's finite element in the longitudinal direction.
For the cross-section analysis, this dissertation presents the solution of the quadratic eigenvalue problem with an original separation between plate and membrane mechanism. Subsequently, one obtains a clearer representation of the deformation mode, as well as a reduced quadratic eigenvalue problem.
Concerning the longitudinal direction, this dissertation develops the novel exact elements, based on hyperbolic and trigonometric shape functions. Although these functions do not have trivial expressions, they provide a recursive procedure that allows periodic derivatives to systematise the development of stiffness matrices. Also, these shape functions enable a single-element discretisation of the beam structure and ensure a smooth stress field.
From these developments, this dissertation achieves the formulation of its primary objective: the connection of GBT and shell elements in a mixed model. Based on the displacement field, it is possible to define the coupling equations applied in the master-slave method. Therefore, one can model the structural connections and joints with finite shell elements and the structural beams and columns with GBT finite element.
As a side effect, the coupling equations limit the displacement field of the shell elements under the assumptions of GBT, in particular in the neighbourhood of the coupling cross-section.
Although these side effects are almost unnoticeable in linear analysis, they lead to cumulative errors in non-linear analysis. Therefore, this thesis finishes with the evaluation of the mixed GBT-shell models in non-linear analysis.
Identification of flaws in structures is a critical element in the management of maintenance and quality assurance processes in engineering. Nondestructive testing (NDT) techniques based on a wide range of physical principles have been developed and are used in common practice for structural health monitoring. However, basic NDT techniques are usually limited in their ability to provide the accurate information on locations, dimensions and shapes of flaws. One alternative to extract additional information from the results of NDT is to append it with a computational model that provides detailed analysis of the physical process involved and enables the accurate identification of the flaw parameters. The aim here is to develop the strategies to uniquely identify cracks in two-dimensional 2D) structures under dynamic loadings.
A local NDT technique combined eXtended Finite Element Method (XFEM) with dynamic loading in order to identify the cracks in the structures quickly and accurately is developed in this dissertation. The Newmark-b time integration method with Rayleigh damping is used for the time integration. We apply Nelder-Mead (NM)and Quasi-Newton (QN) methods for identifying the crack tip in plate. The inverse problem is solved iteratively, in which XFEM is used for solving the forward problem in each iteration. For a timeharmonic excitation with a single frequency and a short-duration signal measured along part of the external boundary, the crack is detected through the solution of an inverse time-dependent problem. Compared to the static load, we show that the dynamic loads are more effective for crack detection problems. Moreover, we tested different dynamic loads and find that NM method works more efficient under the harmonic load than the pounding load while the QN method achieves almost the same results for both load types.
A global strategy, Multilevel Coordinate Search (MCS) with XFEM (XFEM-MCS) methodology under the dynamic electric load, to detect multiple cracks in 2D piezoelectric plates is proposed in this dissertation. The Newmark-b method is employed for the time integration and in each iteration the forward problem is solved by XFEM for various cracks. The objective functional is minimized by using a global search algorithm MCS. The test problems show that the XFEM-MCS algorithm under the dynamic electric load can be effectively employed for multiple cracks detection in piezoelectric materials, and it proves to be robust in identifying defects in piezoelectric structures. Fiber-reinforced composites (FRCs) are extensively applied in practical engineering since they have high stiffness and strength. Experiments reveal a so-called interphase zone, i.e. the space between the outside interface of the fiber and the inside interface of the matrix. The interphase strength between the fiber and the matrix strongly affects the mechanical properties as a result of the large ratio of interface/volume. For the purpose of understanding the mechanical properties of FRCs with functionally graded interphase (FGI), a closed-form expression of the interface strength between a fiber and a matrix is obtained in this dissertation using a continuum modeling approach according to the ver derWaals (vdW) forces. Based on the interatomic potential, we develop a new modified nonlinear cohesive law, which is applied to study the interface delamination of FRCs with FGI under different loadings. The analytical solutions show that the delamination behavior strongly depends on the interphase thickness, the fiber radius, the Young’s moduli and Poisson’s ratios of the fiber and the matrix. Thermal conductivity is the property of a material to conduct heat. With the development and deep research of 2D materials, especially graphene and molybdenum disulfide (MoS2), the thermal conductivity of 2D materials attracts wide attentions. The thermal conductivity of graphene nanoribbons (GNRs) is found to appear a tendency of decreasing under tensile strain by classical molecular dynamics (MD) simulations. Hence, the strain effects of graphene can play a key role in the continuous tunability and applicability of its thermal conductivity property at nanoscale, and the dissipation of thermal conductivity is an obstacle for the applications of thermal management. Up to now, the thermal conductivity of graphene under shear deformation has not been investigated yet. From a practical point of view, good thermal managements of GNRs have significantly potential applications of future GNR-based thermal nanodevices, which can greatly improve performances of the nanosized devices due to heat dissipations. Meanwhile, graphene is a thin membrane structure, it is also important to understand the wrinkling behavior under shear deformation. MoS2 exists in the stable semiconducting 1H phase (1H-MoS2) while the metallic 1T phase (1T-MoS2) is unstable at ambient conditions. As it’s well known that much attention has been focused on studying the nonlinear optical properties of the 1H-MoS2. In a very recent research, the 1T-type monolayer crystals of TMDCs, MX2 (MoS2, WS2 ...) was reported having an intrinsic in-plane negative Poisson’s ratio. Luckily, nearly at the same time, unprecedented long-term (>3months) air stability of the 1T-MoS2 can be achieved by using the donor lithium hydride (LiH). Therefore, it’s very important to study the thermal conductivity of 1T-MoS2.
The thermal conductivity of graphene under shear strain is systematically studied in this dissertation by MD simulations. The results show that, in contrast to the dramatic decrease of thermal conductivity of graphene under uniaxial tensile, the thermal conductivity of graphene is not sensitive to the shear strain, and the thermal conductivity decreases only 12-16%. The wrinkle evolves when the shear strain is around 5%-10%, but the thermal conductivity barely changes.
The thermal conductivities of single-layer 1H-MoS2(1H-SLMoS2) and single-layer 1T-MoS2 (1T-SLMoS2) with different sample sizes, temperatures and strain rates have been studied systematically in this dissertation. We find that the thermal conductivities of 1H-SLMoS2 and 1T-SLMoS2 in both the armchair and the zigzag directions increase with the increasing of the sample length, while the increase of the width of the sample has minor effect on the thermal conductions of these two structures. The thermal conductivity of 1HSLMoS2 is smaller than that of 1T-SLMoS2 under size effect. Furthermore, the temperature effect results show that the thermal conductivities of both 1H-SLMoS2 and 1T-SLMoS2 decrease with the increasing of the temperature. The thermal conductivities of 1HSLMoS2 and 1T-SLMoS2 are nearly the same (difference <6%) in both of the chiral orientations under corresponding temperatures, especially in the armchair direction (difference <2.8%). Moreover, we find that the strain effects on the thermal conductivity of 1HSLMoS2 and 1T-SLMoS2 are different. More specifically, the thermal conductivity decreases with the increasing tensile strain rate for
1T-SLMoS2, while fluctuates with the growth of the strain for 1HSLMoS2. Finally, we find that the thermal conductivity of same sized 1H-SLMoS2 is similar with that of the strained 1H-SLMoS2 structure.
This thesis focuses on the cryptanalysis and the design of block ciphers and hash func- tions. The thesis starts with an overview of methods for cryptanalysis of block ciphers which are based on differential cryptanalysis. We explain these concepts and also sev- eral combinations of these attacks. We propose new attacks on reduced versions of ARIA and AES. Furthermore, we analyze the strength of the internal block ciphers of hash functions. We propose the first attacks that break the internal block ciphers of Tiger, HAS-160, and a reduced round version of SHACAL-2. The last part of the thesis is concerned with the analysis and the design of cryptographic hash functions. We adopt a block cipher attack called slide attack into the scenario of hash function cryptanalysis. We then use this new method to attack different variants of GRINDAHL and RADIOGATUN. Finally, we propose a new hash function called TWISTER which was designed and pro- posed for the SHA-3 competition. TWISTER was accepted for round one of this com- petition. Our approach follows a new strategy to design a cryptographic hash function. We also describe several attacks on TWISTER and discuss the security issues concern- ing these attack on TWISTER.
Cultural Heritage on Mobile Devices: Building Guidelines for UNESCO World Heritage Sites' Apps
(2021)
Technological improvements and access provide a fertile scenario for creating and developing mobile applications (apps). This scenario results in a myriad of Apps providing information regarding touristic destinations, including those with a cultural profile, such as those dedicated to UNESCO World Heritage Sites (WHS). However, not all of the Apps have the same efficiency. In order to have a successful app, its development must consider usability aspects and features aligned with reliable content. Despite the guidelines for mobile usability being broadly available, they are generic, and none of them concentrates specifically into cultural heritage places, especially on those placed in an open-air scenario. This research aims to fulfil this literature gap and discusses how to adequate and develop specific guidelines for a better outdoor WHS experience. It uses an empirical approach applied to an open-air WHS city: Weimar and its Bauhaus and Classical Weimar sites. In order to build a new set of guidelines applied for open-air WHS, this research used a systematic approach to compare literature-based guidelines to industry-based ones (based on affordances), extracted from the available Apps dedicated to WHS set in Germany. The instructions compiled from both sources have been comparatively tested by using two built prototypes from the distinctive guidelines, creating a set of recommendations collecting the best approach from both sources, plus suggesting new ones the evaluation.
This thesis explores how cultural heritage plays a role in the development of urban identity by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architectural heritage is a medium where specific cultural and social decisions form its way of presentation, and it reflects the values and interests of the period. By the process of remembering and forgetting, the meanings between inhabitant and object in urban environment are practiced, and the meanings are created.
To enable the research in narrative observation, cultural tourism management is chosen as the main research object, which reflects the alteration of interaction between the architectural heritage and urban identity. Identifying the role of heritage management, the definition of social resilience and the prospects of cultural heritage as a means of social resilience are addressed. Case region of the research is East Ger- many, thereby, the study examines the distinct approaches and objectives regarding heritage management under the different political systems along the German reunification process.
The framework is based on various theoretical paradigms to investigate the broad research questions: 1) What is the role of historic urban quarters in the revitalisation of East German towns? 2) How was the transition processed by cultural heritage management? 3) How did policy affect residents’ lives?
The case study is applied to macro level (city level: Gotha and Eisenach) and micro level study (object level: specific heritage sites), to analyse the performance of selective remembering and making tourist destination through giving significance to specific heritage. By means of site observations, archival research, qualitative inter- views, photographs, and discourse analysis on printed tourism materials, the study demonstrates that certain sites and characteristics of the city enable creating and focusing messages, which aids the social resilience.
Combining theory and empirical studies this thesis attempts to widen the academic discussion regarding the practice of remembering and forgetting driven by cultural heritage. The thesis argues for cultural heritage tourism as an element of social resilience and one that embraces the historic and cultural identity of the inhabitants.
This dissertation is devoted to the theoretical development and experimental laboratory verification of a new damage localization method: The state projection estimation error (SP2E). This method is based on the subspace identification of mechanical structures, Krein space based H-infinity estimation and oblique projections. To explain method SP2E, several theories are discussed and laboratory experiments have been conducted and analysed.
A fundamental approach of structural dynamics is outlined first by explaining mechanical systems based on first principles. Following that, a fundamentally different approach, subspace identification, is comprehensively explained. While both theories, first principle and subspace identification based mechanical systems, may be seen as widespread methods, barely known and new techniques follow up. Therefore, the indefinite quadratic estimation theory is explained. Based on a Popov function approach, this leads to the Krein space based H-infinity theory. Subsequently, a new method for damage identification, namely SP2E, is proposed. Here, the introduction of a difference process, the analysis by its average process power and the application of oblique projections is discussed in depth.
Finally, the new method is verified in laboratory experiments. Therefore, the identification of a laboratory structure at Leipzig University of Applied Sciences is elaborated. Then structural alterations are experimentally applied, which were localized by SP2E afterwards. In the end four experimental sensitivity studies are shown and discussed. For each measurement series the structural alteration was increased, which was successfully tracked by SP2E. The experimental results are plausible and in accordance with the developed theories. By repeating these experiments, the applicability of SP2E for damage localization is experimentally proven.
The main objective of the present work is to establish a link between the scientific fields of engineering seismology and structural engineering. Substantially it deals with the application and enhancements of methods coming from engineering seismology as well as their junctions to the fields of structural engineering respectively earthquake engineering. Based on real occurred earthquake damage inflicted to multistoried reinforced-concrete frame buildings, the influence of local site effects on the grade of structural damage is worked out. This relying on comprehensive investigations conducted during numerous field missions of German TaskForce after damaging earthquakes in Venezuela and Türkiye. Instrumental investigations on both the structure and its local subsoil in order to identify the damage potential of seismic ground motion take center stage of the thesis. Thereby it is examined whether or not an estimated seismic demand representative in amplitude level and frequency characteristics is able to cause structural damage considering the vulnerability of the structure itself as well as the local site and subsoil conditions. Investigations are concentrated on selected RC frame structures with or without masonry infill walls.
Das im Jahre 2003 verabschiedete und 2006 in Kraft getretene UNESCO-Übereinkommen zur Bewahrung des immateriellen Kulturerbes erweitert das Kulturverständnis von gebautem Kulturerbe gemäß der Konvention aus dem Jahre 1972 durch gelebtes Kulturerbe. Die Dissertation zeigt beispielhaft, wie sich Bürger einer Stadt und einer Region mit ihrer historischen Vergangenheit befassen und dass es lohnenswert ist, sich mit ihrem ererbten immateriellen Kulturerbe auseinander zu setzen. Sie bezeugt, dass eine moderne populäre Kultur die Pflege des immateriellen Kulturerbes voranbringt, dass personalisierte und vergesellschaftete Individuen die Sorge um den drohenden Kulturverlust ernst nehmen und diesem aktiv, eigenständig und unpolitisch entgegen treten. Ausgehend von der wertphilosophischen und kulturtheoretischen Annäherung werden im zweiten und dritten Kapitel beispielhaft die Ur-Inszenierung im Jahre 1475 und die Re-Inszenierung im 21. Jahrhundert gegenübergestellt. Die Ergebnisse aus der Untersuchung werden im vierten Kapitel diskutiert. An Hand der Promotionsschrift wird versucht, Antworten auf folgende Fragen zu finden: - Hat die Re-Inszenierung der „Landshuter Fürstenhochzeit 1475“ des 21. Jahrhunderts das Potential eines immateriellen Kulturerbes? - Kann sie den negativen Begleiterscheinungen des Generations- wechsels und der Globalisierung entgegentreten? - Ist sie eine zeitgenössische Transformationsmethode von (Denkmal)Werten? - Was sind die Schutzkomponenten? - Trägt die Re-Inszenierung zu der kulturellen Identität einer Stadt an authentischem Ort bei und hat sie Einfluss auf die Gestaltung der baulich-räumlichen Umwelt?
Die Arbeit „Das Bild der Zwischenstadt“ sucht nach Möglichkeiten zur Qualifizierung der verstädterten Landschaft, für die Thomas Sieverts den Begriff „Zwischenstadt“ geprägt hat. Die Auseinandersetzung mit „räumlicher Identität“ steht dabei im Mittelpunkt: In deren Dekodierung und Inszenierung wird ein Potenzial erkannt, die Aufenthalts- und Erlebnisqualität der Zwischenstadt zu verbessern. Der Betrachtungsraum der Arbeit zwischen Frankfurt am Main und seinen prosperierenden Umlandgemeinden eignet sich in besonderer Weise, die „Anatomie der Zwischenstadt“ zu dekodieren. Schicht für Schicht wird der Versuch unternommen, die eigene Sprache dieses Raumes zu entziffern. Dabei werden Methoden der Beschreibung und Darstellung entwickelt, die den spezifischen räumlichen Eigenschaft der Zwischenstadt gerecht zu werden suchen. Die Ergebnisse dieser Auseinandersetzung lassen deutliche Transformationen in der Zwischenstadt erkennen und entheben sie aus ihrer vermeintlichen Eigenschaftslosigkeit. Orte mit Bedeutung, Zusammenhänge und Raumgeschichten werden lesbar, es zeigen sich Ansätze eigener Urbanität und Zentralität. Die Zwischenstadt hat sich von ihrer einseitigen Dependenz zur Kernstadt gelöst, tritt aber gleichzeitig in einen umfassenden Wandel, um sich geänderten Lebensformen und Bedürfnissen anzupassen. Ältere, den Raum prägende Einfamilienhausgebiete und Großsiedlungen, aber auch monofunktionale Gewerbegebiete und die typischen suburbanen Einkaufszentren erfüllen keineswegs mehr automatisch die Wohnwünsche und Anforderungen einer Dienstleistungs- und Freizeitgesellschaft. Die Arbeit greift die unverkennbare Transformation des Bildes der Zwischenstadt als Chance zur Qualifizierung dieses Raumes auf. Entwickelt werden Qualifizierungsmodelle, die der Tendenz zu Segregation und Abtrennung mit einer neuen Integrationskultur für die Zwischenstadt begegnen: Als prägender Lebensraum der Stadtregion muss die Zwischenstadt einen großen Teil der Bedürfnisse Ihrer Bewohner und Benutzer an den Raum befriedigen. Zunehmend sind diese Bedürfnisse nicht nur funktioneller Art, sondern werden überlagert von einem Bedürfnis nach Raumqualität, Verortung und Identifikationsmöglichkeiten. Für diese Bedürfnisse angemessene und auratische Raumbilder zu finden oder zu inszenieren, ist im Angesicht des Status Quo der Stadtlandschaft eine wichtige Herausforderung.
Die elektronische Virtualisierung von Baudenkmalen ist neues, außergewöhnlich vielfältiges medientechnisches Phänomen; es beschreibt die ursprüngliche Form substanziell-realer Baudenkmale, transformiert sie von einer abstrakten Beschreibung in Wort und Bild in eine immaterielle Realität. Die Dissertation versucht Antworten zu geben auf folgende Fragen: Ist die elektronische Virtualisierung eine Methode der Stimulation der Öffentlichkeit im Umgang mit Baudenkmalen? Ist das elektronisch virtualisierte Baudenkmal ein immaterielles Zeugnis der Kulturgeschichte in der Zukunft? Ist das substanziell-reale und das virtualisierte Baudenkmal uneingeschränkt gegenseitig austauschbar, ist ersteres durch letzteres ersetzbar? Die Beantwortung der Fragen hängt ab von den Stufen der Perfektion der elektronischen Virtualsierung von Baudenkmalen.
Bei der Produktion von Betonsteinen mit vollautomatischen Steinformmaschinen ist das Füllen der Form mit Betongemenge die erste Phase des Formgebungs- und Verdichtungsprozesses. Trotz langjähriger praktischer Erfahrungen mit Steinformmaschinen wird der Formgebungs- und Verdichtungsprozess nicht ausreichend stabil beherrscht. Im industriellen Routinebetrieb erweist sich insbesondere die Realisierung einer gleichmäßigen Füllung als das primäre Problem. Die in dieser Phase entstehenden Defizite beeinflussen direkt die Qualität der zu erzeugenden Betonsteine. Eine Kompensation dieser Mängel ist mit den nachfolgenden Prozessphasen nicht mehr möglich. Die Zielstellung der vorliegenden Arbeit ist es, ausgehend von einer systematischen Analyse des Formgebungs- und Verdichtungsprozesses im Allgemeinen und der Analyse des Füllvorganges im Besonderen, die tatsächlich an Steinformmaschinen erreichbare Füllungsgüte zu ermitteln, Einflüsse auf die erreichte Füllungsgüte und deren Wechsel-beziehungen zu untersuchen sowie ein Modell zur Beschreibung und Simulation des Füllvorganges zu entwickeln und zu verifizieren. Als wesentliche Voraussetzung für eine systematische Analyse der Füllstufe(n), wird eine Methode zur Berechnung und Bewertung der Füllungsgüte entwickelt. Grundlage der Methode bildet dabei die systematische Erfassung der Steinmassen mi von vollständigen, aufeinander folgend gefertigten Einheiten. Entsprechend der Lage innerhalb der Form und der Folge der gefertigten Einheiten werden die Massen als quantitatives stetiges Merkmal der zu untersuchenden Grundgesamtheit in eine Urliste editiert und für die weitere Auswertung genutzt. Unter Anwendung der entwickelten Methode zur Berechnung und Bewertung der Füllungsgüte wird das tatsächlich im industriellen Routinebetrieb erreichbare Niveau analysiert. Dafür werden in einem erstmals durchgeführten, umfangreichen Feldversuch an elf Steinformmaschinen in Deutschland und der Schweiz die erreichten Füllungsgüten erfasst, die Prozessabläufe dokumentiert und die Wechselbeziehungen zwischen den eingefüllten Massen mi und den Einflussgrößen mit Hilfe der Varianzanalyse nach Variationsursache untersucht. Darüber hinaus werden ausgewählte Festbeton-eigenschaften der Proben bestimmt und deren Korrelation zu den jeweils erreichten Massen mi mit Hilfe der empirischen Regression analysiert. Basierend auf den systematischen Prozessbeobachtungen im industriellen Routinebetrieb wird unter Berücksichtigung der Füllwagenkinematik, des Gemengefüllstandes im Füllwagen und der sukzessiven Übergabe diskreter Massen in die Formzellen ein phänomenologisches Modell zur Beschreibung der ersten Füllstufe entwickelt. Das Bewegungsverhalten des Füllwagens und das Fließverhalten des zu verarbeitenden Betongemenges werden dabei zunächst stark vereinfacht dargestellt. Unter Berücksichtigung der zeilenabhängigen Überdeckungszeit und des Füllstandes im Füllwagen werden koordinatenabhängige Druckprofile im Füllraum, so genannte Zellendruck-Zeit-Funktionen, entwickelt. Als Arbeitshypothese wird formuliert, dass mit diesen Funktionen die unterschiedlichen Bedingungen während des Füllvorgangs im Prozessraum beschrieben werden können und diese Funktionen darüber hinaus mit den im Ergebnis des Vorgangs eingefüllten Massen mi korrelieren. Zur numerischen Nachbildung der ersten Füllstufe bei der Betonsteinherstellung wird die auf der Diskrete-Elemente-Methode basierenden Simulationssoftware Particle Flow Code in 3 Dimensions genutzt. Damit wird es möglich, den Verlauf des Füllprozesses und die sich im Prozessraum ausbildenden Fließprofile durch eine realitätsnahe Computeranimation detailliert und gut einsehbar darzustellen. An Hand der numerisch erzeugten Füllungsgüten wird eine Gegenüberstellung mit den empirischen Ergebnissen möglich. Gleichzeitig erfolgt die Berechnung der Druck-Zeit-Funktionen am Boden aller Formzellen, um kausale Wechselbeziehungen zwischen der Füllaufgabe, der Füllausrüstung und dem Prozessverlauf bzw. dem Prozessergebnis aufzeigen zu können. Zur Verifizierung des der Simulation zu Grunde gelegten Gesamtmodells wird das numerische Experiment an einer speziellen Versuchseinrichtung nachgestellt. Um die Aufnahme der Zellendruck-Zeit-Funktionen während des Füllens vornehmen zu können, ohne dadurch den Füllvorgang zu stören, wird ein eigens für den Verifizierungsversuch entwickelter Drucksensor genutzt. Auf allen Abstraktionsebenen werden die Ergebnisse mit den für den industriellen Routinebetrieb entwickelten Methoden ausgewertet und gegenübergestellt. Mit Hilfe von Varianzanalysen wird die Einflussstärke verschiedener Parameter verglichen. Zur Überprüfung der Arbeitshypothese werden die Zellendruck-Zeit-Funktionen während der numerischen und der realen Experimente aufgenommen und die Korrelationen zu den eingefüllten Massen mi überprüft.
In der vorliegenden Arbeit werden Manifestäußerungen des Design- und Architekturdiskurses im situativen, medialen, institutionellen und historischen Kontext untersucht. Auf Grundlage einer Analyse der Etymologie und der Ideengeschichte des Manifestes wird anhand ausgewählter Beispiele die These belegt, dass das Medium vor allem der gezielten Rezeptionssteuerung im Diskurs dient. Darüber hinaus wird die Fähigkeit und Bedeutung des Manifestes als Spiegel vergangener und gegenwärtiger, aber auch als Wegbereiter zukünftiger Diskurse analysiert und Entwicklungen des Manifestes hinsichtlich Stilistik, Inhalt, Funktion und Bedeutung im Design- und Architekturdiskurs dargestellt.
In der vorliegenden Arbeit werden Manifestäußerungen des Design- und Architekturdiskurses im situativen, medialen, institutionellen und historischen Kontext untersucht. Auf Grundlage einer Analyse der Etymologie und der Ideengeschichte des Manifestes wird anhand ausgewählter Beispiele die These belegt, dass das Medium vor allem der gezielten Rezeptionssteuerung im Diskurs dient. Darüber hinaus wird die Fähigkeit und Bedeutung des Manifestes als Spiegel vergangener und gegenwärtiger, aber auch als Wegbereiter zukünftiger Diskurse analysiert und Entwicklungen des Manifestes hinsichtlich Stilistik, Inhalt, Funktion und Bedeutung im Design- und Architekturdiskurs dargestellt.
Das Pionierlager Artek. Realität und Utopie in der sowjetischen Architektur der sechziger Jahre
(2004)
Das in den 1960er Jahren gebaute, internationale Pionierlager Artek an der Schwarzmeerküste der Krim war das größte Kinderferienlager der Sowjetunion. Als Prestigeobjekt und Vorzeigeinstitution steht Artek für die Architektur der Ära Chruschtschows, des sogenannten „Tauwetters“. Anhand des dialektischen Prinzips von Präsentation und Repräsentation werden vier Aspekte des Lagers untersucht: Architektur, städtebauliche Struktur, Erziehung und Gesamtkunstwerk. Durch dieses Prinzip, das sich aus der Widerspiegelungstheorie ableiten läßt, kann jedem dieser Aspekte die Kongruenz zur ideologischen Zielsetzung und damit die gestalterische Kohärenz der Ferienanlage nachgewiesen werden. In Abgrenzung zur modernen Architektur der westlichen Industrienationen wurde in Artek eine spezifisch „sozialistische Moderne“ für die Sowjetunion und die übrigen Staaten des Ostblocks definiert. Diese war eng verbunden mit dem Städtebau auf der Grundlage von Mikrorayons und der Ausgestaltung von Stadt- und Subzentren. Artek ist mit seiner idealtypischen, architektonischen und städtebaulichen Gestaltung ein Denkmal für die frühere Sowjetunion.
Im Rahmen dieser Arbeit wurden über verschiedene Herstellungsverfahren 48 Gelproben erzeugt und auf ihr Quellverhalten untersucht. Dabei wurde eine Wiederholbarkeit der Messungen mit anderen Bearbeitern überprüft und nachgewiesen. Es zeigt sich in den Quellversuchen, dass hohe Alkaligehalte in den Gelproben bei einer niedrigen Löslichkeit (durch geringe Mengen Calcium in der Probe hervorgerufen) hohe Quelldrücke erzeugen. Ein Einfluss des Natrium-Kalium-Verhältnisses (Alkaliverhältnis) auf das Quellverhalten der Gelproben ist nicht zu erkennen. Der Einfluss des Calciums im Gel zeichnet sich deutlich ab, ohne Calcium bauen die Proben keine Quelldrücke auf, bei zu hohen Calciumgehalten entstehen nicht quellfähige Alkali-Calcium-Silikat-Hydrate. Ein quellfähiger Bereich kann von ca. 5 % bis zu ca. 30 % Calciumanteil im Gel angegeben werden. Neben dem Einfluss des Calciumgehaltes auf das Quellverhalten der Gele ist auch ein Einfluss des Alkali-Silika-Verhältnisses in den Proben nachweisbar. Wird dieses Verhältnis in den Proben stark Richtung Kieselsäure verschoben, d. h. niedrige Alkalianteile im Gel, kommt es zu keinen Quellerscheinungen. Somit kann die Wirkung von AKR-vermeidenden Zusätzen (FA, Silika usw.) mit diesen Messungen bestätigt werden. Es kann gezeigt werden, dass die ermittelten Quelldrücke eines Alkalikiesel-Gels ein Gesteinskorn oder/und die umgebende Matrix zerstören können. Aus diesen oben genannten Erkenntnissen wird ein Bereich einer quellfähigen Zusammensetzung eines Gels in einem Dreistoffdiagramm angegeben und es können folgende Schlussfolgerungen gezogen werden: •Ein Quelldruck kann in einem AK-Gel nur bei einer bestimmten Menge an eingebautem Calcium aufgebaut werden. •Diese Quelldrücke können deutlich Werte über 10 N/mm² erreichen. •Die im Beton verwendeten Gesteinskörnungen und auch die sie umschließende Mörtelmatrix können mit Quelldrücken in den hier bestimmten Größenordnungen zerstört werden. •Die bekannten Modelle zur Alkali-Kieselsäure-Reaktion müssen um den Einbau des Calciums in ein entstandenes AK-Gel erweitert werden.
Ausgangspunkt der Arbeit ist der Aspekt des Unheimlichen in jener Hochhausstadt, deren Entwurf Ludwig Hilberseimer 1924 zum ersten Mal publizierte und die später zum Synonym für die Aberrationen modernistischen Städtebaus wurde. Daraus geht die Forschungsfrage hervor, wie der Eindruck des Unheimlichen evoziert wird und an welchen Elementen des Entwurfs und/oder der Darstellung dieser festgemacht werden kann. Hier geht es nicht um eine Analyse der Intentionen des Autors der Hochhausstadt, der diese ja als Verbesserung zu den herrschenden Wohnverhältnissen anpries; stattdessen wird eine Reihe von unterschiedlichen interpretatorischen Ansätzen gewählt (von Nelson Goodmans Theorie der Notation über Norman Brysons visuelles Zeichensystem bis hin zu Adornos Negativer Dialektik; von der „Bildwissenschaft“ bis hin zur „visual theory“). In diesem Zusammenhang werden schließlich auch jene Divergenzen herausgearbeitet, die zwischen der Architektur der Moderne und der Kunst der Avantgarde herrschten. Da aufgrund der Frage nach der Bildwirkung der beiden Perspektiven der Hochhausstadt die Ästhetik des Erhabenen eine besondere Rolle spielt, reicht der Fokus der Arbeit bis in den kunst- und architekturtheoretischen Diskurs des 18. Jahrhundert zurück. Zuletzt mündet die Arbeit in eine Diskussion von Interpretation selbst und der Möglichkeit einer kritischen Architekturtheorie.
Objektorientierte Bauwerksmodelle sind derzeit Gegenstand umfangreicher Foschungsaktivitäten zur rechnerinternen Verwaltung bauwerksbezogener Informationen. Ein in diesem Rahmen diskutierter Ansatz ist die Realisierung eines virtuellen rechnerinternen Bauwerks in Form eines variablen Verbundes fachspezifischer objektorientierter Modelle. Diese Organisationsform der rechnerinternen Repräsentation eignet sich einerseits aufgrund ihrer Flexibilität sehr gut für eine lebensphasenübergreifende Fortschreibung als digitale Bauwerksakte. Eine solche Bauwerksakte bildet eine wichtige Informationsgrundlage für die Planung von Instandhaltungs-, Modernisierungs-, \Umbau- oder Erweiterungsmaßnahmen in späteren Lebensphasen des Bauwerks. Andererseits erschwert die dezentrale Organisationsform des Modellverbundes jedoch die Informationssuche, was in erster Linie durch das Vorhandensein multipler Repräsentationen einzelner Realweltobjekte sowie die Komplexität der am Verbund beteiligten Modellschemata bedingt ist. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines generischen Systemkerns als Basis für eine projektbezogen konfigurierbare Informationsumgebung, die insbesondere in frühen Projektphasen einen handhabbaren Zugang zu den im Modellverbund verwalteten Informationen bereitstellen kann. Der vorgeschlagene Lösungsansatz erweitert den Modellverbund um eine Erschließungsstruktur, in der die einzelnen Elemente der individuellen baulich-räumlichen Struktur durch eindeutige Identifikatoren vertreten werden. Mit den Identifikatoren werden jeweils die fachspezifischen Repräsentationen des Objektes verknüpft und sind somit von einem zentralen Einstiegspunkt aus erreichbar. Der generische Systemkern definiert eine objektorientierte Datenstruktur zur Verwaltung der jeweils projektbezogen auszuprägenden Erschließungsstruktur. Die Interaktion mit dem erschlossenen Informationsraum erfordert eine entsprechende Nutzerschnittstelle, die in der Lage ist, nicht vorhersehbaren, spontan entstehenden Informationsbedarf zu bedienen. Darüber hinaus soll sie konfigurierbar sein bezüglich der unterstützten Suchstrategien. Der Lösungsansatz sieht eine hierarchische Organisationstruktur der Nutzerschnittstelle vor, die eine modulare Erweiterung ermöglicht. Ein entsprechender Kern der Nutzerschnittstelle wird als objektorientiertes Framework spezifiziert. Die Erschließungsstruktur und die Nutzerschnittstelle werden unter Anwendung des objektorientierten Paradigmas entwickelt und mit Hilfe einer formalen Notation auf implementierungsunabhängiger Ebene beschrieben. Anhand exemplarischer Umsetzungen kritischer Systemteile wird die prinzipielle Realisierbarkeit des beschriebenen Systems nachgewiesen.
Das wohltemperierte Netz - Zum Konstruktiven Entwurf direkt verglaster Stabnetze auf Freiformflächen
(2008)
Direkt verglaste Stabnetze repräsentieren ein strukturell und geometrisch hochgradig variables Prinzip zur Realisierung transparenter architektonischer Freiformflächen. Dieses beinhaltet die funktionale Entkopplung der Fassadenkonstruktion in ein tragendes Stabnetz und eine hüllende Verglasung. Ein formal universales, dimensional variables Knotenelement bildet dabei das Herzstück der Konstruktion. Die vorliegende Arbeit widmet sich dem Konstruktiven Entwurf frei geformter, direkt verglaster Stabnetze. Dieser umfasst schwerpunktmäßig die formale und dimensionale Konzeptionierung der Knotenelemente. Er wird maßgeblich beeinflusst von der Dimensionalitätsdifferenz zwischen dem formbeschreibenden Flächennetz aus nulldimensionalen Knoten und eindimensionalen Kanten sowie dem Stabnetz aus dreidimensionalen Knoten bzw. Stäben. Darüber hinaus definieren das freiformbedingte Erfordernis einer unikaten Ausrichtung der Stabnetzelemente sowie die materialspezifische Anforderung einer zwängungsfreien Lagerung der Gläser weitere dominante Einflussgrößen im Entwurfsprozess. In der Arbeit werden zunächst die geometrischen und konstruktiven Randbedingungen des Konstruktiven Stabnetzentwurfs dargestellt. Darauf aufbauend wird ein Zylinder-Achsen- Modell entwickelt, welches die unikate lokale Situation am Knoten unter Berücksichtigung einer variablen Ausrichtung der Stabnetzelemente sowie beliebig polygonaler Stabquerschnitte abstrahiert. Die Modellierung ermöglicht eine Bewertung des knotenbezogenen Status unter konstruktiven und mechanischen Aspekten. Sie bildet somit die Grundlage für eine Konstruktive Optimierung direkt verglaster Stabnetze. Mit Hilfe des Zylinder-Achsen-Modells werden alle bisher bekannten Prinzipien zur Ausrichtung der Stabnetzelemente analysiert. Dabei offenbaren sich verschiedene Defizite. Zu deren Überwindung werden drei neuartige Lösungsansätze entwickelt. Eine alternative Methode dient folglich zur Bestimmung einer konstruktiv optimierten Ausrichtung der Knotenachse. Ein zweiter Ansatz zielt auf die Definition einer neuartigen Stablängsbezugsachse, welche unabhängig von der Flächenkrümmung eine zwängungsfreie Lagerung der Glaselemente gewährleistet. Schließlich ermöglicht das dritte innovative Prinzip die konsistente Bestimmung einer Stabquerachse auch bei nicht ebenen Viereckmaschen.
In contemporary society, data representation is an important and essential part of many aspects of our daily lives. This thesis aims to contribute to our understanding on how people experience data and what role representational modality plays in the process of perception and interpretation. This research is grounded in phenomenology - I align my theoretical exploration to ideas and concepts from philosophical phenomenology, while also respecting the essence of a phenomenological approach in the choice and application of methods. Alongside offering a rich description of people’s experience of data representation, the key contributions I claim transcend four areas: theory, methods, design, and empirical findings. From a theoretical perspective, besides describing a phenomenology of human-data relations, I define, for the first time, multisensory data representation and establish a design space for the study of this class of representation. In relation to methodologies, I describe and deploy two methods to investigate different aspects of data experience. I blend the Repertory Grid technique with a focus group session and show how this adaption can be used to elicit rich design relevant insight. I also introduce the Elicitation Interview technique as a method for gathering detailed and precise accounts of human experience. Furthermore, I describe for the first time, how this technique can be used to elicit accounts of experience with data. My contribution to design relates to the creation of a series of bespoke data-driven artefacts, as well as describing an approach to design that I call Design Probes, which allows researchers to focus their enquiry on specific design features. To answer the research questions I set out in this thesis, I report on a series of empirical studies that used the aforementioned methods. The findings of these studies show, for instance, how certain representational modalities cause us to have heightened awareness of our body, some are more difficult to interpret than others, some rely heavily on instinct and each of them solicit us to reference external events during the process of interpretation. I conclude that a phenomenology of human-data relations show how representational modality affects the way we experience data, it also shows how this experience unfolds and it offers insight into particular moments such as the formation of meaning.
The planning process in civil engineering is highly complex and not manageable in its entirety.
The state of the art decomposes complex tasks into smaller, manageable sub-tasks. Due to the close interrelatedness of the sub-tasks, it is essential to couple them. However, from a software engineering point of view, this is quite challenging to do because of the numerous incompatible software applications on the market. This study is concerned with two main objectives: The first is the generic formulation of coupling strategies in order to support engineers in the implementation and selection of adequate coupling strategies. This has been achieved by the use of a coupling pattern language combined with a four-layered, metamodel architecture, whose applicability has been performed on a real coupling scenario. The second one is the quality assessment of coupled software. This has been developed based on the evaluated schema mapping. This approach has been described using mathematical expressions derived from the set theory and graph theory by taking the various mapping patterns into account. Moreover, the coupling quality has been evaluated within the formalization process by considering the uncertainties that arise during mapping and has resulted in global quality values, which can be used by the user to assess the exchange. Finally, the applicability of the proposed approach has been shown using an engineering case study.
Datenmodelle zur Bearbeitung von Ingenieuraufgaben am Beispiel von Wohnhäusern in Stahlbauweise
(2006)
Modelle bilden die Grundlage der Planung. Sie repräsentieren die zur Bearbeitung erforderlichen Eigenschaften eines Bauwerks in einer an die spezifische Aufgabe angepassten Form. Zwischen den verschiedenen zur Abbildung des Bauwerks eingesetzten Modellen bestehen fachliche Zusammenhänge bezüglich der darin abgebildeten Aspekte. Diese Abhängigkeiten werden in der praktischen Planungsbearbeitung gegenwärtig auf Grundlage von Erfahrungswerten, normativen Vorgaben und vereinfachenden Annahmen berücksichtigt. Die detailliertere Modellierung von Bauwerkseigenschaften führt zu einer engeren Verzahnung der verschiedenen Modelle. Um eine fachliche Inselbildung zu vermeiden, ist eine entsprechend angepasste Abbildung der zwischen den einzelnen Modellen bestehenden Beziehungen erforderlich. Mit den steigenden Ansprüchen an eine Bearbeitung von Ingenieuraufgaben gewinnt eine über den Zweck der Bereitstellung ausgewählter Informationen zum Bauwerk und der Unterstützung eines Datenaustauschs zwischen verschiedenen Fachplanern hinausgehende datentechnische Abbildung an Bedeutung. Dies setzt eine Diskussion der Anforderungen an eine solche Beschreibung aus fachlicher Sicht voraus. Die Untersuchung der fachlichen Anforderungen wird am Beispiel von Wohnhäusern in Stahlbauweise geführt.
Die interdisziplinäre Dissertationsschrift lässt sich im Horizont internationaler Forschungen zu Denkmalwerten, neuer Ansätze in der Kultur- und Wissensvermittlung rund um Baudenkmale sowie künstlerisch- ethnographischem Forschen an und mit Denkmalen verorten.
Der erste Teil der Arbeit widmet sich Denkmalen und der Denkmalpflege im Kontext künstlerischer und sozialwissenschaftlicher Allianzen. Ausgangspunkt ist die Feststellung, dass die Denkmalpflege zwar sehr vieles über Denkmale weiß, aber kaum etwas über deren Rezeption beim breiten Publikum. Im Mittelpunkt steht die Frage, wie hier Praktiken der bildenden Kunst und Arbeitsweisen der Kulturanthropologie die Disziplin der Denkmalpflege bereichern können, oder sogar müssen.
Den zweiten Teil bildet eine empirische Studie, in der die populäre Wahrnehmung von Denkmalen qualitativ erforscht wird. Das Schloss und Rittergut Bedheim im südlichen ländlichen Thüringen dient dabei als konkreter Untersuchungsort. Reaktionen von Besucherinnen und Besuchern werden mit Hilfe von drei künstlerischen Eingriffen angeregt und diese dann ethnographisch-offen dokumentiert und ausgewertet.
Auf dieser Basis werden Zugänge zum Denkmal ermittelt. Während die meisten BesucherInnen das Denkmal als „Arbeit“ wahrnehmen, geraten einige ins „Träumen“ oder „Erinnern“, man „genießt“ das Ensemble als authentische und ästhetische Ressource, oder findet Zugang über das spontane „Erklären“ baukonstruktiver oder baulicher Situationen. Für andere bedeutet der Besuch die „Teilhabe“ an einem Prozess. Schloss Bedheim wird als Ort stetiger Veränderung geschätzt. In der Wahrnehmung der BesucherInnen verquicken sich Aspekte des Bewunderns mit solchen des Abgrenzens. Die eigene Alltagswelt und das eigene Zuhause bilden hierbei Bezugspunkte. Schloss Bedheim wird auf diese Weise zum Imaginationsraum, zur Energietankstelle und zur gern besuchten Problemwelt.
Die Ergebnisse der Arbeit liegen in zwei Erkenntnisfeldern: Auf einer methodischen Ebene zeigt sie, wie in der Denkmalpflege vertiefte Fachlichkeit mit einer tatsächlichen Kontaktaufnahme mit dem Publikum verbunden werden kann und damit soziale Gefüge an Baudenkmalen qualitativ ermittelt werden können. Ebenso wird deutlich, dass künstlerische Eingriffe Auslöser von Gesprächen sind, als Kontaktflächen zur Alltagswelt dienen und so zu einer vielfältigen Auseinandersetzung mit Denkmalen führen.
Auf einer inhaltlichen Ebene liefert die Arbeit Erkenntnisse zu Wahrnehmungsweisen von Denkmalen. Neben den erwähnten Zugängen, wird die Existenz und Bedeutung einer regional vernetzten Wahrnehmung von Denkmalen aufgedeckt. Des Weiteren zeigen die Ergebnisse, dass das Öffnen von Baudenkmalen als und im Prozess ungenutzte Potentiale birgt und es wird angeregt, dies in zukünftigen denkmalpflegerischen Konzepten eine größere Rolle spielen zu lassen. Die Vision eines „Kompendiums der Zugänge“ wird entwickelt, mit dessen Hilfe sich ein enormes Wissen über Rollen und Bedeutungen die Baudenkmale in unserer Gesellschaft spielen, sammeln ließe.
In dieser Arbeit werden die Ergebnisse von experimentellen Untersuchungen an unbewehrten und bewehrten modifizierten Betonen unter monoton steigender Belastung bis zum Bruch, einfacher Kurzzeitbelastung im Grenzbereich der Tragfähigkeit und mehrfach wiederholter Belastung mit kontinuierlicher Be- und Entlastungsgeschwindigkeit vorgestellt und ausgewertet. Für die Modifizierung der Betone wurden zwei grundsätzliche Vorgehens¬weisen angewendet: die Variation der Gesteinskörnung und die Modifizierung der Bindemittelphase mit thermoplastischen Polymeren. Die Auswirkungen der Modifikationen auf die Festigkeitseigenschaften und das Formänderungsverhalten des Betons bei Kurzzeitbelastung waren dabei von besonderem Interesse.
Die beobachteten Veränderungen der Festbetoneigenschaften sowie der nichtlineare Zu-sammenhang zwischen den elastischen und nichtelastischen Verformungsanteilen signali-sieren, dass derartige Modifizierungen das Verformungs- und Bruchverhalten von Beton sig-nifikant beeinflussen und somit beim Nachweis der Tragfähigkeit und Gebrauchstauglichkeit berücksichtigt werden müssen. Neben der Evaluierung des beanspruchungsabhängigen Formänderungsverhaltens werden die etablierten Ansätze zur Beschreibung der Gefügezu-standsbereiche bei Druckbelastung weiter entwickelt, so dass die Übergänge zwischen den Bereichen exakt ermittelt und die Ausprägung der Bereiche quantifiziert werden können. Damit ist ein genauerer Vergleich der durch die Modifizierungen hervorgerufenen Verände-rungen möglich.
Der Erfahrung auf der Spur
(2023)
Dieselbe Zeit, derselbe Raum - zwei, grundverschiedene Regisseure und damit Erfahrungswelten. Aleksandr Rastorguevs und Sergei Loznitsas Dokumentarfilme der 90er und 2000er Jahre sind politische, poetische, punktgenaue Interventionen in die Gegenwart der „kleinen Menschen“. Das Buch widmet sich dokumentarfilmischen Meisterwerken, die methodisch Verdrängtes und Übersehenes, planmäßig Vergessenes sichtbar machen – nach dem Krieg ist vor dem Krieg. Ästhetik in ihrer sozial-, geschichts- und kulturwissenschaftlichen Relevanz.
Im post- und kontrafaktischen Zeitalter des allgegenwärtigen medialen Überflusses, inmitten der Fernseh-, YouTube- und virtuellen Realität, erfüllen, begründen, ermöglichen oder schlichtweg erkämpfen die Filme und ihre Autoren verloren gegangene Räume für Widersprüche, Fragen, die mal in ihrer Ambivalenz, mal in ihrer spröden Eindeutigkeit ihren Aussagewert haben. Wider die marginale Rezeption rückt die Publikation sie in den Raum der interdisziplinären wissenschaftlichen Forschung und stellt sie als gleichwertige Formen der Wissens- und Erfahrungsproduktion vor.
Bei all ihrer Unterschiedlichkeit, katapultieren die Filme den Zuschauer in ebenjene bekannte, aber nicht erkannte, weil nicht gesehene, übersehene, nicht wahrgenommene Hyperrealität ihrer Alltagswirklichkeit. Weder der Autor noch das Werk noch der Zuschauer sind aus dem jeweiligen historischen oder soziopolitischen Diktum herauslösbar oder gar gänzlich frei.
Der architektonische Raum wird als ein Medium der Kommunikation im Kontext der >neuen< Medien begriffen, aus der Erkenntnis, dass er schon immer ein Medium war und aus einer komplexen Medienstruktur in Abhängigkeit von anderen Medien besteht. Im Prozess von Handlung und Kommunikation ist der architektonische Raum das Medium, das räumliche Nähe von Individuen über alle Sinne und das Bewusstsein gleichzeitig intensiv ermöglicht. Der architektonische Raum als immersives Kommunikationsmedium erreicht im Zeitalter der >neuen< Medien eine neue Dimension, indem mehr und andere Wirklichkeitsalternativen der Kommunikation zur Verfügung stehen. N. Luhmann folgend, wird die Architektur aus der Sicht der Form/Medium-Differenz systemtheoretisch als strukturierter Möglichkeitsraum betrachtet. Der Raum ist das Medium für Formen des architektonischen Raumes, in dem Architektur überhaupt erst wirksam wird. Umgekehrt sind die Formen des architektonischen Raumes Medien für die Wahrnehmung einer Vielzahl von räumlichen Wirklichkeiten. Eine Fassade aus Stein oder Glas ist gebaute Form und kann als Medium Information kommunizieren. Medien werden ihrer Bestimmung um so besser gerecht, je mehr sie sich der Aufmerksamkeit entziehen und wie transparente Fenster hinter der Oberfläche der sinnlichen Wahrnehmung zurücktreten. Als >unwahrnehmbares< Medium ist der architektonische Raum damit eine hintergründige >Wirkungsmacht<, eine Bühne für die Entfaltung von Wirkung, Atmosphäre und Bewegung. Seine physische Wirklichkeit war schon immer durch virtuelle Wirklichkeiten oder Realitäten entgrenzt, die durch Techniken und Technologien der Simulation als künstliche Welten wahrnehmbar und kommunizierbar werden. Dies kann an tradierten Beispielen der gotischen Kathedrale, dem Panorama, den panoptischen Räumen, dem Theater, Kino oder den kontinuierlichen Räumen von der Moderne bis heute aufgezeigt weren. Virtuelle Räume gotischer Glasbilder oder barocker Decken- und Wandbilder im Medium des architektonischen Raumes sind uns geläufig. Die Immersion, das Eintauchen in diese virtuellen Wirklichkeitsspären löst die Wahrnehmung der eigenen körperlichen Präsenz in ihnen aus. Das Potential des virtuellen Raumes der Architektur besteht im Vergleich zu anderen virtuellen Realitäten von Text, Bild oder digitalen Medien in seiner Gebundenheit an die physische, räumliche Reizstruktur, der er die Eindringlichkeit und Komplexität seiner Wirkung verdankt. Es werden unterschiedliche Wechselwirkungen und gemeinsame Entwicklungen von zeitgenössischen Beispielen der Architektur mit den >neuen< Medien aufgezeigt. In der »sensitiven Wand« wird die physische Raumgrenze durch die Integration neuer Techniken und Technologien digitaler, elektronischer Medien etwas extrem Flexibles und Formbares in Interaktion mit dem Benutzer. Der H2O Pavillon (Oosterhuis und NOX, 1997) ist ein Beispiel dafür. Der ausgeprägt polysensorische Immersionsraum steht für die Einheit von digitaler und architektonischer Simulation. Die metaphorische Welt von Höhle und Quelle des Thermalbades Vals (P.Zumthor, 1996) ist die räumliche Reflexion auf die metaphorische Struktur virtueller Räume der >neuen< Medien. Die simulierte Wirklichkeit in den Medien Wasser, Stein und architektonischer Raum produziert schöpferisch den polysensorischen immersiven Zugang in die virtuellen Welten >authentischer< physischer Umgebung. Das >Sichtbare< im Medium Raum der Architektur ist ohne das >Unsichtbare< nicht zu begreifen bzw. das sinnlich Wahrnehmbare nicht ohne das Unwahrnehmbare. Das Erkennen dieser Relation von Form und Medium ermöglicht die Formulierung des neuen Begriffes des medialen Raumes der Architektur, der zur Basis für eine Medientheorie der Architektur wird, als Sichtweise der Entgrenzung des physischen Raumes durch den virtuellen Raum für die subjektive Wahrnehmung, Handlung und Kommunikation.
Der Film BERLIN – DIE SINFONIE DER GROSSTADT (1927, Walter Ruttman) gilt bis heute als der Sinfonische Dokumentarfilm schlechthin. Er präsentiert nicht nur die Traditionslinien, die ihre Wurzeln in der neuen Sachlichkeit und den ersten Dokumentarfilmtheorien fanden, sondern auch die künstlerische und filmische Vorstellung von Ruttmann. Um den höchsten Grad an Objektivität in der Realitätsdarstellung zu erreichen, hat dieser Film einerseits treu alle theoretischen und ästhetischen Gedanken der neusachlichen Kunst zum ersten Mal filmisch in einem DOKUMENTARFILM dargestellt. Noch dazu drückt der Berlin-Film seinen kulturellen Beitrag mit ausschliesslich filmischen Mitteln aus, also mit rein visuellen Mitteln, oder anders gesagt mit FILMSPRACHE.
Im Gegensatz zur ersten Ankündigung des Films und der Filmliteratur, die den Film als Dokumentarfilm ansehen, ist er in Wirklichkeit einer der ersten innovativen Musikfilme in seinem historischen Kontext, welcher mit der Montage von Wirklichkeitsabbilden autonome Musik zu interpretieren versucht. Seine sachlichen, dokumentarischen Reportage-Bilder ordnen sich der abstrakten Struktur und dem Taktmaß der Musik unter. Als Folge entsteht laut Ruttmann eine VISUELLE SINFONIE, die eigentlich vielmehr eine Vision von Berlin darstellte, als zukünftige industrielle Musterstadt. Mit anderen Worten ist Berlin in diesem Film eine realistische Illusion, aber keineswegs ein reales Bild. Er bildet ein neues Filmgenre, den KUNSTDOKUMENTARFILM, das den Grundprinzipien des Dokumentarfilms nicht folgt.
Dies unterscheidet ihn aber auch von den KÜNSTLERISCHEN DOKUMENTARFILMEN, die einerseits dem Film BERLIN – DIE SINFONIE DER GROSSTADT zwar formalstilistisch und ästhetisch ähneln. Aber im Gegensatz zu ihm erfüllen diese die elementaren Voraussetzungen für einen Dokumentarfilm. Beispiele dafür sind: DER MANN MIT DER KAMERA (1929, Dsiga Vertov), KOYAANISQATSI (1982,Godfry Reggio) und das Remake BERLIN, SINFONIE EINER GROßSTADT (2002, Thomas Schadt).
BERLIN – DIE SINFONIE DER GROSSTADT von Walter Ruttmann stellt nicht nur ein neues Filmgenre dar, er ist auch eine singuläre Erscheinung in der Filmgeschichte. In diesem Sinne spielte er, laut dem Filmkritiker Helmut Korte, eine entscheidende Rolle in der Weiterentwicklung des absoluten Films „als Musterbeispiel für die Möglichkeiten des künstlerisch-dokumentarischen Films“ (Korte 1991: 76).
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
Seit ihren Anfängen im ausgehenden 19. Jh. ist der brandenburgischen Hausforschung ein Phänomen in der Entwicklung des ländlichen Wohnhauses bekannt, das in der vorliegenden Arbeit als Typenwandel bezeichnet wird: Zahlreiche Landschaften der ehemaligen Kurmark Brandenburg wurden bis in das 18. Jh. hinein von einem giebelständigen Haustyp - dem sogenannten Märkischen Mittelflurhaus - geprägt. Im Verlauf des 18. und 19. jh. wurde dieser von einem traufständigen Haustyp - dem sogenannten Mitteldeutschen Ernhaus - >verdrängt<. Dieser Typenwandel ist wie jeder Wandel einer tradierten Hausform auf einen Komplex verschiedener Faktoren und Einflussgrößen zurückzuführen. Über diese Faktoren und Einflussgrößen bestehen in der bisherigen regionalen Hausforschung folgende Thesen: Zum einen wird angenommen, dass das Vorbild der im Rahmen der friderizianischen Kolonisation seit der Mitte des 18. Jh. zahlreich erbauten, traufständigen Kolonistenhäuser diesen Typenwandel beeinflusst oder ausgelöst habe. Zum anderen seien die baupolizeilichen Vorschriften und der Einfluss der preußischen Landbauschule - vertreten durch das Oberbaudepartement - ein auslösender oder beschleunigender Faktor gewesen. Aufgabe der Untersuchung ist es, diese Thesen anhand eines geeigneten Untersuchungsgebietes zu diskutieren. Als solches eignete sich das Oderbruch insbesondere, weil es das größte zusammenhängende Siedlungsgebiet auf deutscher Seite darstellt, das unter der Regentschaft Friedrichs des Großen kolonisiert wurde, und seine allmähliche Trockenlegung seit der Mitte des 18. Jh. von intensiven obrigkeitlichen Eingriffen begleitet war. Mit der zusätzlichen Abgrenzung der untersuchten Hausformen auf diejenigen der ländlichen Mittelschicht, d.h. auf die Häuser der Bauern, Fischer und Kossäten, basiert die zentrale stratigrafische Untersuchung des Wandlungsprozesses einerseits auf durch die Autorin selbst erarbeiteter Bauforschung am rezenten Hausbestand und andererseits auf der Auswertung umfangreichen Archivmaterials. Der durch zahlreiche Übergangsformen nachweisbare Prozess der Herausbildung des jüngeren Haustyps aus dem älteren Haustyp heraus widerlegt die bisherige Annahme, dass der Typenwandel lediglich eine Grenzverschiebung zwischen den geografischen Verbreitungsgebieten zweier frühneuzeitlicher Haustypen gewesen sei. Die archivalische Überlieferung zur friderizianischen Kolonisation, zum ländlichen Baugeschehen im ausgehenden 18. und beginnenden 19. Jh. sowie zur obrigkeitlichen Reglementierung des >Unterthanenbauwesens< erbringt den eindeutigen Nachweis, dass weder das Vorbild der Kolonistenhäuser noch irgendeine Form der obrigkeitlichen Einflussnahme für den Wandel vom giebelständigen zum traufständigen Haustyp von Bedeutung waren. Vielmehr erweisen sich die Auswirkungen der Agrarreformen auf die bäuerlichen Betriebe als der ausschlaggebende Faktor für den Typenwandel. Die bisher angewandten Begriffe zur Bezeichnung der Haustypen stellen sich im Ergebnis der Untersuchung nicht nur als irreführend sondern falsch heraus. Die Arbeit eröffnet deshalb eine Debatte zur Neudefinition der Typenbegriffe innerhalb der regionalen Hausforschung.
Der Verfasser, in der Zeit von Anfang 1991 bis 1995 in der Industrie- und Handelskammer Erfurt als Geschäftsführer zuständig für die Bereiche Handel, Verkehr, Dienstleistungen, Raumordnung, Stadtentwicklung und Tourismus, bewertet den in Thüringen stattgefundenen wirtschaftlichen Transformationsprozess unter besonderer Beachtung der Einzelhandelsentwicklung. Standort-, Flächen- und Unternehmensstrukturentwicklung werden in einzelnen Entwicklungsetappen klassifiziert und die in den jeweiligen Zeitfenstern eingeflossenen Steuerungsfaktoren auf Bundes-, Landes- und Kommunalebene bewertet unter Bezugnahme auf die vor 1989 vorhandene Handelsstruktur und Zentralörtlichkeit. Die Ausgangslage der Handelsstruktur Thüringens, 10 Jahre nach der Deutschen Einheit, wird verglichen mit den allgemeinen und konkreten Entwicklungstendenzen im Einzelhandel Deutschlands und der weltweit ablaufenden Konzentrationsprozesse. Konkret werden der Einzelhandelsumsatz, die Struktur des Einzelhandels, die Standort- und Flächendynamik mit ihren neueren Betriebsformen wie Factory Outlet Center, Urban Entertainment Center aufgeführt und ihre Auswirkungen auf die Raumstruktur und Stadtentwicklung dargestellt. Neben der Anbieterseite, verkörpert durch die Handelsunternehmen, wird die Konsumentenseite untersucht und das differenzierte Einkaufsverhalten zwischen Ost- und Westdeutschland dargestellt. Die daraus resultierenden Disparitäten in der Handelsstruktur werden diskutiert. Nachfrager- und Anbieterseite haben unterschiedliche Auswirkungen auf die Raumstruktur und Stadtentwicklung. In diesem Zusammenhang werden die Stadt- und Umlandprobleme dargestellt und die raum- und stadtentwicklungspolitischen Leitbilder, wie nachhaltige Raumentwicklung, Europäisches Raumentwicklungskonzept und nachhaltige Stadtentwicklung unter Beachtung ihrer Umsatzstrategien betrachtet und gewertet. Die Wechselbeziehungen zwischen Handelsstruktur und Verkehr werden gesondert dargestellt. Aus den realen Ergebnissen der bisherigen Handelsstrukturentwicklung Thüringens werden Handlungsfelder für Maßnahmen zur Revitalisierung der Städte in Thüringen durch den Einzelhandel aufgezeigt. Der Verfasser schlägt eine aktive Raumordnungs- und Stadtentwicklungspolitik vor, die die Instrumente der Raumordnung mit Mitteln der Wirtschaftsförderung zur effizienten Prozesssteuerung unter Wahrung einer nachhaltigen Raumentwicklung kombiniert, um durch den Einzelhandel die Zentralität der Städte wieder zu erlangen. Dieser Raumentwicklungshandlungsrahmen, bestehend aus den Komponenten Angebotsplanung, Wirtschaftsförderung, Ansiedlungssteuerung und interkommunaler Kooperation ist in der Lage, die künftigen raumrelevanten Anforderungen im Sinne einer Nachhaltigkeit zu beantworten.
Resumen
La pregunta de investigación que guía el trabajo es: ¿cuál es la lógica de reproducción urbana de una ciudad intermedia en el contexto de los territorios possocialista? y ¿por qué referimos a esa lógica en términos de desarrollo urbano posfordista? Lo que se demuestra con esta investigación es cómo la forma particular de entrecruzamiento de territorialidades - estrategias espacializadas de los agentes - y las sinergias que de ellas se derivan con sus respectivas expresiones en el espacio, caracterizan el desarrollo urbano de Weimar.
El objetivo general del trabajo es interpretar el tipo de desarrollo urbano posfordista alcanzado por esta ciudad intermedia, que se configura en relación a su hinterland inmediato como una ciudad-región en una región de ciudades. Los objetivos específicos son: contextualizar geohistóricamente la ciudad-región Weimar, analizar los factores que posibilitan y condicionan el desarrollo urbano, identificar la constelación de agentes sociales que participan en el proceso de governance de la ciudad considerando sus estrategias, e indagar sobre las sinergias territoriales a partir del cruce y convergencia de esas estrategias convertidas en territorialidades.
En el trabajo se aplico una lógica metodológica cualitativa de investigación basada en: relevamiento bibliográfico, lectura de periódicos locales y regionales, observaciones in situ, captación de atmósfera, entrevistas complementadas con estadísticas oficiales y recolección de folletos informativos.
Uno de los principales aportes del trabajo es la definición del concepto de desarrollo urbano posfordista como una modalidad de reproducción urbana en el contexto de relaciones capitalistas de producción caracterizadas por producción flexible, terciarización de servicios públicos, creación de nuevos niveles territoriales de regulación, flexibilización de los mercados de trabajo urbano y precarización de las condiciones de vida. En las últimas décadas se asiste a cambios profundos en las ciudades. Así, es posible hablar de ciudades en transición que ensayan diversidad de modalidades ante los desafíos que implican estos cambios. En efecto, en muchos espacios urbanos comenzaron a suceder procesos de rápida desindustrialización y/o reindustrialización, con lo cual las ciudades han perdido parcialmente su base económica o han debido reestructurarse como un lugar vinculado a la economía de servicios. Incluso en aquellas ciudades que mantuvieron industrias de producción masiva, propias de las llamadas economía fordista, como por ejemplo la industria automotriz, requirieron importantes cambios en sus planificaciones espaciales. De este modo, los cambios en las modalidades de producción y sus impactos socioterritoriales en el contexto de la glocalización permiten observar el paso de una sociedad fordista a una posfordista.
During the previous decades, the upcoming demand for security in the digital world, e.g., the Internet, lead to numerous groundbreaking research topics in the field of cryptography. This thesis focuses on the design and analysis of cryptographic primitives and schemes to be used for authentication of data and communication endpoints, i.e., users. It is structured into three parts, where we present the first freely scalable multi-block-length block-cipher-based compression function (Counter-bDM) in the first part. The presented design is accompanied by a thorough security analysis regarding its preimage and collision security. The second and major part is devoted to password hashing. It is motivated by the large amount of leaked password during the last years and our discovery of side-channel attacks on scrypt – the first modern password scrambler that allowed to parameterize the amount of memory required to compute a password hash. After summarizing which properties we expect from a modern password scrambler, we (1) describe a cache-timing attack on scrypt based on its password-dependent memory-access pattern and (2) outline an additional attack vector – garbage-collector attacks – that exploits optimization which may disregard to overwrite the internally used memory. Based on our observations, we introduce Catena – the first memory-demanding password-scrambling framework that allows a password-independent memory-access pattern for resistance to the aforementioned attacks. Catena was submitted to the Password Hashing Competition (PHC) and, after two years of rigorous analysis, ended up as a finalist gaining special recognition for its agile framework approach and side-channel resistance. We provide six instances of Catena suitable for a variety of applications. We close the second part of this thesis with an overview of modern password scramblers regarding their functional, security, and general properties; supported by a brief analysis of their resistance to garbage-collector attacks. The third part of this thesis is dedicated to the integrity (authenticity of data) of nonce-based authenticated encryption schemes (NAE). We introduce the so-called j-IV-Collision Attack, allowing to obtain an upper bound for an adversary that is provided with a first successful forgery and tries to efficiently compute j additional forgeries for a particular NAE scheme (in short: reforgeability). Additionally, we introduce the corresponding security notion j-INT-CTXT and provide a comparative analysis (regarding j-INT-CTXT security) of the third-round submission to the CAESAR competition and the four classical and widely used NAE schemes CWC, CCM, EAX, and GCM.
This study deals with design for AI/ML systems, more precisely in the industrial AI context based on case studies from the factory automation field. It therefore touches on core concepts from Human-Centered-Design (HCD), User Experience (UX) and Human Computer Interaction (HCI) on one hand, as well as concepts from Artificial Intelligence (AI), Machine Learning (ML) and the impact of technology on the other. The case studies the research is based on are within the industrial AI domain. However, the final outcomes, the findings, solutions, artifacts and so forth, should be transferable to a wider spectrum of domains. The study’s aim is to examine the role of designers in the age of AI and the factors which are relevant, based on the hypothesis that current AI/ML development lacks the human perspective, which means that there are pitfalls and challenges that design can help resolve. The initial literature review revealed that AI/ML are perceived as a new design material that calls for a new design paradigm. Additional research based on qualitative case study research was conducted to gain an overview of the relevant issues and challenges. From this, 17 themes emerged, which together with explorative expert interviews and a structured literature review, were further analyzed to produce the relevant HCD, UX and HCI themes. It became clear that designers need new processes, methods, and tools in the age of AI/ML in combination with not only design, but also data science and business expertise, which is why the proposed solution in this PhD features process modules for design, data science and business collaboration. There are seven process modules and their related activities and dependencies that serve as guidelines for practitioners who want to design intelligence. A unified framework for collecting use case exemplars was created, based on a workshop with different practitioners and researchers from the area of AI/ML to support and enrich the process modules with concrete projects examples.
Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding.
The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes.
In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources.
The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES.
The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack.
Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features.
The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext.
From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption.
The study of memory, architecture, and urban space has been the interest of researchers from the diverse fields around the world due to, the significance of dealing with memories especially after the tragedy of the Second World War. Nations in Europe has chosen not to neglect their past, moreover, overcoming it by strengthening the national identity. An approach was clear in the literature, art, further in the way of rebuilding their cities; that mainly has reflected on the value of urban spaces and their role in narrating the country’s national memory. Thanks to this approach, which has supported the post-war European nations to invite to an act of forgiveness rather than to forget.
On the contrary, memory, in relation to architecture is a form of knowledge has been neglected in Egypt, especially during the previous decades after the declaration of independence from the colonial power, and since 1952 revolution. Recently, a rising debate about Egypt national history and the need to renationalize the Egyptian historical consciousness has rapidly grown up, due to the political transformation has occurred because of the 25th uprising, 2011, which unveiled the power of public spaces in constituting the nation thoughts, especially Tahrir square. At the same time, this has unveiled the results of neglecting the past instead of overcoming it; unveiled a present carries the danger of conflict and repeating previous mistakes.
Researchers, historians, politicians, governmental organization, have worked in the purpose of revisiting the historical information, and have tried to document the current transformation of the 25th uprising. There was a public demand for redesigning Tahrir square to reflect the memory of the uprising as a symbol of the power of the public. However, after eight years, those memories have faded as if the 25th uprising has never happened.
Those circumstances are very relevant to the gap between urban design and the art of memory-work, in the scientific field. Few studies in Egypt conducted the concept of memory in relation to urban spaces, however, the matter requires more attention, to associate the need for renationalizing Egypt memory, with viewing urban space as a mean of narrating the country’s national memory and reflecting the citizens' current thoughts, as a try of nearing the distances between competing narratives.
Therefore, the research aims at developing a methodological framework that should contribute to renationalizing memory through urban space. Further, benefiting from the German experience by investigating lessons to learn. That is based on the hypothesis that, although there is no fixed formula for all countries to renationalize the historical consciousness of memory through urban spaces, lessons to be learned from Germany experience could be a driving dimension when designing Egyptian urban spaces with a concept of memory as an essential factor.
To guide the validity of the study’s hypothesis, a set of research questions are thus formulated: Starting from why memory is an essential factor when designing urban spaces? Regarding Egypt national memory, how it was constituted through history and how to read its representation on urban spaces? Also, the study quests the means of nationalizing memory through urban spaces? And What are the learned lessons from the German experience?
The study tries to answer those questions. Via an inductive analytical methodology which moves from the gap of knowledge and from a particular situation in Egypt, to study the German experience in renationalizing the concept of memory through urban spaces.
Within the scope of the study, exploring Egypt prevailing narratives and the inherited concepts which influenced the national memory is essential. Moreover, the research develops analytical political psychosocial model that could help reading memories in urban spaces, memory’s actors, and memory influences. To validate this model, case studies are analysed in light of the concluded aspects. Consequently, the expected result is to infer broad general learned lessons for the Egyptian case.
Research findings and conclusions answer the research questions, interpret literature review, recommend some guide points to three target groups: first, practice field; to encourage designers to value the national and collective memories when designing urban spaces. Second, to ask policymakers to take the public participation into consideration, when taking decisions related to urban development. Third, the thesis recommends future researches of urban memory that connect theoretical information with the practice field.
Finally, enhancing the memory-work in relation to the national narrative, conveying a meaningful message, when designing urban spaces could encourage citizens to learn, to interact, and to dissolve boundaries between the competing narratives in post-conflict societies.
Development of a Sustainability-based Sanitation Planning Tool (SusTA) for Developing Countries
(2014)
Background and Research Goal
Despite all the efforts in the sanitation sector, it is acknowledged that the world is not on track to meet the MDG sanitation target to reduce the number of people without access to sanitation by 2015. Furthermore, a large number of existing sanitation facilities in developing countries is out of order. This leads to the conclusion that, besides technical failures, the planning process in the sanitation sector was ineffective. This ineffectiveness may be attributed to the lack of knowledge of the sanitation planners about the local conditions of the sanitation project. In addition, sustainability of a technology is often approached from a fragmented perspective that often leads to an unsustainable solution.
The dissertation is conducted within the framework of the Integrated Water Resources Management (IWRM) Indonesia project. The goal of this work is to contribute to the development of a methodology of a planning tool for sustainable sanitation technology. The tool is designed for sanitation planners in developing countries, where a top-down planning approach is common practice. The proposed tool enables comprehensive sustainability assessments (using the Helmholtz Concept of Sustainability as reference), taking into account local conditions.
State of the Science
In the planning practice, many sanitation planning tools focus on technology selection. However, it has become evident that the selection criteria for sustainable technologies are not always considered in the tools’ framework. In other cases, when the criteria are provided by the tool, there is no clear indication of the conditions to be fulfilled in order to meet these criteria. Specifically, there is no reference to what is meant by sustainable technology in a particular context and how to comprehensively assess the sustainability of different technology options.
Research Methodology
Developing a planning tool is an empirical process, combining theory and practical experience. Hence, the development process of such a tool requires extensive observations, particularly on the interaction between stakeholders in the sanitation sector as well as between technology and its environment. For this purpose, a case study within the project area was carried out. Pucanganom, a village representing common strategic problems in developing countries (e.g. top-down planning approaches, lack of involvement of beneficiaries in the planning process, lack of sustainability assessments) was finally selected as the case study area. After the in-depth case study, an analytical generalisation was developed to enable the tool’s application to a broader context.
Results
The result of this research is a new tool – the Sustainability-based Sanitation Planning Tool (SusTA). SusTA enables comprehensive sustainability assessment in its five generic steps, namely: (1) analysis of stakeholders and sanitation policy in the region, (2) distance-to-target analysis on sanitation conditions in the region, (3) examination of physical and socio-economic conditions in the project area, (4) contextualisation of the technology assessment process in the project area, and (5) sustainability-oriented technology assessment at the project level. These steps are conducted at two levels of planning – the region and the project area – in order to identify the specific problems and interests which influence the selection of a sanitation system. Each planning step is equipped with tool elements (e.g. set of indicators, household questionnaires, technology assessment matrices) to support the analysis.
From the development of SusTA, it can be concluded that four elements are required for an effective and widely applicable sanitation planning tool: sustainability concept, participatory approach, contextualisation framework and modification framework. SusTA provides both a theoretical and a practical basis for assessing the sustainability of sanitation technologies in developing countries. The tool’s main advantages for decision makers in these countries are: It is simple and transparent in its steps, does not require vast amounts of data and does not need a sophisticated computer program.
The world society faces a huge challenge to implement the human right of “access to sanitation”. More and more it is accepted that the conventional approach towards providing sanitation services is not suitable to solve this problem. This dissertation examines the possibility to enhance “access to sanitation” for people who are living in areas with underdeveloped water and wastewater infrastructure systems. The idea hereby is to follow an integrated approach for sanitation, which allows for a mutual completion of existing infrastructure with resource-based sanitation systems.
The notion “integrated sanitation system (iSaS)” is defined in this work and guiding principles for iSaS are formulated. Further on the implementation of iSaS is assessed at the example of a case study in the city of Darkhan in Mongolia. More than half of Mongolia’s population live in settlements where yurts (tents of Nomadic people) are predominant. In these settlements (or “ger areas”) sanitation systems are not existent and the hygienic situation is precarious.
An iSaS has been developed for the ger areas in Darkhan and tested over more than two years. Further on a software-based model has been developed with the goal to describe and assess different variations of the iSaS. The results of the assessment of material-flows, monetary-flows and communication-flows within the iSaS are presented in this dissertation. The iSaS model is adaptable and transferable to the socio-economic conditions in other regions and climate zones.
Isogeometric analysis (IGA) is a numerical method for solving partial differential equations (PDEs), which was introduced with the aim of integrating finite element analysis with computer-aided design systems. The main idea of the method is to use the same spline basis functions which describe the geometry in CAD systems for the approximation of solution fields in the finite element method (FEM). Originally, NURBS which is a standard technology employed in CAD systems was adopted as basis functions in IGA but there were several variants of IGA using other technologies such as T-splines, PHT splines, and subdivision surfaces as basis functions. In general, IGA offers two key advantages over classical FEM: (i) by describing the CAD geometry exactly using smooth, high-order spline functions, the mesh generation process is simplified and the interoperability between CAD and FEM is improved, (ii) IGA can be viewed as a high-order finite element method which offers basis functions with high inter-element continuity and therefore can provide a primal variational formulation of high-order PDEs in a straightforward fashion. The main goal of this thesis is to further advance isogeometric analysis by exploiting these major advantages, namely precise geometric modeling and the use of smooth high-order splines as basis functions, and develop robust computational methods for problems with complex geometry and/or complex multi-physics.
As the first contribution of this thesis, we leverage the precise geometric modeling of isogeometric analysis and propose a new method for its coupling with meshfree discretizations. We exploit the strengths of both methods by using IGA to provide a smooth, geometrically-exact surface discretization of the problem domain boundary, while the Reproducing Kernel Particle Method (RKPM) discretization is used to provide the volumetric discretization of the domain interior. The coupling strategy is based upon the higher-order consistency or reproducing conditions that are directly imposed in the physical domain. The resulting coupled method enjoys several favorable features: (i) it preserves the geometric exactness of IGA, (ii) it circumvents the need for global volumetric parameterization of the problem domain, (iii) it achieves arbitrary-order approximation accuracy while preserving higher-order smoothness of the discretization. Several numerical examples are solved to show the optimal convergence properties of the coupled IGA–RKPM formulation, and to demonstrate its effectiveness in constructing volumetric discretizations for complex-geometry objects.
As for the next contribution, we exploit the use of smooth, high-order spline basis functions in IGA to solve high-order surface PDEs governing the morphological evolution of vesicles. These governing equations are often consisted of geometric PDEs, high-order PDEs on stationary or evolving surfaces, or a combination of them. We propose an isogeometric formulation for solving these PDEs. In the context of geometric PDEs, we consider phase-field approximations of mean curvature flow and Willmore flow problems and numerically study the convergence behavior of isogeometric analysis for these problems. As a model problem for high-order PDEs on stationary surfaces, we consider the Cahn–Hilliard equation on a sphere, where the surface is modeled using a phase-field approach. As for the high-order PDEs on evolving surfaces, a phase-field model of a deforming multi-component vesicle, which consists of two fourth-order nonlinear PDEs, is solved using the isogeometric analysis in a primal variational framework. Through several numerical examples in 2D, 3D and axisymmetric 3D settings, we show the robustness of IGA for solving the considered phase-field models.
Finally, we present a monolithic, implicit formulation based on isogeometric analysis and generalized-alpha time integration for simulating hydrodynamics of vesicles according to a phase-field model. Compared to earlier works, the number of equations of the phase-field model which need to be solved is reduced by leveraging high continuity of NURBS functions, and the algorithm is extended to 3D settings. We use residual-based variational multi-scale method (RBVMS) for solving Navier–Stokes equations, while the rest of PDEs in the phase-field model are treated using a standard Galerkin-based IGA. We introduce the resistive immersed surface (RIS) method into the formulation which can be employed for an implicit description of complex geometries using a diffuse-interface approach. The implementation highlights the robustness of the RBVMS method for Navier–Stokes equations of incompressible flows with non-trivial localized forcing terms including bending and tension forces of the vesicle. The potential of the phase-field model and isogeometric analysis for accurate simulation of a variety of fluid-vesicle interaction problems in 2D and 3D is demonstrated.
Ziel der Arbeit war das Adsorptionsverhalten ausgewählter schutzkolloidstabilisierter Polymerpartikel mit variierender chemischer Basis im zementären System zu beschreiben und basierend auf den gewonnenen Erkenntnissen das Konkurrenzverhalten beim Angebot unterschiedlicher mineralischer Oberflächen zu klären.
Sowohl die Destabilisierung der Polymerpartikel im alkalischen Milieu, welche eine Voraussetzung für derartige Adsorptionsprozesse ist, als auch die Veränderung von Oberflächeneigenschaften verschiedener mineralischer Partikel durch Hydratations- und Ionenadsorptionsprozesse, wurden u. a. mit Hilfe elektrokinetischer Experimente erfasst. Die spektralphotometrische Erstellung von Adsorptionsisothermen ermöglichte zudem die Ermittlung der jeweiligen adsorbierten Polymermenge zu verschiedenen Zeitpunkten der frühen Hydratation. Weiterhin wurde die Polymeradsorption an Partikeln ausgewählter Zusatzstoffe in Abhängigkeit von der Ionenstärke der Flüssigphase beschrieben.
Rasterelektronenmikroskopische Untersuchungen cryo-präparierter polymermodifizierter Zementleimproben ermöglichten es außerdem deren Mikrostruktur im suspensiven Zustand zu visualisieren. Diese Aufnahmen, ebenso wie die Ergebnisse grundlegender hydratationskinetischer Untersuchungen wurden in Wechselbeziehung zu den Ergebnissen der Adsorptionsuntersuchungen gebracht.
Maßgelbliche intermolekulare und interpartikuläre Wechselwirkungen, infolge derer sich die Stabilitätsverhältnisse im Zementleim ändern und die Polymerpartikel adsorbieren sind im Wesentlichen die Desorption des Schutzkolloids von der Polymerpartikeloberfläche, die Ionisation funktioneller Gruppen der Polymerpartikel und der Schutzkolloidmakromoleküle im alkalischen Milieu und infolgedessen die Komplexbildung mit Ionen der Zementleimporenlösung. Die Auswirkungen dieser Vorgänge auf die Lösungs- und Fällungskinetik des Zementleimes wurden erfasst und mit der chemischen Zusammensetzung der polymeren Systeme korreliert.
Das Hauptziel der Arbeit war es zu klären, ob alkalihaltige Enteisungsmittel eine Alkali-Kieselsäure-Reaktion (AKR) auslösen und/oder beschleunigen können und was die dabei ggf. zugrunde liegenden Mechanismen sind. Die Untersuchungen dazu ergaben, dass die auf Verkehrsflächen eingesetzten alkalihaltigen Enteisungsmittel auf Basis von Natriumchlorid (Fahrbahndecken) bzw. auf Basis der Alkaliacetate und -formiate (Flugbetriebsflächen) den Ablauf einer AKR in Betonen mit alkalireaktiven Gesteinskörnungen auslösen und mitunter stark beschleunigen können. Dabei nimmt die AKR-fördernde Wirkung der Enteisungsmittel in der Reihenfolge Natriumchlorid - Alkaliacetate - Alkaliformiate erheblich zu.
Es zeigte sich, dass im Fall der Alkaliacetate und -formiate nicht allein die Zufuhr von Alkalien von Bedeutung ist, sondern dass es außerdem zu einer Freisetzung von OH-Ionen aus dem Portlandit und folglich zu einem Anstieg des pH-Wertes in der Porenlösung kommt. Dadurch wird der Angriff auf alkalireaktives SiO2 in Gesteinskörnungen verstärkt und der Ablauf einer AKR beschleunigt. Unter äußerer NaCl-Zufuhr kommt es hingegen nicht zu einem Anstieg des pH-Wertes, was der Grund für die weniger stark AKR-fördernde Wirkung von NaCl ist. Von Bedeutung sind hier die zugeführten Na-Ionen und offenbar ein sich andeutender, direkter Einfluss von NaCl auf das SiO2-Löseverhalten. Sind pH-Wert und Na-Konzentration in der Porenlösung ausreichend hoch, wird sich thermodynamisch bedingt AKR-Gel bilden. Die Bildung von FRIEDEL’schem Salz ist dabei nur eine Begleiterscheinung, aber keine Voraussetzung für den Ablauf einer AKR unter äußerer NaCl-Zufuhr.
Es zeigte sich weiter, dass sich mit der FIB-Klimawechsellagerung als Performance-Prüfung das AKR-Schädigungspotential von Betonen für Fahrbahndecken und Flugbetriebsflächen zuverlässig beurteilen lässt. Die Vorteile der FIB-Klimawechsellagerung liegen in der Prüfung kompletter, projektspezifischer Betonzusammensetzungen unter Beachtung aller praxisrelevanten klimatischen Einwirkungen und vor allem in der Berücksichtigung einer äußeren Alkalizufuhr. Innerhalb von 36 Wochen kann das AKR-Schädigungspotential einer Betonzusammensetzung für eine Nutzungsdauer von 20-30 Jahren in der Praxis sicher beurteilt werden.
Die Dissertation analysiert und bewertet die Kindergartenarchitektur des 20.Jhd.'s im Spektrum von individueller Planung und Baukastensystemen. Den Ausgangspunkt bildet ein Defizit an Betreuungsplätzen in Deutschland am Ende des 20.Jhd.'s. Dieses resultiert aus dem gesetzlich garantierten Rechtsanspruch auf einen Kindergartenplatz und der rezessiven Wirtschaftslage. Der dringende Handlungsbedarf der Kommunen führte zu einer primär ökonomisch ausgerichteten Baukultur. Anhand eines Kriterienkataloges wird u.a. bewertet, wie eine ökonomische Architektur im Kindergartenbau ohne Qualitätsminderung erzielt werden kann. Zukunftsweisende Kindergartenplanungen für das 21.Jhd. werden analysiert. Ein eigenes weiterführendes, integriertes Planungskonzept wird u.a. hinsichtlich seiner Mehrfach- und Umnutzungspotentiale überprüft. Nur ein ganzheitlicher Architekturansatz kann die vielfältigen Anforderungen an Kindergärten realisieren und zukunftsweisende Überlegungen sinnvoll integrieren.
Die Bau-Ausstellung zu Beginn des 20. Jahrhunderts oder „Die Schwierigkeit zu wohnen“, so lautet der Titel der Arbeit und legt damit ihren Fokus offen. Sie betrachtet ein um 1900 aufkommendes Ausstellungsphänomen in seinen ersten Dekaden; in einer Zeit, in der das Wohnen problematisiert wurde.
Der Praxis des Wohnens ist Anfang des 20. Jahrhunderts seine Selbstverständlichkeit abgesprochen worden. Die Bau-Ausstellung wird als ein Symptom dieses Verlusts interpretiert und zugleich als Versuch, ihm entgegenzuwirken. Statt sie innerdisziplinär als eine architekturgeschichtliche Episode der Moderne rein positivistisch zu beschreiben, legt die vorliegende Arbeit im Typus der Bau-Ausstellung eine weit reichende Problematik frei, die kulturphilosophische ebenso wie medientheoretische Dimensionen hat: Inwieweit lässt sich das Wohnen überhaupt ausstellen? Wie kann man eine alltägliche Praxis, die kaum eine Definition erlaubt, zeigen? Den Umgang mit dieser Aporie untersucht die Arbeit.
Die Bedeutung von klassischen Elementen in virtueller Architektur - Untersucht am Beispiel der Wand
(2004)
Die Dissertation exploriert und evaluiert die Definition einer Entsprechung der architektonischen Kategorie der Wand für virtuelle Architekturen. Es wird der Frage nachgegangen, inwieweit eine architektonische Strukturierung in der virtuellen Architektur fortzuführen ist, um Handlungs- und Kommunikationsstrukturen zu sichern. Der erste Teil motiviert die Arbeit und vermittelt die Grundlagen und Termini, die in einem direkten Zusammenhang mit der virtuellen Architektur verwendet werden. Der folgende Teil konzentriert sich ausschließlich auf die reale Architektur. Ausgehend vom Element der Wand wird, in einer analytischen und architekturtheoretischen Betrachtung, ein Modell von Raumkategorien entwickelt, welches im Hinblick auf die virtuelle Architektur von besonderer Bedeutung ist. Die aus der Analyse gewonnen Erkenntnisse in Form von Raumkategorien werden im dritten Teil aus der realen in die virtuelle Architektur übertragen. Das folgende Kapitel beschreibt drei Experimente, die Fra-gen, Hypothesen und Ansätze aus den vorangegangenen Kapiteln empirisch evaluieren. Im abschließenden Kapitel werden die Erkenntnisse der experimentellen Untersuchung im Kontext des architektonischen Gestaltens von virtuellen Architekturen diskutiert.
Am Beispiel der Elektrifizierung zweier Großstädte an der Westküste Südamerikas zeigt die Arbeit den globalen Einfluss deutscher Industrie- und Finanzakteure auf technische, städtebauliche und gesellschaftlich-kulturelle Entwicklungen zur Blütezeit des europäischen Imperialismus auf. Damit werden die Regionalgeschichten der chilenischen Hauptstadtregion und der Elektropolis Berlin zu einer Globalgeschichte miteinander verknüpft. Ein Hauptaugenmerk der Analyse liegt dabei auf den weltweiten Akteursnetzwerken und Machtverhältnissen sowie dem kulturellen Erbe und seiner gegenwärtigen Interpretation.
Ziel der Arbeit ist die Ermittlung des Einflußes Otto Hetzers auf die Entwicklung des Holzleimbaus. Dabei werden vor allem die ersten Holzleim-Bauwerke in der Zeit bis 1918 umfassend dargestellt. Die Recherchen stützen sich hauptsächlich auf die damaligen Veröffentlichungen, wobei die noch bestehenden Gebäude vom Verfasser vor Ort untersucht und dokumentiert wurden. Karl Friedrich Otto Hetzer entwickelte den Holzleimbau unter Verwendung von Kaseinleim zu industrieller Reife. Nach der Entwicklung von Dachkonsruktionen und Typenhallen gelang auf der Weltausstellung 1910 in Brüssel der technische Durchbruch mit der Ausstellungshalle der Deutschen Reichsbahn, welche mit 43 Meter Spannweite Maßstäbe setze. Nachfolgende Bogenbinderhallen vergrößerten immer mehr die Spannweiten bis über 100m. Als Weiterentwicklung sind vor allem die zeltartigen Konstruktionen zu nennen, die eine ideale Tragwirkung als zugbeanspruchte Konstruktion ermöglichen.
Die vorliegende Dissertation zeigt am Beispiel der Entwicklung eines modernen geriatrischen Zentrums, dass Architektur einen eigenständigen Beitrag dazu leisten kann, die Probleme des Alters in der heutigen Gesellschaft anzunehmen und zu bewältigen. Die Arbeit setzt zum einen an stadtplanerischen Defiziten der vergangenen Jahrzehnte an und verdeutlicht, wie ein bedürfnisgerechtes, innerstädtisches geriatrisches Zentrum dem Leitbild der „humanen Stadt“ zu entsprechen vermag, um damit die Stadt wieder zu einem multifunktionalen Erlebnisraum für alle Bevölkerungsgruppen werden zu lassen. Zum anderen greift sie die aktuelle gesundheitspolitische Debatte auf und weist nach, dass ein solches Zentrum als integrierte Verbundlösung, die alle Versorgungsstrukturen unter einem Dach anbietet, ideal dazu geeignet ist, die Anforderungen unserer Zeit auf geriatrischem und pflegerischem Gebiet zu erfüllen. Die Anforderungen an eine derartige Einrichtung sind umfangreich und differenziert. Sie werden unter Heranziehung aktueller Forschungsergebnisse aus stadtsoziologischer, psychologischer, gerontologischer und sozialökologischer Sicht hergeleitet und in praktische architektonische bzw. baukonstruktive Handlungsanweisungen umgesetzt. Als zentrale, übergeordnete Anforderungen neben optimaler medizinischer und pflegerischer Betreuung werden herausgearbeitet: 1. Erhöhung der Lebenszufriedenheit der Bewohner 2. Stärkung der Autonomie und Selbstständigkeit der älteren Menschen 3. Befolgung des Grundsatzes >Prävention vor Rehabilitation, Rehabilitation vor Pflege< 4. Förderung eines selbstbestimmten Lebens in vertrauter Umgebung bis ins hohe Alter 5. Gewährung von Geborgenheits- und Heimatgefühlen 6. Gemeinwesenorientierung und enge Anbindung an die Strukturen des Quartiers 7. Erhaltung bzw. Stärkung der sozialen Integration der älteren und kranken Menschen 8. Förderung eines hohen Aktivitätsniveaus und einer anspruchsvollen Freizeitgestaltung 9. Bereitstellung einer anregenden sowie sicheren, weil Orientierung gebenden Umgebung Das vorgestellte geriatrische Zentrum bildet die architektonische Entsprechung zum gesellschaftlichen Strukturwandel des Alters und zu den gesundheits- und pflegepolitischen Entwicklungen unserer Zeit und leistet damit einen eigenständigen Beitrag, die gesundheitlichen und sozialen Probleme alter Menschen in unserer Gesellschaft zu lindern, in dem nutzerorientierte Gebäudestrukturen geschaffen werden, die einem integrativen Netzwerk aus Wohn-, Therapie- und Pflegeformen Raum geben. Damit steht das geriatrische Zentrum beispielhaft für eine Architektur, die stets von den Bedürfnissen der Menschen ausgeht und mit baulichen Lösungen auf die sozialen Herausforderungen unserer Zeit reagiert.
Die Form der Datenbank
(2023)
Datenbanken sind heute die wichtigste Technik zur Organisation und Verarbeitung von Daten. Wie wurden sie zu einer der allgegenwärtigsten und gleichzeitig unsichtbarsten Praxis, die menschliche Zusammenarbeit ermöglicht? Diese Studie beginnt mit einer historiographischen Erkundung der zentralen medialen Konzepte von Datenbanken und mündet in das praxeologische Konzept der "Daten als Formation", kurz: In-Formation.
Der erste Hauptteil befasst sich mit der Formatierung von Daten durch die Verarbeitung strukturierter Daten mittels relationaler Algebra. Es wird erarbeitet, auf welche Weise Struktur neues Wissen schafft. Im zweiten Teil wird erörtert, wie Datenbanken durch den diagrammatisch-epistemischen Raum der Tabelle operationalisiert werden. Drittens untersucht die Studie Transaktionen als Erklärungen dafür, wie Daten und reale Handlungen koordiniert und synchronisiert werden können.
Im zweiten Hauptteil wird untersucht, wie relationale Datenbanken zunehmend zum Zentrum von Softwareanwendungen und Infrastrukturen wurden, wobei der Schwerpunkt auf wirtschaftlichen Praktiken liegt. In einem vergleichenden Ansatz wird anhand von Fallstudien in der DDR der 1970er bis 1990er Jahren die Frage gestellt, ob es eine „sozialistische“ Datenbankmanagement-Software gegeben hat. Dabei werden die „westlichen“ Produktionsdatenbanken BOMP, COPICS und MAPICS (IBM) sowie R2 (SAP) im Zusammenspiel mit den ostdeutschen Sachgebietsorientierten Programmiersystemen (SOPS) von Robotron diskutiert. Schließlich untersucht dieser Teil, wie die DDR ihr eigenes relationales Datenbankmanagementsystem, DABA 1600, entwickelte und dabei „westliche“ Technologie neu interpretierte.
Das abschließende Kapitel fasst die Konzepte der relationalen Datenbanken als heute wichtigsten Datenorganisationstechnik zusammen. Es erörtert, inwiefern es möglich ist, die historiographische Erzählung über die Entstehung von Datenbankmanagementsystemen und ihre Folgen für die Geschichte der Informatik zu dezentrieren. Es schließt mit der Erkenntnis, dass östliche und westliche Medien der Kooperation sich in Form und Funktion erstaunlich ähnlich sind, beide wurzeln in den tiefen Genealogien von organisatorischen und wissensbildenden Datenpraktiken.
Neben dieser medienwissenschaftlichen Arbeit besteht die Dissertation aus einem künstlerischen Teil, der dokumentiert wird: Anhand einer Reihe von Vlogs erkundet die fiktionale Figur „Data Proxy“ aktuelle Datenökologien.
Die Genese der Thüringer Kunstvereinslandschaft im ausgehenden 19. und frühen 20. Jahrhundert
(2023)
Zu Beginn des 19. Jahrhunderts existierten in Deutschland noch keine öffentlichen Museen, welche sich der Präsentation von Kunst widmeten und dem zeitgenössischen Kunstschaffen einen Raum bieten konnten. In den Genuss von Malerei und bildender Kunst kamen damit lediglich jene gesellschaftlichen Stände, denen durch Macht, Prestige und Adelszugehörigkeit dieses Privileg zu Teil wurde. Als neue Form des Erwachens der Bourgeoisie entwickelt, repräsentierten die sich im Entstehen befindlichen Kunstvereine erstmalig eine wirkungsvolle, dem Adel den Vormachtanspruch auf Kunst und Kultur entreißende Instanz, welche die Möglichkeit der öffentlichen Kunstvermittlung und Präsentation boten. Zwischen 1860 und 1945 entstand auf dem Gebiet des heutigen Landes Thüringen eine Unzahl an Kunstvereinen, Künstlerbünden und Kunstgesellschaften, welche die Gegenwartskunst und ihre lokalen Künstler förderten. Nach dem Ende des Zweiten Weltkrieges verschwanden diese Förderer jedoch gänzlich von der Bildfläche und ihr Wirken geriet in Vergessenheit. Bisher fand die Vergangenheit dieser Kunstvereine und -bünde nur wenig Aufmerksamkeit in der Kunstgeschichtsbetrachtung. Daher versucht die vorliegende Dissertation die Konstitutionen, Strukturen, die Wirksamkeit und den Einsatz für die (moderne) Kunst von 15 Kunstvereinen, -gesellschaften und Künstlervereinen nachzuzeichnen und damit längst überfällige Erkenntnisse der Beitragsleistung zur Kulturtätigkeit der Institutionen zu erbringen. Das Überblickswerk leistet einen ersten Vorstoß in die noch weithin unbekannten Kunstvereinsgefilde in Thüringen, vor allem auch im Kontext des nationalen Gefüges. Die historische Betrachtung, die Darstellung der Ausstellungspraxis und die finanziellen Handlungsrahmen sollen als direkte Vergleichsansätze die primäre Gegenüberstellung erleichtern.
Die kommunale Energiewende stellt die beteiligten Akteure vor große Herausforderungen: Auf Grundlage strukturierter Daten sollen Maßnahmen
für eine nachhaltige Infrastruktur geplant und umgesetzt werden. Oft fehlt
den Beteiligten jedoch das nötige Wissen über die lokalen Potentiale und Rahmenbedingungen—und an geeigneten Methoden der Informationsvermittlung. Gegenstand dieser Arbeit ist die Analyse der Planungsstrukturen und der Entwurf eines visuellen Informationssystems. Mit der vorliegenden Untersuchung wird gezeigt, wie mit Hilfe von Befragungen, partizipativen Visualisierungen, fiktionalen Szenarien und der systematischen Anwendung visueller Variablen eine fundierte Grundlage geschaffen werden kann für eine nutzerorientierte Gestaltung.
Die Stadt Weimar nimmt in der deutschen Geschichte und in deren Rezeption eine besondere Stellung ein. Sie steht als Metapher für verschiedene kulturhistorische Epochen. Seit der Jahrhundertwende avancierte sie zum komprimierten Spiegelbild deutscher Befindlichkeiten. Für die Nationalsozialisten stellte Weimar eine wesentliche Station für ihren Aufstieg von München nach Berlin, einen erfolgreichen "Kampf- und Experimentierort" dar. Doch auch von 1932-1945 konnten sie in der Stadt außerordentlich aktiv werden. Beispielhaft äußerte sich das in den zeitgenössischen Bauprojekten, in der zeitgenössischen Baupolitik. Die Dissertation behandelt die gesamte Spannbreite der baulichen und planerischen Aktivitäten in und um Weimar in der Zeit des Nationalsozialismus. Sie thematisiert sowohl die repräsentativen Projekte, als auch die Baulichkeiten des Komplexes zum Konzentrationslager Weimar-Buchenwald, ebenso die Wohn- und Kulturbauten, die Kasernenarchitekturen, die Industrie-, Verkehrs- und Behelfsbauten sowie städtebauliche Planungen. Die Gebäude und Komplexe werden im kulturpolitischen Kontext betrachtet, planungs- und baugeschichtlich untersucht, umfassend architektonisch-gestalterisch und städtebaulich-gestalterisch analysiert, dokumentiert, in ihrer gegenseitigen Beeinflussung dargestellt, verglichen und gewertet. Gegebenenfalls werden Querbeziehungen zu anderen Objekten in Deutschland, außerdem zu zeitgleichen nichtbaulichen Ereignissen in Weimar bzw. Deutschland aufgezeigt. Ein Gesamtbild zur Bauplanung und zum Bauschaffen im Dritten Reich in einer Stadt, beispielhaft in der symbolbeladenen Stadt Weimar wird erstellt; ein Stück verdrängter Kulturgeschichte der Stadt Weimar wird rekonstruiert.
Die vorliegende Arbeit hat die Absicht, den Bedarf der Umsetzung der Planungsidee ‚kinder- und jugendfreundliche Stadtentwicklung’ in Korea zu erforschen und Vorschläge für die Umsetzung zu machen. Darüber hinaus will sie herausfinden, warum man sich bezüglich der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung zunächst auf die Schulen und deren Umgebungen konzentrieren soll.
Deshalb widmet sich die Dissertation zuerst der Literaturrecherche, sowohl was den Begriff der kinder- und jugendfreundlichen Stadtentwicklung angeht als auch der Literatur bezüglich des Beitrags der Schulen zur Realisierung der kinder- und jugendfreundlichen Stadtentwicklung. Danach wird untersucht, ob das deutsche Instrument ‚Spielleitplanung‘ sich als Leitfaden für die gesamte Konzeption der koreanischen kinder- und jugendfreundlichen Stadtentwicklung eignet. Darüber hinaus werden Interviews mit koreanischen Experten aus Stadtplanung und Architektur, Pädagogik und öffentlicher Verwaltung als Forschungsmethode verwendet, um in Bezug auf die kinder- jungendfreundliche Stadtentwicklung den koreanischen Zustand zu analysieren. Zuletzt werden anhand der Untersuchungsergebnisse Handlungs-empfehlungen für die Durchführung der koreanischen kinder- und jugend-freundlichen Stadtentwicklung formuliert.
Anhand dieser Forschung kann konstatiert werden, dass die kinder- und jugendfreundliche Stadtentwicklung eine wichtige Planungsidee ist, weil dadurch Stadtplanerinnen und Stadtplaner sowohl zum körperlichen und geistigen gesunden Aufwachsen von Kindern und Jugendlichen als auch zur Entwicklung ihrer sozialen Kompetenzen erheblich beitragen können. Vor allem soll man die koreanische kinder- und jugendfreundliche Stadtentwicklung zunächst auf den Schulen und den schulischen Umgebungen umsetzen. Denn dadurch lassen sich vielseitige eventuelle Hindernisse bei der Durchführung der kinder- und jugendfreundlichen Stadtentwicklung vermeiden. Ein weiterer Grund ist, dass die Schulen in Korea nicht nur in der Gesellschaft eine zentrale Rolle spielen, sondern auch im Rahmen der Stadtplanung. Auffällig ist, dass die kinder- und jugendfreundliche Stadtentwicklung sowohl auf die räumlichen Gestaltungen als auch auf die Beteiligung von Kindern und Jugendlichen in der städtischen Planung fokussiert ist. Allerdings werden bei der Stadtentwicklung die Kinder und Jugendliche in Korea noch nicht als wichtige Akteure angesehen. Darum soll man die Spielleitplanung in Korea einbeziehen, weil sie als Leitbild bei einer Konzeption der koreanischen kinder- und jugendlichen Stadtentwicklung fungieren kann. Jedoch müssen dabei die kulturellen Unterschiede zwischen Deutschland und Korea berücksichtigt werden.
Weiterhin wurde durch die Interviews festgestellt, dass das Interesse und der Wille von Experten aus der Stadtplanung an Kinder- und Jugendfreundlichkeit die wichtigsten Voraussetzungen sind, um die kinder- und jugendfreundliche Stadtentwicklung in Korea zu verankern und zu verbreiten.
Die Dissertation erschließt der deutschen Forschung die derzeit weltweit vergebenen nationalen Umweltzeichen. Dabei steht nicht der politische Kontext, sondern die gestalterisch-formale und inhaltliche Standortbestimmung, Analyse und Interpretation der Zeichenfamilie im Vordergrund. Teil I der Arbeit unterwirft den Untersuchungsgegenstand einer semiotischen Analyse nach Umberto Eco und diskutiert die Umweltzeichen im Kontext von graphischen Zeichen, Markenzeichen, Piktogrammen und Emblemen. Ein kurzer Abriss der Geschichte von Natur- und Welt-, d.h. Globusdarstellungen lotet den Bildervorrat aus, auf den zur Darstellung von 'Umwelt' zurückgegriffen werden kann. Das Umweltzeichen-Design, so zeigt sich, arbeitet mit den rhetorischen Figuren des pars pro toto bzw. des totum pro parte, um die kulturelle Einheit von /Umwelt/ und /Umweltschutz/ graphisch zu fassen. Teil II, der Hauptteil der Arbeit, besteht aus der ikonographischen Analyse und ikonologischen Interpretation aller nationalen Umweltzeichen gemäß Theorie und Methode von Aby Warburg und Erwin Panofsky. In 30 Kapiteln werden für jedes Zeichen Informationen zu Design und Designer/in, Entstehungsjahr, Abbildungsvorschriften und Intentionen der Vergabeinstitutionen zusammengestellt und die Vor-Bilder und Hintergründe zu einer ikonographisch-ikonologischen Deutung zusammengetragen. Insbesondere für die in der Arbeit detaillierter analysierten Zeichen aus Deutschland, Japan, Kanada, den USA, Österreich und Skandinavien ermöglicht die Untersuchung tiefe Einsichten in die Kulturgeschichte des jeweiligen Vergabelandes. Erkenntnisinteresse der Arbeit ist für jedes einzelne Zeichen die Entschlüsselung des (inter)kulturellen Bildgedächtnisses zum Thema /Umweltschutz/ vor dem Hintergrund der Herkunftskultur und ihrer nationalen Mythen. Farbgebung und Zeichenbildungsstrategien zeigen beim Untersuchungsgegenstand den Verzicht auf Signalement und Originalität. Neue nationale Umweltzeichen werden mehr und mehr aus dem Bildervorrat bestehender Umweltzeichen geschaffen. Die synchrone Vernetzung der Zeichen tritt gegenüber der diachronen Verankerung im Bildervorrat der Herkunftskultur immer stärker in den Vordergrund. Obwohl international einheitliche Gestaltungsrichtlinien fehlen, entsteht so eine globale Zeichentradition. Angesichts insbesondere des Designs und Re-Designs asiatischer Zeichen drängt sich abschließend die Frage auf, ob die eigentliche Zielgruppe der nationalen Umweltzeichen noch der einheimische Konsument ist oder ob – insbesondere in den Schwellenländern – die nationalen Umweltzeichenprogramme zum außenpolitischen Instrumentarium geworden sind, mit dem man sich in der Staatengemeinschaft positioniert.
Kein anderes Material hat im 19. Jahrhundert das Design und die Architektur beeinflußt, wie die Kunststoffe. Das Feld der Realisationen und der Projekte des gesamten Kunststoffbaus ist dabei aufgrund der unterschiedlichen Kunststoffarten und somit Ausführungen sehr weitläufig. Daher begrenzt sich diese Untersuchung auf die glasfaserverstärkten Kunststoffe (GFK). Die Glasfasern übertragen die auftretenden Kräfte und werden durch das sie umschließende Harz gebunden. Die GFK sind daher bestens für tragende Bauteile geeignet. Die glasfaserverstärkten Kunststoffe durchliefen in den 1940er bis 1970er Jahren eine für einen Baustoff kurze aber sehr ergiebige Pionierphase. Die umfassende Analyse der drei zu unterscheidenden Perioden setzt sich aus der Untersuchung der wirtschaftlichen, politischen, gesellschaftlichen und kulturellen Beeinflussungen zusammen. Circa 260 unterschiedliche Projekte wurden weltweit aus selbsttragenden / tragenden GFK-Bauteilen realisiert. Diese sind ausführlich innerhalb des Kataloges im Anhang aufgelistet. GFK-Bauten waren nicht allein aufgrund des neuen Materials modern, sondern auch aufgrund ihrer freien Formbarkeit, transluzenten Flächen und auffälligen Farben und den flexiblen Nutzungskonzepten entsprechend einer modernen demokratischen Gesellschaft, die aufgeschlossen und optimistisch der Zukunft gegenübersteht. Die Realisationen, die zum Teil bis heute noch genutzt werden, beweisen den hohen Wissensstand der Pioniere. Die von den Pionieren gesuchte GFK-Architektur war eine sehr vielfältige, die sich nicht auf wenige Formenmerkmale zusammenfassen läßt. Das neue Material ermöglichte es den Architekten, ihre Vorstellungen und Träume von Formen, Gehäusen und Bauten zu realisieren. Die Analyse der Vorgänger und der Inspirationsquellen diese Formenvielfalt sind Grundlage einer objektiven Beurteilung dieser Bauten. Architekten und Bauingenieure suchten ideale Einsatzgebiete und Konstruktionsvarianten für den bis dahin assoziationsfreien Baustoff. Die Nutzungskonzepte: Wohnhaus, Zweithaus, Ausstellung, Spielgerät und die Entwicklung von Gebäudeteilen: Gebäudehülle, Überdachung, Fassade werden im Gesamtzusammenhang und nach der optimalen Verwendbarkeit untersucht. Das Wissen über den Verlauf der Pionierphase der GFK, die damals formulierten Gründe für und wider deren Einsatz und der entwickelten Konstruktionen, Verbindungstechniken und Tragwerke kann einem erneuten Einsatz des Baumateriales nur dienlich sein. Anliegen dieser Dissertation ist es, die GFK als einsatzfähige Werkstoffe innerhalb der Architekturlandschaft wieder einen Platz zu geben. Diese Analyse soll verschüttetes Wissen aufdecken, die in den 1970er Jahren entstandenen Vorurteile sichtbar machen und die glasfaserverstärkten Kunststoffe als das darstellen, was sie sind, leistungsfähige Baustoffe für gekrümmte und gefaltete Konstruktionen.
Diese Dissertation befasst sich mit den technischen und institutionnellen Grundlagen einer Politik des audiovisuellen Gedächtnisses in Frankreich und Deutschland. Es wurden exemplarisch das Nationalinstitut für Audiovision (Paris), die Deutsche Mediathek Berlin als auch einige Archive der ARD-Rundfunkanstalten (SWR) und schliesslich das SAT1 Nachrichtenarchiv untersucht. Ein Hauptanliegen war, inwieweit digitale Technologien die Zugänglichkeit als auch die Selektionspolitik von fernsehdokumenten neu definieren. Schliesslich wurde die Tragfähigkeit des Archivbegriffs im digitalen Zeitalter hinterfragt.
Die Arbeit fokussiert die Rolle des Abjekten in der zeitgenössischen Kunst und hier insbesondere die Rolle der Künstler aus den wohlhabenden – sogenannten postindustriellen – Ländern. Die Arbeit mit abjekten Themen in der Kunstproduktion ist sehr präsent, jedoch aus einer anderen, eher individualistischen Perspektive. Die wichtigsten Orte der Kunst (Galerien, Museen, Kulturzentren) sind Räume der Legitimation dieser Art von Produktion, dabei wird das Potential der Provokation hinterfragt. Die klassische Avantgarde, besonders der Dadaismus, hat das Abjekte zu Beginn des 20. Jahrhunderts als künstlerisches Material genutzt. Das Spiel mit Grenzüberschreitungen durch die Darstellung des Verbotenen und Ekelerregenden machte das Abjekte zur produktiven Kraft auch auf sozialer Ebene, weil es als Mittel dem gesellschaftlichen Protest und der sozialen Kritik diente.
Die Reise der Zeichen - Eine Studie zur symbolischen Bildwelt der Xiyü-Kultur an der Seidenstraße
(2015)
Kurzfassung
Die vorliegende Studie untersucht die traditionellen Xiyü-Zeichen im Visuellen verschiedener Volksgruppen am Beispiel Xinjiangs im Nordwesten Chinas, wo einst die alte Seidenstraße entlangführte. Die Untersuchung versteht sich als ein Versuch der systematischen Darstellung der symbolischen Bildwelt in Xinjiang und damit im weiteren Sinne auch als ein Versuch, das Xiyü-Kulturerbe zu bewahren, das angesichts des tiefgreifenden Wandels in China und der Go-West-Strategie des chinesischen Wirtschaftsprogramms, welches sich auf die weiten Westgebiete Chinas bezieht, in Gefahr geraten ist. Es muss ein Weg gefunden werden, Modernisierung und Tradition in Einklang zu bringen.
Diese Studie beschreibt, analysiert und bewertet exemplarisch, wie sich Zeichen und Symbole des Wissens und der Kultur entlang der Seidenstraße in Xinjiang zwischen den östlichen und westlichen Kulturen vermischt haben, wie sie übertragen wurden und inwieweit die Xiyü-Kultur reflektiert, dass Xinjiang ein Treffpunkt zwischen östlichen und westlichen Einflüssen war. In der Annährung an dieses Forschungsziel werden drei Hauptfragen zusammengefasst:
Erstens, was kann das Erfahrungsmodell der alten Seidenstraße zum Verständnis der kulturellen Entwicklung im heutigen Informationszeitalter beitragen?
Zweitens, was bedeutet Vielfalt für die kulturelle Kommunikation in Xinjiang? Steigen die Medienereignisse der visuellen Kommunikation und die internationalen Einflüsse an?
Drittens, wie kann Xinjiang die Chancen der Go-West-Strategie des chinesischen Wirtschaftsprogramms in einer zunehmend globalisierten Welt nutzen und in der zukünftigen weltwirtschaftlichen Entwicklung wieder Vitalität zeigen?
Um sich auf diese Weise den Antworten zu nähern, verwendet diese Studie einen Ansatz, der eine kulturanthropologische Perspektive integriert. Auf Grundlage einer Feldstudie werden Eigenschaften der traditionellen visuellen Xiyü-Zeichen, ihre Bedeutung für die ethnischen Volksgruppen Xinjiangs und den kulturellen Austausch zwischen Europa und Asien diskutiert und der besondere Einfluss von Handel und Verkehrswegen aufgezeigt.
Die visuellen Zeichenformen der Xiyü-Kultur wurden von der Zeit vor der Islamisierung bis hin zur heutigen islamischen Zeit dargestellt. Die Forschung zeigt, dass die Zeichen kein ortsgebundenes Kulturphänomen oder eine lokale Tradition sind, vielmehr werden sie von regionalen, nationalen und internationalen Kulturkreisen bewusst oder unbewusst beeinflusst. Sie sind ein Ergebnis kultureller Kommunikation. Schließlich setzt sich die Studie mit den Zeichen der Xiyü-Kultur Xinjiangs in Relation mit der Go-West-Strategie der chinesischen Regierung auseinander. Die wirtschaftliche Entwicklung bringt für Xinjiang nicht nur Modernisierung und Wohlstand, sondern auch ein kulturelles und ökologisches Ungleichgewicht.
Der Mensch strukturiert alles, was er in seiner Umgebung wahrnimmt, mit Zeichen. Die Xiyü-Zeichen schaffen eine visuelle Strukturierung. Die Xiyü-Kultur hat nach wie vor Einfluss auf die Lebensweise der ethnischen Gruppen in Xinjiang. Heute hat die Konfrontation zwischen der traditionellen Xiyü-Kultur und der wirtschaftlichen Entwicklung zu einem ernsthaften Konflikt in Xinjiang geführt.
Diese Studie versteht sich als eine kritische Interpretation der aktuellen Situation der Xiyü-Kultur bzw. des chinesischen Wirtschaftsprogramms in Xinjiang. Sie will darüber hinaus einen Beitrag leisten zur Analyse der bislang nur unzureichend erfassten Wechselwirkungen zwischen Geschichte, Kultur, Politik und Wirtschaft in der kulturellen Globalisierung in Xinjiang.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
Die Arbeit untersucht auf der Basis der Neuen Institutionenökonomik die Rolle von Immobilieninvestoren, d.h. offene und geschlossene Immobilienfonds, Real Estate Investment Trusts, Real Estate Private Equity Fonds und Lebensversicherungen, auf dem deutschen Markt für Public Private Partnership Projekte im öffentlichen Hochbau. Dafür werden Immobilienanlagevehikel als institutionelle Ausgestaltung einer Prinzipal-Agent-Beziehung aufgefasst, bei der der Anleger als Prinzipal die Kapitalanlage an den Immobilieninvestor als Agent delegiert. Die geschäftlichen Aktivitäten eines Immobilieninvestors werden durch den normierten Handlungsspielraum, d.h. die rechtlichen Vorgaben, determiniert. Daneben beeinflusst auch die Ausgestaltung der PA-Beziehung, d.h. die Rechte des Prinzipals und die Anreize für den Agenten, die geschäftlichen Aktivitäten eines Immobilieninvestors. Zusammengeführt werden diese beiden Kategorien unter dem Begriff des „definierten Gestaltungsrahmens“, der als Rahmen der geschäftlichen Aktivitäten eines Immobilieninvestors verstanden wird, der dessen PPP-Investitionsmöglichkeiten bestimmt. So ist die Eignung eines Immobilieninvestors für eine PPP-Investition davon abhängig, ob sein „definierter Gestaltungsrahmen“ zum „erforderlichen Gesamtgestaltungsrahmen“ des PPP-Projektes passt. Letzterer wird dabei durch das PPP-Vertragsmodell, die PPP-Immobilienart, die PPP-Wertschöpfungsphase sowie die gewählte Handlungsoption des Investors auf dem PPP-Markt determiniert. In der Arbeit werden theoretische PPP-Investitionsmodelle entwickelt, in denen dargelegt wird, welche Immobilieninvestoren in welche PPP-Projekte investieren sollten. Dabei werden Empfehlungen zu den geeigneten Handlungsoptionen des jeweiligen Investors auf dem PPP-Markt erarbeitet und dargelegt, in welcher PPP-Wertschöpfungsphase dieser investieren sollte und welche der PPP-Vertragsmodelle und PPP-Immobilienarten für eine Investition geeignet sind. Zudem werden Gestaltungsempfehlungen zum rechtlichen Rahmen hergeleitet. Des Weiteren werden die Immobilieninvestoren auch für die bisher schon auf dem PPP-Markt agierenden Bau- und Betreiberunternehmen, insbesondere den Mittelstand, als potentielle Kooperationspartner auf dem Erstmarkt (Primärmarkt), als Exitpartner auf dem Zweitmarkt (Sekundärmarkt) oder als Wettbewerber klassifiziert. Die Thematik ist auch für die öffentliche Hand von Interesse, da der durch den Markteintritt neuer Investoren erhöhte Wettbewerb die Konditionen der PPP-Verträge verbessern kann und die Einbindung des Mittelstandes in PPP-Projekte ausdrückliches Ziel der Bundesregierung ist.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
Die Arbeit beschäftigt sich mit den Auswirkungen des Baus von neuen Stadtautobahnen in Santiago de Chile. Ziel der Studie ist, die Veränderungen im Segregationsmuster der Hauptstadt Chiles, die durch den Bau dieser Autobahnen entstanden sind, zu beschreiben.
Die Arbeit betrachtet die Entstehung von Segregationsmustern als kulturell-historisches Phänomen urbaner Bedeutung, weswegen die Entwicklung der Stadt Santiago und deren Segregationsmuster nicht nur aus der Perspektive der Stadtsoziologie und der Stadtgeographie, sondern auch aus einer historischen Perspektive analysiert wird. Dabei liegt der Schwerpunkt der Arbeit auf der Wechselbeziehung zwischen Verkehrsinfrastruktur und sozial-räumlicher Verteilung der verschiedenen sozialen Gruppen.
Die Entstehung der neuen Stadtautobahnen in Santiago de Chile lässt sich nur durch eine mehrdimensionale Betrachtung erklären. Diese Bauten und die besondere Art in der sie gebaut und betrieben werden, konnten nur durch die Einführung von Konzessionsmechanismen innerhalb einer neoliberalen Markwirtschaft entstehen. In diesem sozial-ökonomischer Rahmen, bei dem die Bürger lediglich als potenzielle Kunden betrachtet werden, sind die Infrastrukturbauten – darunter auch die Stadtautobahnen – maßgeschneiderte Produkte für eine Minderheit. Dieses Konzept hat gravierende Folgen für das Sozialgefüge der Stadt Santiago.
Die Folgen der Einführung der Stadtautobahnen auf das Segregationsmuster und das Sozialgefüge der Hauptstadt Chiles werden anhand zweier Fallstudien veranschaulicht. Mittels einer mehrschichtigen qualitativen Methodik werden die Auswirkungen des Baus von Stadtautobahnen im Armenviertel »Santo Tomás« des südlichen Stadtbezirk »La Pintana« und im elitären »Condominio La Reserva« im nördlichen Ausdehnungsgebiet »Chacabuco« analysiert.
Anschließend wird ein neues Beschreibungsmodell für die lateinamerikanische Stadt vorgeschlagen; das »symbiotische Stadtmodell« stützt sich zum größten Teil auf den Ausbau des Autobahnnetzes.
Oberflächenabdichtungen von Deponien sind in ihrer langfristigen Funktion häufig durch eine austrocknungsbedingter Rissbildung der mineralischen Dichtungskomponente gefährdet. Als Ursachen gelten insbesondere das standortspezifische Klima mit den stark schwankenden Randbedingungen (Niederschlag, Temperatur), Pflanzen und Tiere sowie auch ein ungeeigneter Systemaufbau. Durch einen Wasserentzug treten Schrumpfungsprozesse in der mineralischen Dichtung auf welche über negative Dehnungen zu Dehnungsbrüchen und damit zu einer Rissbildung führen. Für die Beanspruchbarkeit eines Dichtungsmaterials bei Wasserentzug sind insbesondere dessen Schrumpfverhalten und dessen Zugfestigkeit von Bedeutung. Beide Eigenschaften wurden durch eigens konzipierte Laborversuche beispielhaft an zwei typischen Dichtungsböden untersucht. Die Ergebnisse zeigen eine große Abhängigkeit von der Wasserspannung sowie von der Bodenstruktur. Für die Zugfestigkeit und dem daraus abgeleiteten Dehnungsmodul gilt z. B. jeweils eine eindeutige Zunahme mit Zunahme der Wasserspannungen. Mit Hilfe der Ergebnisse aus den Laborversuchen sowie numerischen Berechnungen des Was-serhaushaltes und der vorherrschenden Spannungen kann eine erste Rissgefährdungsabschätzung für mineralische Dichtungen in Oberflächenabdichtungen abgeleitet und angewandt werden. Weitere Erläuterungen z. B. zu den Eigenschaften und der Teilsättigung bindiger Böden, analytische Zugfestigkeitsberechnungen oder Empfehlungen zum Entwurf und der Herstellung von Oberflächenabdichtungen ergänzen die Arbeit.
Die Arbeit beschreibt ein Konzept zur computergestützten, schrittweisen Erfassung und Abbildung der Geometrie von Gebäuden im Kontext der planungsrelevanten Bauaufnahme. Zunächst wird die Bauaufnahme als Erstellung eines verwendungsspezifischen Modells betrachtet. Anschließend wird der Fokus auf das geometrische Abbild gelegt. Es werden u.a. die Aufmaßtechniken Handaufmaß, Tachymetrie und Photogrammetrie bewertet und gebäudetypische geometrische Abstraktionen aufgelistet. Danach erfolgt eine Aufstellung von Anforderungen an ein computergestütztes Aufmaßsystem, welche mit kommerziellen Lösungen aus dem nichtgeodätischen Bereich verglichen wird. Im Hauptteil wird das zu Beginn genannte Konzept beschrieben. Betrachtet wird die skizzenbasierte Erstellung eines nichtmaßlichen geometrischen Abbildes des Gebäudes in den Frühphasen der Bauaufnahme, seine anschließende schrittweise maßliche Anpassung an das Original und topologische Detaillierung im Zuge des Bauaufmaßes, sowie die Extraktion von Bauteilen und ihren geometrischen Parametern. Zur Vereinfachung der maßlichen Anpassung des geometrischen Abbildes im Aufmaßprozeß werden geometrische Abstraktionen wie Parallelitäten, rechte Winkel usw. genutzt, aber nicht erzwungen. Mit Hilfe der Ausgleichungsrechnung erfolgt eine Zusammenführung der geometrischen Abstraktionen und verschiedener Aufmaßtechniken. Es werden die nötigen Beobachtungsgleichungen und andere relevante Aspekte beschrieben. Gezeigt wird weiter ein Konzept, wie ein nutzerseitig veränderbares Bauwerksmodell mit dem geometrischen Abbild in Bezug gebracht werden kann, wobei aus dem geometrischen Abbild geometrische Parameter des nutzerseitig veränderbaren Bauwerkmodells gewonnen werden können. Ausgesuchte Problematiken der Arbeit wurden prototypisch implementiert und getestet. Hierbei stand die Verbindung der Aufmaßtechniken und geometrischen Abstraktionen im Mittelpunkt. Die geometrischen Ansätze der Arbeit beschränken sich auf planare Oberflächen.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
Die vorliegende Arbeit untersucht das Potential von Webanwendungen in 3D zur Vermittlung von Informationen im Allgemeinen und zur Darstellung von städtebaulichen Zusammenhängen im Speziellen.
Als grundlegender Faktor der visuellen und funktionalen Qualität - welche die Wahrnehmung des Nutzers direkt beeinflusst -, erfolgt die Bewertung der Machbarkeit von 3D Webinhalten unter Anwendung einer explorativen, qualitativen Evaluierung von Webagenturen.
Darauf aufbauend wird das Potential von 3D Webanwendungen aus Nutzerperspektive untersucht, um Zusammenhänge herstellen zu können: einerseits zwischen der Machbarkeit bei der Entwicklung und anderseits die Akzeptanzkriterien beim Rezipienten betreffend.
Die empirische Studie, die mit dem Forschungspartner Bosch für diese Arbeit modelliert wurde, eruiert zum einen, inwiefern 3D im Vergleich zu 2D und 2,5D, und zum anderen WebGL im Vergleich zu bisherigen 3D Webtechnologien die visuelle Wahrnehmung und kognitive Leistungsfähigkeit des Nutzers beeinflusst.
Die Erkenntnisse der Untersuchung zeigen Parallelen zu bestehenden Studien aus web-fernen Bereichen.
Um die Bedeutung von 3D Webanwendungen zur Verbesserung von Entscheidungsprozessen in Stadtplanungsprojekten ableiten zu können, werden Aspekte zur Interaktion und visuellen Wahrnehmung in den speziellen Kontext von Stadtplanungswerkzeugen gebracht. Dabei wird überprüft, ob sich web-basierte 3D Visualisierungen sinnvoll zur Vermittlung städtebaulicher Zusammenhänge einbinden lassen und inwieweit bestehende Projekte, wie in dieser Arbeit beispielhaft das vom Fraunhofer IGD entwickelte Forschungsprojekt urbanAPI, die Technologie WebGL nutzen können.
Vor diesem Hintergrund soll die Arbeit Akzeptanzkriterien und Nutzungsbarrieren von 3D Webanwendungen auf Basis der Technologie WebGL identifizieren, um einen Beitrag zur Machbarkeit von Webanwendungen und zur Entwicklung entsprechender Stadtplanungswerkzeuge zu leisten.
In the last two decades, Peridynamics (PD) attracts much attention in the field of fracture mechanics. One key feature of PD is the nonlocality, which is quite different from the ideas in conventional methods such as FEM and meshless method. However, conventional PD suffers from problems such as constant horizon, explicit algorithm, hourglass mode. In this thesis, by examining the nonlocality with scrutiny, we proposed several new concepts such as dual-horizon (DH) in PD, dual-support (DS) in smoothed particle hydrodynamics (SPH), nonlocal operators and operator energy functional. The conventional PD (SPH) is incorporated in the DH-PD (DS-SPH), which can adopt an inhomogeneous discretization and inhomogeneous support domains. The DH-PD (DS-SPH) can be viewed as some fundamental improvement on the conventional PD (SPH). Dual formulation of PD and SPH allows h-adaptivity while satisfying the conservations of linear momentum, angular momentum and energy. By developing the concept of nonlocality further, we introduced the nonlocal operator method as a generalization of DH-PD. Combined with energy functional of various physical models, the nonlocal forms based on dual-support concept are derived. In addition, the variation of the energy functional allows implicit formulation of the nonlocal theory. At last, we developed the higher order nonlocal operator method which is capable of solving higher order partial differential equations on arbitrary domain in higher dimensional space. Since the concepts are developed gradually, we described our findings chronologically.
In chapter 2, we developed a DH-PD formulation that includes varying horizon sizes and solves the "ghost force" issue. The concept of dual-horizon considers the unbalanced interactions between the particles with different horizon sizes. The present formulation fulfills both the balances of linear momentum and angular momentum exactly with arbitrary particle discretization. All three peridynamic formulations, namely bond based, ordinary state based and non-ordinary state based peridynamics can be implemented within the DH-PD framework. A simple adaptive refinement procedure (h-adaptivity) is proposed reducing the computational cost. Both two- and three- dimensional examples including the Kalthoff-Winkler experiment and plate with branching cracks are tested to demonstrate the capability of the method.
In chapter 3, a nonlocal operator method (NOM) based on the variational principle is proposed for the solution of waveguide problem in computational electromagnetic field. Common differential operators as well as the variational forms are defined within the context of nonlocal operators. The present nonlocal formulation allows the assembling of the tangent stiffness matrix with ease, which is necessary for the eigenvalue analysis of the waveguide problem. The present formulation is applied to solve 1D Schrodinger equation, 2D electrostatic problem and the differential electromagnetic vector wave equations based on electric fields.
In chapter 4, a general nonlocal operator method is proposed which is applicable for solving partial differential equations (PDEs) of mechanical problems. The nonlocal operator can be regarded as the integral form, ``equivalent'' to the differential form in the sense of a nonlocal interaction model. The variation of a nonlocal operator plays an equivalent role as the derivatives of the shape functions in the meshless methods or those of the finite element method. Based on the variational principle, the residual and the tangent stiffness matrix can be obtained with ease. The nonlocal operator method is enhanced here also with an operator energy functional to satisfy the linear consistency of the field. A highlight of the present method is the functional derived based on the nonlocal operator can convert the construction of residual and stiffness matrix into a series of matrix multiplications using the predefined nonlocal operators. The nonlocal strong forms of different functionals can be obtained easily via the concept of support and dual-support. Several numerical examples of different types of PDEs are presented.
In chapter 5, we extended the NOM to higher order scheme by using a higher order Taylor series expansion of the unknown field. Such a higher order scheme improves the original NOM in chapter 3 and chapter 4, which can only achieve one-order convergence. The higher order NOM obtains all partial derivatives with specified maximal order simultaneously without resorting to shape functions. The functional based on the nonlocal operators converts the construction of residual and stiffness matrix into a series of matrix multiplication on the nonlocal operator matrix. Several numerical examples solved by strong form or weak form are presented to show the capabilities of this method.
In chapter 6, the NOM proposed as a particle-based method in chapter 3,4,5, has difficulty in imposing accurately the boundary conditions of various orders. In this paper, we converted the particle-based NOM into a scheme with interpolation property. The new scheme describes partial derivatives of various orders at a point by the nodes in the support and takes advantage of the background mesh for numerical integration. The boundary conditions are enforced via the modified variational principle. The particle-based NOM can be viewed a special case of NOM with interpolation property when nodal integration is used. The scheme based on numerical integration greatly improves the stability of the method, as a consequence, the operator energy functional in particle-based NOM is not required. We demonstrated the capabilities of current method by solving the gradient solid problems and comparing the numerical results with the available exact solutions.
In chapter 7, we derived the DS-SPH in solid within the framework of variational principle. The tangent stiffness matrix of SPH can be obtained with ease, and can be served as the basis for the present implicit SPH. We proposed an hourglass energy functional, which allows the direct derivation of hourglass force and hourglass tangent stiffness matrix. The dual-support is {involved} in all derivations based on variational principles and is automatically satisfied in the assembling of stiffness matrix. The implementation of stiffness matrix comprises with two steps, the nodal assembly based on deformation gradient and global assembly on all nodes. Several numerical examples are presented to validate the method.
System identification is often associated with the evaluation of damage for existing structures. Usually, dynamic test data are utilized to estimate the parameter values for a given structural model. This requires the solution of an inverse problem. Unfortunately, inverse problems in general are ill-conditioned, particularly with a large number of parameter to be determined. This means that the accuracy of the estimated parameter values is not sufficiently high in order to enable a damage identification. The goal of this study was to develop an experimental procedure which allows to identify the system parameters in substructures with high reliability. For this purpose, the method of selective sensitivity was employed to define special dynamic excitations, namely selectively sensitive excitation. Two different approaches have been introduced, which are the quasi-static approach and the iteratively experimental procedure. The former approach is appropriate for statically determinate structures and excitation frequencies below the structure's fundamental frequency. The latter method, which uses a-priori information about the parameters to be identified to set up an iterative experiment, can be applied to statically indeterminate structures. The viability of the proposed iterative procedure in detection of small changes of structure's stiffness was demonstrated by a simple laboratory experiment. The applicability of the strategy, however, depends largely on experimental capacity. It was also experienced that such a test is associate with expensive cost of equipments and time-consuming work.
In computer-aided design (CAD), industrial products are designed using a virtual 3D model. A CAD model typically consists of curves and surfaces in a parametric representation, in most cases, non-uniform rational B-splines (NURBS). The same representation is also used for the analysis, optimization and presentation of the model. In each phase of this process, different visualizations are required to provide an appropriate user feedback. Designers work with illustrative and realistic renderings, engineers need a
comprehensible visualization of the simulation results, and usability studies or product presentations benefit from using a 3D display. However, the interactive visualization of NURBS models and corresponding physical simulations is a challenging task because of the computational complexity and the limited graphics hardware support.
This thesis proposes four novel rendering approaches that improve the interactive visualization of CAD models and their analysis. The presented algorithms exploit latest graphics hardware capabilities to advance the state-of-the-art in terms of quality, efficiency and performance. In particular, two approaches describe the direct rendering of the parametric representation without precomputed approximations and timeconsuming pre-processing steps. New data structures and algorithms are presented for the efficient partition, classification, tessellation, and rendering of trimmed NURBS surfaces as well as the first direct isosurface ray-casting approach for NURBS-based isogeometric analysis. The other two approaches introduce the versatile concept of programmable order-independent semi-transparency for the illustrative and comprehensible visualization of depth-complex CAD models, and a novel method for the hybrid reprojection of opaque and semi-transparent image information to accelerate stereoscopic rendering. Both approaches are also applicable to standard polygonal geometry which contributes to the computer graphics and virtual reality research communities.
The evaluation is based on real-world NURBS-based models and simulation data. The results show that rendering can be performed directly on the underlying parametric representation with interactive frame rates and subpixel-precise image results. The computational costs of additional visualization effects, such as semi-transparency and stereoscopic rendering, are reduced to maintain interactive frame rates. The benefit of this performance gain was confirmed by quantitative measurements and a pilot user study.
Die vorliegende Arbeit gliedert sich in das Gebiet der Systemidentifikation ein. Besonderes Augenmerk wird auf die Detektion, die Lokalisierung und die Quantifizierung von Systemveränderungen gerichtet. Für diese Ziele werden -basierend auf Schwingungsmessungen- modale Parameter sowie Ein- und Ausgangsgrößen im Frequenzbereich extrahiert. Die in dieser Arbeit entwickelte Adaption des Polyreferenz-Verfahrens beruht auf einer veränderten Bestimmung der Fundamentalmatrix mit Hilfe der verallgemeinerten Singulärwertzerlegung. Eine Vorfilterung, die eine Reduktion der Frequenzanteile im Signal bewirkt, ist dabei Voraussetzung. Diese basiert auf dem Einsatz rekursiver Filtertechiken und der einfachen Singulärwertzerlegung. Als Resultat können modale Parameter auch im Falle, wenn eng benachbarte und verrauschte Signalanteile vorliegen oder nur wenige Mess- und Anregungspunkte zur Verfügung stehen, präzise bestimmt und damit auch sehr geringe Syemveränderungen detektiert werden. Die mit dem adaptierten Polyreferenz-Verfahren extrahierten modalen Parameter werden in der Lokalisierung von Systemveränderungen eingesetzt. Zur Bestimmung modaler Parameter auch an realen Bauwerken wird die Konstruktion eines Impulshammers vorgestellt. Besonderes Gewicht wird dabei auf die Gestaltung des Erregerkraftspektrums gelegt. Die Arbeit enthält eine mögliche Vorgehensweise zum Abgleich von Finite-Elemente Modellen. In vielen praxisnahen Fällen sind weit weniger modale Parameter vorhanden, als freie, zum Abgleich bestimmte Parameter gesucht werden. Das Gleichungssystem ist schlechtgestellt und benötigt eine Regularisierung. Eine andere Möglichkeit zur Korrektur von Rechenmodellen bietet das Projektive Eingangsgrößenverfahren, das auf der Basis unvollständig gemessener Ein- und Ausgangsgrößen arbeitet. In einer Versagenswahrscheinlichkeitsstudie wird die Robustheit des Verfahrens gegenüber! Rauscheinflüssen untersucht
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.
In der vorliegenden Arbeit werden auf Basis des Tensegrity-Konzeptes Strukturen entwickelt und vorgestellt, welche durch einen signifikanten Steifigkeitszuwachs in der Lage sind, die Anforderungen an die Gebrauchstauglichkeit von Tragwerken zu erfüllen.
Selbstverankerte Strukturen mit aufgelösten Druckstäben werden als Seil-Stab-Systeme bezeichnet und sind alleiniger Gegenstand aller angestellten Betrachtungen.
Tensegrity-Strukturen sollen eine Untergruppe der Seil-Stab-Systeme darstellen, deren symptomatische Eigenschaft eine sich im Tensegrity-Zustand befindliche Geometrie ist.
Einer Definition des Tensegrity-Zustandes folgt ein Überblick über die zur Untersuchung von Seil-Stab-Systemen notwendigen Berechnungsalgorithmen.
Der Kern der Arbeit beschäftigt sich zunächst mit dem Einfluss der Geometrie auf die Empfindlichkeit von Seil-Stab-Systemen gegenüber unvermeidlichen Herstellungstoleranzen sowie dem Einfluss von Topologie, Vorspannung, lokaler Steifigkeit der Elemente und Geometrie auf die Steifigkeit dieser Systeme.
Darauf aufbauend wird eine Möglichkeit gezeigt, die Steifigkeit von beweglichen Seil-
Stab-Systemen merklich zu erhöhen, ohne die Strukturen durch zusätzliche Elemente oder Verbindungen optisch zu verändern.
Der zu erzielende Steifigkeitszuwachs wird mittels Vergleichrechnungen und durchgeführten Belastungsversuchen verifiziert.
Die Arbeit beschäftigt sich mit der komplexen Aufgabe Stadtstrukturen mit einem Simulationsmodell im Rechner erzeugen zu können. Dafür wird ein Vierebenenmodell als Untermodellebene eingeführt, um mit allgemeinen Informationen, Parzellierung, Gebäuden und Optimierung der Struktur arbeiten zu können.
Die Auseinandersetzung mit der Digitalisierung ist in den letzten Jahren in den Medien, auf Konferenzen und in Ausschüssen der Bau- und Immobilienbranche angekommen. Während manche Bereiche Neuerungen hervorbringen und einige Akteure als Pioniere zu bezeichnen sind, weisen andere Themen noch Defizite hinsichtlich der digitalen Transformation auf. Zu dieser Kategorie kann auch das Baugenehmigungsverfahren gezählt werden. Unabhängig davon, wie Architekten und Ingenieure in den Planungsbüros auf innovative Methoden setzen, bleiben die Bauvorlagen bisher zuhauf in Papierform oder werden nach der elektronischen Einreichung in der Behörde ausgedruckt. Vorhandene Ressourcen, beispielsweise in Form eines Bauwerksinformationsmodells, die Unterstützung bei der Baugenehmigungsfeststellung bieten können, werden nicht ausgeschöpft. Um mit digitalen Werkzeugen eine Entscheidungshilfe für die Baugenehmigungsbehörden zu erarbeiten, ist es notwendig, den Ist-Zustand zu verstehen und Gegebenheiten zu hinterfragen, bevor eine Gesamtautomatisierung der innerbehördlichen Vorgänge als alleinige Lösung zu verfolgen ist.
Mit einer inhaltlich-organisatorischen Betrachtung der relevanten Bereiche, die Einfluss auf die Baugenehmigungsfeststellung nehmen, wird eine Optimierung des Baugenehmigungsverfahrens in den
Behörden angestrebt. Es werden die komplexen Bereiche, wie die Gesetzeslage, der Einsatz von Technologie aber auch die subjektiven Handlungsalternativen, ermittelt und strukturiert. Mit der Entwicklung eines Modells zur Feststellung der Baugenehmigungsfähigkeit wird sowohl ein Verständnis für Einflussfaktoren vermittelt als auch eine Transparenzsteigerung für alle Beteiligten geschaffen.
Neben einer internationalen Literaturrecherche diente eine empirische Studie als Untersuchungsmethode. Die empirische Studie wurde in Form von qualitativen Experteninterviews durchgeführt, um den Ist-Zustand im Bereich der Baugenehmigungsverfahren festzustellen. Das erhobene Datenmaterial wurde aufbereitet und anschließend einer softwaregestützten Inhaltsanalyse unterzogen. Die Ergebnisse wurden in Kombination mit den Erkenntnissen der Literaturrecherche in verschiedenen Analysen als Modellgrundlage aufgearbeitet.
Ergebnis der Untersuchung stellt ein Entscheidungsmodell dar, welches eine Lücke zwischen den gegenwärtigen
Abläufen in den Baubehörden und einer Gesamtautomatisierung der Baugenehmigungsprüfung schließt. Die prozessorientierte Strukturierung entscheidungsrelevanter Sachverhalte im Modell ermöglicht eine Unterstützung bei der Baugenehmigungsfeststellung für Prüfer und Antragsteller. Das theoretische Modell konnte in Form einer Webanwendung in die Praxis übertragen werden.
Der Siedlungsbau in Hanoi kan heutzutage - über 20 Jahre nach dem Beginn der Renovierungspolitik udn der Markwirtschaft, die dem Städtebau eine große Gelegenheit zur Verbesserung gegeben haben - zurückblickend und eingeschätz werden. Die letzten 20 Jahre sind eine kurze Zeit in der tausendjährigen Geschichte der Stadt, trotzdem entwickelte sich die Stadt in diesem Zeitraum am schnellsten und auch am problematischten aus Sicht der Umwelt. Ohne eine passende Entwicklungsstategie oder eine geeignete Maßnahme bei der Stadtplanung vergrößert sich der Konflikt Ökonomie - Ökologie immer weiter. ... Die Findung eines neuen Wohnkonzeptes im Gleichgewicht zwischen Ökonomie und der Ökologie ist eine hochaktuelle Frage geworden.
In der vorliegenden Arbeit wird das Tragverhalten und das Sicherheitsniveau axial belasteter Großbohrpfähle in den pleistozänen Kalkarenit der Küstenregion von Dubai untersucht. Zunächst wird auf der Grundlage von Ergebnissen umfangreicher Baugrundanalysen und Probebelastungen das Tragverhalten detailliert beschrieben. Anschließend wird ein auf der Finiten-Elemente-Methode basierendes Strukturmodell zur Simulation des Last-Setzungsverhaltens von Großbohrpfählen im Sinne eines numerischen Versuchsstandes entwickelt. Um herstellungsbedingte Veränderungen der Baugrundeigenschaften in der Kontaktzone Pfahl-Baugrund zu berücksichtigen, die mit boden- und felsmechanischen Elementversuchen gewöhnlich nicht erfassbar sind, werden die Größen der relevanten konstitutiven Parameterwerte iterativ mittels inverser Optimierungsstrategien bestimmt. Abschließend wird eine methodische Vorgehensweise aufgezeigt, wie das Sicherheitsniveau axial belasteter Großbohrpfählen unter Berücksichtigung der räumlichen Variabilität der Baugrundeigenschaften zuverlässig abgeschätzt werden kann.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
Die Arbeit beschäftigt sich mit den diskursiven Konstruktion urbaner Images in Großprojekten. Aufbauend auf einer soziologischen Definition der Begriffe „Raumbild“ und „Ortsbild“ wird am Beispiel des städtebaulichen Großprojekts Paris Rive Gauche untersucht, wie sich ortsspezifische Referenzen in einem Planungsprozess bilden, zu welchen Zwecken sie eingesetzt werden und wie mit Hilfe dieser Referenzen im Planungsprozess diskursiv ein Image für einen entstehenden Stadtteil konstruiert wird.
Inhaltlich beschäftigt sich die Arbeit, die im Rahmen des Promotionsstudiengangs Kunst und Gestaltung an der Bauhaus-Universität entstand, mit der Erforschung sozio-interaktiver Potentiale der Videotelefonie im Kontext von Nähe und Verbundenheit mit Fokus auf Eigenbild, Embodiment sowie den Rederechtswechsel.
Die Videotelefonie als Kommunikationsform hat sich – und darauf deuten die Erfahrungen der Co- vid-19-Pandemie hin – im lebensweltlichen Alltag der Menschen etabliert und wird dort in naher Zukunft nicht mehr wegzudenken sein. Auf Basis ihrer Möglichkeiten und Errungenschaften ist es inzwischen Realität und Lebenswirklichkeit, dass die Kommunikation sowohl im privaten als auch im geschäftlichen Kontext mittels verschiedenster Kanäle stattfindet. Der Videotelefonie kommt hierbei als solche nicht nur eine tragende Funktion, sondern auch eine herausragende Rolle bei der vermeintlichen Reproduktion der Face-to-Face-Kommunikation im digitalen Raum zu und wird wie selbstverständlich zum zwischenmenschlichen Austausch genutzt. Just an diesem Punkt knüpft die Forschungsarbeit an. Zentral stand dabei das Vorhaben einer dezidierte Untersuchung des Forschungsgegenstandes Videotelefonie, sowohl aus Kultur- als auch Technikhistorischer, aber auch Medien-, Wahrnehmungs- wie Kommunikations- theoretischer Perspektive, indem analytische und phänosemiotische Perspektiven miteinander in Beziehung gesetzt werden (z.B. Wahrnehmungsbedingungen, Interaktionsmerkmale, realisierte Kommunikationsprozesse etc.). Damit verbundenes, wünschenswertes Ziel war es, eine möglichst zeitgemäße wie relevante Forschungsfrage zu adressieren, die neben den kulturellen Technisierungs- und Mediatisierungstendenzen in institutionellen und privaten Milieus ebenfalls eine conditio sine qua non der pandemischen (Massen-)Kommunikation entwirft.
Die Arbeit ist damit vor allem im Bereich des Produkt- und Interactiondesigns zu verorten. Darüber hinaus hatte sie das Ziel der Darlegung und Begründung der Videotelefonie als eigenständige Kommunikationsform, welche durch eigene, kommunikative Besonderheiten, die sich in ihrer jeweiligen Ingebrauchnahme sowie durch spezielle Wahrnehmungsbedingungen äußern, und die die Videotelefonie als »Rederechtswechselmedium« avant la lettre konsolidieren, gekennzeichnet ist. Dabei sollte der Beweis erbracht werden, dass die Videotelefonie nicht als Schwundstufe einer Kommunikation Face-to-Face, sondern als ein eigenständiges Mediatisierungs- und Kommunikationsereignis zu verstehen sei. Und eben nicht als eine beliebige – sich linear vom Telefon ausgehende – entwickelte Form der audio-visuellen Fernkommunikation darstellt, sondern die gestalterische (Bewegtbild-)Technizität ein eigenständiges Funktionsmaß offeriert, welches wiederum ein innovatives Kommunikationsmilieu im Kontext einer Rederechtswechsel-Medialität stabilisiert.
Eine Analyse zum Strömungswiderstand natürlicher Fließgewässer mit ausgeprägter Sohlstrukturierung
(2008)
Übliche Ansätze zur Quantifizierung des Strömungswiderstandes natürlicher Fließgewässer mit geringer relativer Überdeckung und ausgeprägter Sohlstrukturierung basieren auf der Abhängigkeit von einem konstanten charakteristischen Rauheitsparameter. Diese Annahme ist nur für die turbulente rotationssymmetrische Rohrströmung mit hoher relativer Überdeckung gültig. Die Quantifizierung der Widerstandsprozesse mit einem konstant erhöhten Rauheitsmaß für die betrachteten Randbedingungen erfasst nicht die individuellen Charakteristiken von Rauheitsstruktur und integralem Strömungsfeld an unterschiedlichen Gewässerabschnitten sowie identischen Gewässerabschnitten bei Abflussvariation. Auf Basis detaillierter Datensätze von Oberflächenstrukturen und dem jeweiligen Strömungsfeld erfolgt die Untersuchung der Interaktion zwischen vorgenannten Punkten. Für die Charakterisierung der individuellen Rauheitsstruktur in Abhängigkeit der relativen Überdeckung erweist sich die vertikale Rauheitsdichte cK,V (Verbauungsgrad) als starke Funktion. Die Charakterisierung der Ungleichförmigkeit des integralen Strömungsfeldes als Folge der individuellen Rauheitsstruktur erfolgt auf Basis physischer Modellversuche und mathematisch-physikalischer Untersuchungen anhand des Geschwindigkeitshöhenausgleichsbeiwertes au. Die Formulierung des Strömungswiderstandes in Abhängigkeit dieser beiden Parameter resultiert in einer wesentlichen Verringerung des Fehlerbetrages und damit des Unsicherheitsbereiches. Die bestehende Reststreuung ist auf Einflüsse aus Anordnung und Form der Elemente, Turbulenz, Sekundärströmung, Wasserspiegeldeformationen, lokal kritische Strömung und Lufteinzug zurückzuführen.
Die fachlichen und organisatorischen Aufgaben der Informationsverarbeitung im Prozeß der Bauauftragsrechnung werden als theoretische Grundlage für die Anpassung und Neukonzeption netzverteilter Informationssysteme formal beschrieben. Hierzu erfolgen Untersuchungen von Methoden, Verfahren, Strukturen und Abläufen sowie der in Bauunternehmen angewendeten Informationssysteme. Grundlage einer Modellierungsmethode sind Abstraktionen von Prozeßschritten und Ereignissen in einer Ereignisgesteuerten Prozeßkette, Entitytypen in einem Entity Relationship Model, Funktionsbäume und Organisationseinheiten sowie deren mögliche Relationen. Mit dieser Methodik werden die Prozesse, Informationsdefinitionen, Funktionen und die Organisationsstruktur einzeln modelliert und Relationen zwischen den Modellelementen gebildet. Aus der fachlichen Auswertung der Modelle und Relationen folgen fachgebietsspezifische Prozeßabläufe und Arbeitsumgebungen. Deren Anwendung wird für ein Customizing vorhandener Informationsysteme und bei einer Neuimplementierung betrachtet. Neben einer umfangreichen fachlichen Problemanalyse leistet die Arbeit einen Beitrag zum methodischen Vorgehen bei Neukonzeption baubetrieblicher Informationssysteme.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Einfluss der Porosität von Beton auf den Ablauf einer schädigenden Alkali-Kieselsäure-Reaktion
(2016)
Der Dissertation liegt die Frage zugrunde, welchen Einfluss die Porosität von Beton auf den Ablauf einer schädigenden AKR hat. Insbesondere soll geklärt werden, ob der Einsatz von Gleitschalungsfertigern – anstelle von klassischen schienengeführten Betondeckenfertigern – und die damit verbundene verringerte Porosität der Betone den Ablauf einer schädigenden AKR begünstigt. Eine verringerte Porosität führt zu einer reduzierten Duktilität des Betons, so dass infolge AKR entstehende Zugspannungen schlechter abgebaut werden können. Weiterhin steht ein geringerer Expansionsraum für das entstehende AKR-Gel zur Verfügung. Diese Faktoren können den Ablauf einer AKR begünstigen. Allerdings können extern anstehende Alkalien schlechter in den Beton mit einer verringerten Porosität eindringen. Ferner wird die Diffusion der Alkalien zu den potenziell reaktiven Gesteinskörnungen verlangsamt.
Zur Beantwortung der aufgeworfenen Frage wird unter Einsatz einer neuartigen Prüfmethodologie und bei variierender Porosität untersucht, welche Schädigungsparameter maßgebend für den Ablauf und die Intensität einer schädigenden AKR sind. Die berücksichtigten Schädigungsparameter sind die mechanischen Eigenschaften des Betons, der zur Verfügung stehende Expansionsraum und die im Beton ablaufenden Transportvorgänge. Um den Einfluss der jeweiligen Schädigungsparameter spezifizieren zu können, gehen die Prüfungen einerseits von einem hohen internen und andererseits von einem hohen externen AKR-Schädigungspotenzial aus. In beiden Fällen erfolgen die Untersuchungen an langsam reagierenden alkaliempfindlichen Gesteinskörnungen. Die unterschiedlichen Porositäten ergeben sich hauptsächlich durch Variation des w/z-Wertes.
Bei dem hohen internen AKR-Schädigungspotenzial stehen die mechanischen Eigenschaften und der Expansionsraum im Vordergrund; außerdem ist der Einfluss der Zugabe eines LP-Bildners zu analysieren. Um ein hohes internes AKR-Schädigungspotenzial zu erreichen, kommt bei der Herstellung der Betonprobekörper ein Zement mit einem hohen Alkaligehalt zum Einsatz. Die Betonprobekörper werden der 40 °C-Nebelkammerlagerung und dem 60 °C-Betonversuch über Wasser unterzogen. Dabei findet eine neue Prüfmethodologie Anwendung, die der kontinuierlichen Messung der Dehnung und der ablaufenden Erhärtungs- und Rissbildungsprozesse dient. Diese Prüfmethodologie umfasst die Messung der Ultraschallgeschwindigkeit, die Schallemissionsanalyse und die µ-3D-Computertomografie.
Hingegen richtet sich der Fokus bei dem hohen externen AKR-Schädigungspotenzial auf die Transportvorgänge. Zur Provokation eines hohen externen AKR-Schädigungspotenzials werden die Probekörper der FIB-Klimawechsellagerung ausgesetzt.
In der praktischen Anwendung werden den Calciumsulfatbindemitteln Kombinationen verschiedenster Zusätze beigegeben. Ein Verständnis für die Wirkungsweise der verschiedenen Zusätze wird folglich mit steigender Komplexität moderner Bindemittelrezepturen zunehmend wichtiger. In der vorliegenden Arbeit werden die Auswirkungen von Alkalisalzen und Fließmitteln auf die verschiedenen Phasen der Hydratation von Calciumsulfathalbhydrat systematisch analysiert und anschließend diskutiert.
Im ersten Teil der Arbeit wird gezeigt, dass Alkalisulfate und Alkalichloride die Hydratation von Calciumsulfathalbhydrat in unterschiedlicher Weise beeinflussen. Die Beschleunigungswirkung der gleichionigen Zusätzen K2SO4 und Na2SO4 wird sowohl durch eine verbesserte Keimbildung als auch durch einen Anstieg der Kristallwachstumsgeschwindigkeit verursacht. Während Alkalisulfate die Dihydratkeimbildung begünstigen, wird diese bei Zugabe von KCl und NaCl verzögert. Ein Beschleunigungseffekt setzt erst später in der Phase des Kristallwachstums ein. Die Wirkung der zugegebenen Ionen lässt sich entsprechend der Hofmeister-Serie einordnen.
Der zweite Teil der vorliegenden Arbeit präsentiert eine systematische Betrachtung der Wirkungsweise dreier Fließmittelgruppen im Calciumsulfatsystem (Polykondensat, Polycarboxylatether, Kammpolymer mit Phosphatgruppen). Untersuchungen zur Verflüssigungswirkung der Fließmittel zeigen, dass diese in der Reihenfolge Polykondensat < Polycarboxylatether < Kammpolymer mit Phosphatgruppen zunimmt. Eine direkte Korrelation zwischen Verflüssigungswirkung und Adsorptionsneigung besteht nicht. Neben den gewünschten Effekten weisen Fließmittel häufig auch eine Verzögerung der Hydratation des Bindemittels als unerwünschte Nebenwirkung auf. Ursächlich für diese fließmittelinduzierte Verzögerung ist eine Behinderung der Keimbildung und des Kristallwachstums. Untersuchungen zur Auflösung von Calciumsulfathalbhydrat zeigen eine Behinderung des Auflösungsprozesses in Anwesenheit der Fließmittel. Die Ergebnisse lassen eine partielle Belegung der Halbhydratoberflächen mit Fließmittelmolekülen vermuten. Die veränderte Morphologie der Dihydratkristalle verweist auf eine selektive Belegung der Dihydratoberflächen mit Fließmittelmolekülen.
Die Untersuchungen zu Frost-Tau-Widerstand und Alkali-Zuschlag-Reaktionen an Gesteinen, Gesteinskörnungen sowie daraus hergestelltem Beton erfolgen jeweils mit und ohne Taumitteleinfluss. Neben Untersuchungen nach in Deutschland gebräuchlichen Normen und Richtlinien werden auch Prüfverfahren nach US-Standards und -Richtlinien einbezogen und kritisch analysiert, Modifikationsvorschläge unterbreitet sowie Klimawechsellagerungen und Auslagerungsversuche durchgeführt. Ziel war u.a. festzustellen, ob anhand von Prüfergebnissen an Gesteinskörnungen tatsächlich auf deren Dauerhaftigkeitsverhalten im Beton zu schließen ist. Im Ergebnis erwies sich der Washington Hydraulic Fracture Test als optimales Frostprüfverfahren. Eine Alkali-Carbontat-Reaktion kann theoretisch und praktisch ablaufen, war aber in Mörtel und Beton nicht nachweisbar. Mittels Klimawechsellagerung konnte die Prüfzeit für AKR-gefährdete Gesteine in Beton drastisch verkürzt werden. Zudem fördern alkalihaltige Taumittel eine AKR.
Die Einflüsse polymerer Zusätze auf die Ausbildung der Mikrostruktur im frühen Stadium der Erhärtung und auf die Eigenschaften, insbesondere die Dauerhaftigkeit der modifizierten Mörtel wurden erforscht. Es sollte die Frage beantwortet werden, ob durch die Modifizierung die Dauerhaftigkeit von Mörteln mehr verbessert werden kann, als dies durch übliche betontechnologische Maßnahmen möglich ist. Die Ausbildung der Mikrostruktur in den ersten 24 Stunden der Erhärtung wurde mit verschiedenen Methoden, u.a. mittels ESEM, untersucht. Es wurden Modellvorstellungen zur Ausbildung der organischen Matrix und der anorganischen Matrix entwickelt: Interaktionen sind Adsorptionsreaktionen, Agglomerationen und Behinderung der Hydratation. Es wurden Frisch- und Festmörteluntersuchungen beschrieben und interpretiert. Unterschiedliche Dauerhaftigkeitsuntersuchungen wurden durchgeführt und bewertet. Die Mikrostruktur der Festmörtel wurde hinsichtlich ihres Einflusses auf die Dauerhaftigkeit betrachtet.
El paisaje de la Cuenca Lechera Central Argentina: la huella de la producción sobre el territorio
(2022)
In recent times, the study of landscape heritage acquires value by virtue of becoming an alternative to rethink regional development, especially from the point of view of territorial planning. In this sense, the Central Argentine Dairy Basin (CADB) is presented as a space where the traces of different human projects have accumulated over centuries of occupation, which can be read as heritage. The impact of dairy farming and other productive activities has shaped the configuration of its landscape. The main hypothesis assumed that a cultural landscape would have been formed in the CADB, whose configuration would have depended to a great extent on the history of productive activities and their deployment over the territory, and this same history would hide the keys to its alternative.
The thesis approached the object of study from descriptive and cartographic methods that placed the narration of the history of territory and the resources of the landscape as a discursive axis. A series of intentional readings of the territory and its constituent parts pondered the layers of data that have accumulated on it in the form of landscape traces, with the help of an approach from complementary dimensions (natural, sociocultural, productive, planning). Furthermore, the intersection of historical sources was used in order to allow the construction of the territorial story and the detection of the origin of the landscape components. A meticulous cartographic work also helped to spatialise the set of phenomena and elements studied, and was reflected in a multiscalar scanning.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
Krankenhäuser sind heute äußerst komplexe Objekte, in denen komplizierte funktionale Anforderungen zusammen stoßen, die nur mit Hilfe einer sehr intensiven technischen Ausstattung zufrieden stellend gelöst werden können. Sie sind durch die medizintechnische Ausrüstung, die zum Teil sehr hohen hygienischen Anforderungen, die Patientenansprüche sowie die schärferen wirtschaftlichen Bedingungen gekennzeichnet. Gleichzeitig haben Krankenhäuser einen sehr hohen Energieverbrauch, der ein großes Einsparpotenzial beinhaltet, das vor dem Hintergrund der schlechteren Verfügbarkeit und der ökologischen Probleme des CO2-Ausstoßes durch die Verbrennung fossiler Brennstoffe sowie der Notwendigkeit einer gesicherten Energieversorgung eine zunehmende Bedeutung hat. Die energetische Struktur eines Gebäudes wird entscheidend in den frühen projekt- und Entwurfsphasen für die gesamte Lebensdauer des Gebäudes festgelegt. Der Architekt und andere Entscheider benötigen daher Instrumente, um diese Struktur einfach bestimmen und beurteilen zu können. Hierfür ist eine energetische Analyse und die Definition des Einflusspotenzials des architektonischen und baukonstruktiven Entwurfes auf den Energieverbrauch notwendig. Darauf aufbauend werden spezifische flächenbezogene Energieaufwandszahlen gebildet, wodurch eine energetische Beurteilung unabhängig von konkreten Entwürfen möglich wird. Durch die Definition von optimalen energetischen Strukturen einzelner Referenzbereiche von Krankenhäusern wird ein Maßstab geschaffen, an dem die tatsächlichen Entwürfe gemessen werden können, um daraus dimensionslose flächenbezogene Energieaufwandszahlen bilden zu können. Diese stellen Kennzahlen für die energetische Struktur von Entwürfen dar, wodurch eine Vergleichbarkeit sowohl bei einzelnen Bereichen des Krankenhauses wie auch beim gesamten Gebäude hergestellt wird. Energetisch vorteilhafter ist eine flächige Gebäudestruktur mit einer direkten Zuordnung der Technikzentralen zu den angeschlossenen Versorgungsbereichen. Die Schaffung von optimierten Installationsbedingungen ermöglicht eine energieoptimierte Struktur der Technischen Ausrüstung und ist beim Entwurf zu berücksichtigen.