Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Year of publication
- 2004 (220)
- 2003 (197)
- 2006 (173)
- 1997 (165)
- 2015 (125)
- 2020 (123)
- 2010 (114)
- 2008 (112)
- 2005 (106)
- 2012 (105)
- 2000 (100)
- 2022 (94)
- 2011 (91)
- 2021 (88)
- 2013 (85)
- 2014 (85)
- 2016 (70)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2017 (58)
- 2018 (58)
- 2007 (53)
- 1983 (49)
- 2009 (49)
- 1979 (36)
- 1976 (29)
- 2001 (24)
- 2002 (24)
- 1993 (23)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
Design-related reassessment of structures integrating Bayesian updating of model safety factors
(2022)
In the semi-probabilistic approach of structural design, the partial safety factors are defined by considering some degree of uncertainties to actions and resistance, associated with the parameters’ stochastic nature. However, uncertainties for individual structures can be better examined by incorporating measurement data provided by sensors from an installed health monitoring scheme. In this context, the current study proposes an approach to revise the partial safety factor for existing structures on the action side, γE by integrating Bayesian model updating. A simple numerical example of a beam-like structure with artificially generated measurement data is used such that the influence of different sensor setups and data uncertainties on revising the safety factors can be investigated. It is revealed that the health monitoring system can reassess the current capacity reserve of the structure by updating the design safety factors, resulting in a better life cycle assessment of structures. The outcome is furthermore verified by analysing a real life small railway steel bridge ensuring the applicability of the proposed method to practical applications.
Determining the earthquake hazard of any settlement is one of the primary studies for reducing earthquake damage. Therefore, earthquake hazard maps used for this purpose must be renewed over time. Turkey Earthquake Hazard Map has been used instead of Turkey Earthquake Zones Map since 2019. A probabilistic seismic hazard was performed by using these last two maps and different attenuation relationships for Bitlis Province (Eastern Turkey) were located in the Lake Van Basin, which has a high seismic risk. The earthquake parameters were determined by considering all districts and neighborhoods in the province. Probabilistic seismic hazard analyses were carried out for these settlements using seismic sources and four different attenuation relationships. The obtained values are compared with the design spectrum stated in the last two earthquake maps. Significant differences exist between the design spectrum obtained according to the different exceedance probabilities. In this study, adaptive pushover analyses of sample-reinforced concrete buildings were performed using the design ground motion level. Structural analyses were carried out using three different design spectra, as given in the last two seismic design codes and the mean spectrum obtained from attenuation relationships. Different design spectra significantly change the target displacements predicted for the performance levels of the buildings.
The seismic vulnerability assessment of existing reinforced concrete (RC) buildings is a significant source of disaster mitigation plans and rescue services. Different countries evolved various Rapid Visual Screening (RVS) techniques and methodologies to deal with the devastating consequences of earthquakes on the structural characteristics of buildings and human casualties. Artificial intelligence (AI) methods, such as machine learning (ML) algorithm-based methods, are increasingly used in various scientific and technical applications. The investigation toward using these techniques in civil engineering applications has shown encouraging results and reduced human intervention, including uncertainties and biased judgment. In this study, several known non-parametric algorithms are investigated toward RVS using a dataset employing different earthquakes. Moreover, the methodology encourages the possibility of examining the buildings’ vulnerability based on the factors related to the buildings’ importance and exposure. In addition, a web-based application built on Django is introduced. The interface is designed with the idea to ease the seismic vulnerability investigation in real-time. The concept was validated using two case studies, and the achieved results showed the proposed approach’s potential efficiency
In the wake of the news industry’s digitization, novel organizations that differ considerably from traditional media firms in terms of their functional roles and organizational practices of media work are emerging. One new type is the field repair organization, which is characterized by supporting high‐quality media work to compensate for the deficits (such as those which come from cost savings and layoffs) which have become apparent in legacy media today. From a practice‐theoretical research perspective and based on semi‐structured interviews, virtual field observations, and document analysis, we have conducted a single case study on Science Media Center Germany (SMC), a unique non‐profit news start‐up launched in 2016 in Cologne, Germany. Our findings show that, in addition to field repair activities, SMC aims to facilitate progress and innovation in the field, which we refer to as field advancement. This helps to uncover emerging needs and anticipates problems before they intensify or even occur, proactively providing products and tools for future journalism. This article contributes to our understanding of novel media organizations with distinct functions in the news industry, allowing for advancements in theory on media work and the organization of journalism in times of digital upheaval.
Paper-based data acquisition and manual transfer between incompatible software or data formats during inspections of bridges, as done currently, are time-consuming, error-prone, cumbersome, and lead to information loss. A fully digitized workflow using open data formats would reduce data loss, efforts, and the costs of future inspections. On the one hand, existing studies proposed methods to automatize data acquisition and visualization for inspections. These studies lack an open standard to make the gathered data available for other processes. On the other hand, several studies discuss data structures for exchanging damage information among different stakeholders. However, those studies do not cover the process of automatic data acquisition and transfer. This study focuses on a framework that incorporates automatic damage data acquisition, transfer, and a damage information model for data exchange. This enables inspectors to use damage data for subsequent analyses and simulations. The proposed framework shows the potentials for a comprehensive damage information model and related (semi-)automatic data acquisition and processing.
This dataset presents the numerical analysis of the heat and moisture transport through a facade equipped with a living wall system designated for greywater treatment. While such greening systems provide many environmental benefits, they involve pumping large quantities of water onto the wall assembly, which can increase the risk of moisture in the wall as well as impaired energetic performance due to increased thermal conductivity with increased moisture content in the building materials. This dataset was acquired through numerical simulation using the coupling of two simulation tools, namely Envi-Met and Delphin. This coupling was used to include the complex role the plants play in shaping the near-wall environmental parameters in the hygrothermal simulations. Four different wall assemblies were investigated, each assembly was assessed twice: with and without the living wall. The presented data include the input and output parameters of the simulations, which were presented in the co-submitted article [1].
Der Aufruf, die Begriffe Stadt und Kritik in das Zentrum einer Debatte zu stellen, bietet die große Chance, uns weit über begriffliche Klärungen unseres gemeinsamen Arbeitsgegenstands hinaus – die ja auch für sich selbst sehr fruchtbar sein können – über die Funktion zu verständigen, die wir in der Gesellschaft ausüben, wenn wir räumliche Planung praktizieren, erforschen und lehren. Da in der Bundesrepublik nicht nur ein großer Bedarf, sondern auch eine beträchtliche Nachfrage nach öffentlicher Planung besteht und die planungsbezogenen Wissenschaften sich eines insgesamt stabilen institutionellen Standes erfreuen, laufen wir Gefahr, die gesellschaftspolitische Legitimation von Berufsfeld und Wissenschaft zu vernachlässigen, sie als gegeben zu behandeln. Wir müssen uns ja kaum rechtfertigen.
Der vorliegende Handlungsleitfaden hilft zivilgesellschaftlichen Organisationen und staatlichen Einrichtungen bei der Installation eines anonymen Behandlungs- oder Krankenschein für Menschen ohne Krankenversicherung. Dabei bündelt sich hier der Erfahrungsschatz verschiedener Initiativen aus dem gesamten Bundesgebiet.
In ten chapters, this thesis presents information retrieval technology which is tailored to the research activities that arise in the context of corpus-based digital humanities projects.
The presentation is structured by a conceptual research process that is introduced in Chapter 1. The process distinguishes a set of five research activities: research question generation, corpus acquisition, research question modeling, corpus annotation, and result dissemination. Each of these research activities elicits different information retrieval tasks with special challenges, for which algorithmic approaches are presented after an introduction of the core information retrieval concepts in Chapter 2.
A vital concept in many of the presented approaches is the keyquery paradigm introduced in Chapter 3, which represents an operation that returns relevant search queries in response to a given set of input documents. Keyqueries are proposed in Chapter 4 for the recommendation of related work, and in Chapter 5 for improving access to aspects hidden in the long tail of search result lists.
With pseudo-descriptions, a document expansion approach is presented in Chapter 6. The approach improves the retrieval performance for corpora where only bibliographic meta-data is originally available. In Chapter 7, the keyquery paradigm is employed to generate dynamic taxonomies for corpora in an unsupervised fashion.
Chapter 8 turns to the exploration of annotated corpora, and presents scoped facets as a conceptual extension to faceted search systems, which is particularly useful in exploratory search settings. For the purpose of highlighting the major topical differences in a sequence of sub-corpora, an algorithm called topical sequence profiling is presented in Chapter 9.
The thesis concludes with two pilot studies regarding the visualization of (re)search results for the means of successful result dissemination: a metaphoric interpretation of the information nutrition label, as well as the philosophical bodies, which are 3D-printed search results.
Multi-criteria decision analysis (MCDA) is an established methodology to support the decision-making of multi-objective problems. For conducting an MCDA, in most cases, a set of objectives (SOO) is required, which consists of a hierarchical structure comprised of objectives, criteria, and indicators. The development of an SOO is usually based on moderated development processes requiring high organizational and cognitive effort from all stakeholders involved. This article proposes elementary interactions as a key paradigm of an algorithm-driven development process for an SOO that requires little moderation efforts. Elementary interactions are self-contained information requests that may be answered with little cognitive effort. The pairwise comparison of elements in the well-known analytical hierarchical process (AHP) is an example of an elementary interaction. Each elementary interaction in the development process presented contributes to the stepwise development of an SOO. Based on the hypothesis that an SOO may be developed exclusively using elementary interactions (EIs), a concept for a multi-user platform is proposed. Essential components of the platform are a Model Aggregator, an Elementary Interaction Stream Generator, a Participant Manager, and a Discussion Forum. While the latter component serves the professional exchange of the participants, the first three components are intended to be automatable by algorithms. The platform concept proposed has been evaluated partly in an explorative validation study demonstrating the general functionality of the algorithms outlined. In summary, the platform concept suggested demonstrates the potential to ease SOO development processes as the platform concept does not restrict the application domain; it is intended to work with little administration moderation efforts, and it supports the further development of an existing SOO in the event of changes in external conditions. The algorithm-driven development of SOOs proposed in this article may ease the development of MCDA applications and, thus, may have a positive effect on the spread of MCDA applications.
Operator Calculus Approach to Comparison of Elasticity Models for Modelling of Masonry Structures
(2022)
The solution of any engineering problem starts with a modelling process aimed at formulating a mathematical model, which must describe the problem under consideration with sufficient precision. Because of heterogeneity of modern engineering applications, mathematical modelling scatters nowadays from incredibly precise micro- and even nano-modelling of materials to macro-modelling, which is more appropriate for practical engineering computations. In the field of masonry structures, a macro-model of the material can be constructed based on various elasticity theories, such as classical elasticity, micropolar elasticity and Cosserat elasticity. Evidently, a different macro-behaviour is expected depending on the specific theory used in the background. Although there have been several theoretical studies of different elasticity theories in recent years, there is still a lack of understanding of how modelling assumptions of different elasticity theories influence the modelling results of masonry structures. Therefore, a rigorous approach to comparison of different three-dimensional elasticity models based on quaternionic operator calculus is proposed in this paper. In this way, three elasticity models are described and spatial boundary value problems for these models are discussed. In particular, explicit representation formulae for their solutions are constructed. After that, by using these representation formulae, explicit estimates for the solutions obtained by different elasticity theories are obtained. Finally, several numerical examples are presented, which indicate a practical difference in the solutions.
It is widely accepted that most people spend the majority of their lives indoors. Most individuals do not realize that while indoors, roughly half of heat exchange affecting their thermal comfort is in the form of thermal infrared radiation. We show that while researchers have been aware of its thermal comfort significance over the past century, systemic error has crept into the most common evaluation techniques, preventing adequate characterization of the radiant environment. Measuring and characterizing radiant heat transfer is a critical component of both building energy efficiency and occupant thermal comfort and productivity. Globe thermometers are typically used to measure mean radiant temperature (MRT), a commonly used metric for accounting for the radiant effects of an environment at a point in space. In this paper we extend previous field work to a controlled laboratory setting to (1) rigorously demonstrate that existing correction factors used in the American Society of Heating Ventilation and Air-conditioning Engineers (ASHRAE) Standard 55 or ISO7726 for using globe thermometers to quantify MRT are not sufficient; (2) develop a correction to improve the use of globe thermometers to address problems in the current standards; and (3) show that mean radiant temperature measured with ping-pong ball-sized globe thermometers is not reliable due to a stochastic convective bias. We also provide an analysis of the maximum precision of globe sensors themselves, a piece missing from the domain in contemporary literature.
Data acquisition systems and methods to capture high-resolution images or reconstruct 3D point clouds of existing structures are an effective way to document their as-is condition. These methods enable a detailed analysis of building surfaces, providing precise 3D representations. However, for the condition assessment and documentation, damages are mainly annotated in 2D representations, such as images, orthophotos, or technical drawings, which do not allow for the application of a 3D workflow or automated comparisons of multitemporal datasets. In the available software for building heritage data management and analysis, a wide range of annotation and evaluation functions are available, but they also lack integrated post-processing methods and systematic workflows. The article presents novel methods developed to facilitate such automated 3D workflows and validates them on a small historic church building in Thuringia, Germany. Post-processing steps using photogrammetric 3D reconstruction data along with imagery were implemented, which show the possibilities of integrating 2D annotations into 3D documentations. Further, the application of voxel-based methods on the dataset enables the evaluation of geometrical changes of multitemporal annotations in different states and the assignment to elements of scans or building models. The proposed workflow also highlights the potential of these methods for condition assessment and planning of restoration work, as well as the possibility to represent the analysis results in standardised building model formats.
This dataset consists mainly of two subsets. The first subset includes measurements and simulation data conducted to validate the simulation tool ENVI-met. The measurements were conducted at the campus of the Bauhaus-University Weimar in Weimar, Germany and consisted of recording exterior air temperature, globe temperature, relative humidity, and wind velocity at 1.5 m at four points on four different days. After the measurements, the geometry of the campus was modelled and meshed; the simulations were conducted using the weather data of the measurements days with the aim of investigating the accuracy of the model.
The second data subset consists of ENVI-met simulation data of the potential of facade greening in improving the outdoor environment and the indoor air temperature during heatwaves in Central European cities. The data consist of the boundary conditions and the simulation output of two simulation models: with and without facade greening. The geometry of the models corresponded to a residential buildings district in Stuttgart, Germany. The simulation output consisted of exterior air temperature, mean radiant temperature, relative humidity, and wind velocity at 12 different probe points in the model in addition to the indoor air temperature of an exemplary building. The dataset presents both vertical profiles of the probed parameters as well as the time series output of the five-day simulation duration. Both data subsets correspond to the investigations presented in the co-submitted article [1].
The fracture of microcapsules is an important issue to release the healing agent for healing the cracks in encapsulation-based self-healing concrete. The capsular clustering generated from the concrete mixing process is considered one of the critical factors in the fracture mechanism. Since there is a lack of studies in the literature regarding this issue, the design of self-healing concrete cannot be made without an appropriate modelling strategy. In this paper, the effects of microcapsule size and clustering on the fractured microcapsules are studied computationally. A simple 2D computational modelling approach is developed based on the eXtended Finite Element Method (XFEM) and cohesive surface technique. The proposed model shows that the microcapsule size and clustering have significant roles in governing the load-carrying capacity and the crack propagation pattern and determines whether the microcapsule will be fractured or debonded from the concrete matrix. The higher the microcapsule circumferential contact length, the higher the load-carrying capacity. When it is lower than 25% of the microcapsule circumference, it will result in a greater possibility for the debonding of the microcapsule from the concrete. The greater the core/shell ratio (smaller shell thickness), the greater the likelihood of microcapsules being fractured.
Das Fahrrad ist ein Medium sozialer Veränderung. Seine vielfältigen utopischen Potenziale ergeben sich nicht zuletzt aus seinen ebenso vielfältigen und häufig übersehenen medialen Qualitäten: Es vermittelt, es verbindet, es übersetzt; es modifiziert Wahrnehmung und Organisation von Raum und Zeit, von Körpern und von Sozialität. Umgekehrt kann auch das medienwissenschaftliche Denken fahrradmedial verändert werden. Das Fahrrad ist nicht nur Medium des sozialen und ökologischen Wandels: Radfahren eröffnet Perspektiven, verändert Räume, lässt neue Relationen entstehen und teilt Handlungsmacht neu auf.
Fahrradutopien denkt vom Fahrrad aus und ergänzt dabei bestehende Ansätze zur Mobilitätsforschung um medienkulturwissenschaftliche Perspektiven. Die Beiträge verbinden Medienwissenschaften und Forschungen zu Fahrradaktivismus mit der Liebe zum Radfahren. Fokussiert werden Fahrradfilme und -vlogs, Verkehr und Infrastrukturen, Virtuelle Realität und Fahrrad, Fahrradkollektive und Fahrradfeminismus.
Zugang zu gesunder und nachhaltiger Ernährung ist in Berlin nicht für alle Menschen eine Selbstverständlichkeit. Um Ernährung für alle gewährleisten zu können, braucht es einen Wandel des Ernährungssystems in Berlin, der eine ökologische, klima- und sozialgerechte Nahrungsproduktion und Verteilung für alle Menschen in der Stadt ermöglicht.
Einen Beitrag um die Ernährung in der Stadt gerechter und nachhaltiger zu gestalten kann ein sogenannter LebensMittelPunkt (LMP) leisten.
LebensMittelPunkte entstehen meist aus ehrenamtlichen Initiativen, können aber auch in Zusammenarbeit mit städtischen Verwaltungen etabliert werden. Eine Zusammenarbeit zwischen zivilgesellschaftlichen Organisationen und Verwaltungen kann dabei Potenziale und Ressourcen freisetzen.
Dieser Leitfaden soll ernährungspolitischen Initiativen und Vereinen aus der Zivilgesellschaft sowie kommunalen oder bezirklichen Verwaltungen in Berlin – und darüber hinaus – Empfehlungen geben, wie ein LebensMittelPunkt in einer gemeinsamen Kooperation aufgebaut werden kann.
Im Heft zum zehnjährigen Jubiläum von sub\urban mit dem Themenschwerpunkt „sub\x: Verortungen, Entortungen" veröffentlichen wir eine Debatte, die von den bisherigen in unserer Zeitschrift in dieser Rubrik geführten textlichen Diskussionen abweicht. Im Vorfeld der Planungen für unsere Jubiläumsausgabe haben wir die aktuellen Mitglieder unseres wissenschaftlichen Beirats darum gebeten, zwei grundlegende Fragen von kritischer Stadtforschung in kurzen Beiträgen zu diskutieren: Was ist Stadt? Was ist Kritik?
Das Ziel der Arbeit ist, eine mögliche Verbesserung der Güte der Lebensdauervorhersage für Gusseisenwerkstoffe mit Kugelgraphit zu erreichen, wobei die Gießprozesse verschiedener Hersteller berücksichtigt werden.
Im ersten Schritt wurden Probenkörper aus GJS500 und GJS600 von mehreren Gusslieferanten gegossen und daraus Schwingproben erstellt.
Insgesamt wurden Schwingfestigkeitswerte der einzelnen gegossenen Proben sowie der Proben des Bauteils von verschiedenen Gussherstellern weltweit entweder durch direkte Schwingversuche oder durch eine Sammlung von Betriebsfestigkeitsversuchen bestimmt.
Dank der metallografischen Arbeit und Korrelationsanalyse konnten drei wesentliche Parameter zur Bestimmung der lokalen Dauerfestigkeit festgestellt werden: 1. statische Festigkeit, 2. Ferrit- und Perlitanteil der Mikrostrukturen und 3. Kugelgraphitanzahl pro Flächeneinheit.
Basierend auf diesen Erkenntnissen wurde ein neues Festigkeitsverhältnisdiagramm (sogenanntes Sd/Rm-SG-Diagramm) entwickelt.
Diese neue Methodik sollte vor allem ermöglichen, die Bauteildauerfestigkeit auf der Grundlage der gemessenen oder durch eine Gießsimulation vorhersagten lokalen Zugfestigkeitswerte sowie Mikrogefügenstrukturen besser zu prognostizieren.
Mithilfe der Versuche sowie der Gießsimulation ist es gelungen, unterschiedliche Methoden der Lebensdauervorhersage unter Berücksichtigung der Herstellungsprozesse weiterzuentwickeln.
Isogeometric analysis (IGA) is a numerical method for solving partial differential equations (PDEs), which was introduced with the aim of integrating finite element analysis with computer-aided design systems. The main idea of the method is to use the same spline basis functions which describe the geometry in CAD systems for the approximation of solution fields in the finite element method (FEM). Originally, NURBS which is a standard technology employed in CAD systems was adopted as basis functions in IGA but there were several variants of IGA using other technologies such as T-splines, PHT splines, and subdivision surfaces as basis functions. In general, IGA offers two key advantages over classical FEM: (i) by describing the CAD geometry exactly using smooth, high-order spline functions, the mesh generation process is simplified and the interoperability between CAD and FEM is improved, (ii) IGA can be viewed as a high-order finite element method which offers basis functions with high inter-element continuity and therefore can provide a primal variational formulation of high-order PDEs in a straightforward fashion. The main goal of this thesis is to further advance isogeometric analysis by exploiting these major advantages, namely precise geometric modeling and the use of smooth high-order splines as basis functions, and develop robust computational methods for problems with complex geometry and/or complex multi-physics.
As the first contribution of this thesis, we leverage the precise geometric modeling of isogeometric analysis and propose a new method for its coupling with meshfree discretizations. We exploit the strengths of both methods by using IGA to provide a smooth, geometrically-exact surface discretization of the problem domain boundary, while the Reproducing Kernel Particle Method (RKPM) discretization is used to provide the volumetric discretization of the domain interior. The coupling strategy is based upon the higher-order consistency or reproducing conditions that are directly imposed in the physical domain. The resulting coupled method enjoys several favorable features: (i) it preserves the geometric exactness of IGA, (ii) it circumvents the need for global volumetric parameterization of the problem domain, (iii) it achieves arbitrary-order approximation accuracy while preserving higher-order smoothness of the discretization. Several numerical examples are solved to show the optimal convergence properties of the coupled IGA–RKPM formulation, and to demonstrate its effectiveness in constructing volumetric discretizations for complex-geometry objects.
As for the next contribution, we exploit the use of smooth, high-order spline basis functions in IGA to solve high-order surface PDEs governing the morphological evolution of vesicles. These governing equations are often consisted of geometric PDEs, high-order PDEs on stationary or evolving surfaces, or a combination of them. We propose an isogeometric formulation for solving these PDEs. In the context of geometric PDEs, we consider phase-field approximations of mean curvature flow and Willmore flow problems and numerically study the convergence behavior of isogeometric analysis for these problems. As a model problem for high-order PDEs on stationary surfaces, we consider the Cahn–Hilliard equation on a sphere, where the surface is modeled using a phase-field approach. As for the high-order PDEs on evolving surfaces, a phase-field model of a deforming multi-component vesicle, which consists of two fourth-order nonlinear PDEs, is solved using the isogeometric analysis in a primal variational framework. Through several numerical examples in 2D, 3D and axisymmetric 3D settings, we show the robustness of IGA for solving the considered phase-field models.
Finally, we present a monolithic, implicit formulation based on isogeometric analysis and generalized-alpha time integration for simulating hydrodynamics of vesicles according to a phase-field model. Compared to earlier works, the number of equations of the phase-field model which need to be solved is reduced by leveraging high continuity of NURBS functions, and the algorithm is extended to 3D settings. We use residual-based variational multi-scale method (RBVMS) for solving Navier–Stokes equations, while the rest of PDEs in the phase-field model are treated using a standard Galerkin-based IGA. We introduce the resistive immersed surface (RIS) method into the formulation which can be employed for an implicit description of complex geometries using a diffuse-interface approach. The implementation highlights the robustness of the RBVMS method for Navier–Stokes equations of incompressible flows with non-trivial localized forcing terms including bending and tension forces of the vesicle. The potential of the phase-field model and isogeometric analysis for accurate simulation of a variety of fluid-vesicle interaction problems in 2D and 3D is demonstrated.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridynamic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dynamic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three distinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
Das Ziel dieser Arbeit war es, neuartige Fließmittel auf Basis von Stärke als nachwachsenden Rohstoff zu synthetisieren und die Wechselwirkung mit Portlandzement zu charakterisieren. Die Notwendigkeit, Alternativen zu synthetischen Zusatzmittel zu erforschen, ergibt sich aus der benötigten Menge zur Verarbeitung von ca. 4,1 Gt/a, wobei ca. 85 % der Zusatzmittel auf die Fließmittel entfallen.
Um Fließmittel aus Stärke zu synthetisieren, wurden drei Basisstärken unterschiedlicher Herkunft verwendet. Es wurde eine Maniokstärke mit einer niedrigen Molekularmasse und eine Weizenstärke mit einer hohen Molekularmasse verwendet. Darüber hinaus wurde eine Kartoffelstärke mit einer mittleren Molekularmasse, die ein Abfallprodukt der kartoffelverarbeitenden Industrie darstellt, genutzt. Die Stärkefließmittel wurden durch chemische Modifikation in einem zweistufigen Prozess synthetisiert. Im ersten Schritt wurde das Molekulargewicht der Weizen- und Kartoffelstärke durch säurehydrolytischen Abbau verringert. Für die kurzkettige Maniokstärke war eine Degradation der Molekularmasse nicht notwendig. Im zweiten Syntheseschritt wurden anionische Ladungen durch das Versetzen der degradierten Stärken und Maniokstärke mit Natriumvinylsulfonat in die Stärkemoleküle eingeführt.
Beurteilung der Synthesemethode zur Erzeugung von Stärkefließmitteln
In diesem Zusammenhang sollten molekulare Parameter der Stärkefließmittel gezielt eingestellt werden, um eine Fließwirkung im Portlandzement zu erhalten. Insbesondere die Molekularmasse und die Menge anionischer Ladungen sollte variiert werden, um Abhängigkeiten mit der Dispergierleistung zu identifizieren.
1. Es konnte durch GPC-Messungen gezeigt werden, dass die Molekularmasse der langkettigen Weizenstärke durch die gewählten Modifizierungsbedingungen zum säurehydrolytischen Abbau verringert werden konnte. Durch Variation der säurehydrolytischen Bedingungen wurden 4 degradierte Weizenstärken erzeugt, die eine Reduzierung der Molekularmasse um 27,5 – 43 % aufwiesen. Die Molekularmasse der Kartoffelstärke konnte durch säurehydrolytischen Abbau um ca. 26 % verringert werden.
2. Durch PCD-Messungen wurde gezeigt, dass anionische Ladungen durch Sulfoethylierung der freien Hydroxylgruppen in die degradierten Stärken eingeführt werden konnten. Durch Variation der Dauer der Sulfoethylierung konnte die Menge der anionischen Ladungen gesteuert und gezielt variiert werden, so dass Stärkefließmittel mit steigender Ladungsmenge in folgender Reihenfolge synthetisiert wurden:
W-3 < W-2 < K-1 < W¬-4 < W¬1 < M-1
Im Ergebnis der chemischen Modifizierung konnten 6 Stärkefließmittel mit variierten Molekularmassen und anionischen Ladungen erzeugt werden. Es konnte gezeigt werden, dass die Herkunft der Stärke für die chemische Modifizierung unerheblich ist. Die Fließmittel lagen synthesebedingt als basische, wässrige Suspensionen mit Wirkstoffgehalten im Bereich von 23,5 – 50 % vor.
Beurteilung der Dispergierleistung der synthetisierten Stärkefließmittel
Die Dispergierperformance wurde durch rheologische Experimente mit einem Rotationsviskosimeter erfasst. Dabei wurden der Einfluss auf die Fließkurven und die Viskositätskurven betrachtet. Durch Vergleich der Dispergierleistung mit einem Polykondensat- und einem PCE-Fließmittel konnte eine Einordnung und Bewertung der Fließmittel vorgenommen werden.
3. Die rheologische Experimente haben gezeigt, dass die Stärkefließmittel eine vergleichbar hohe Dispergierleistung aufweisen, wie das zum Vergleich herangezogen PCE-Fließmittel. Darüber hinaus zeigte sich, dass die Fließwirkung der 6 Stärkefließmittel gegenüber dem Polykondensatfließmittel deutlich höher ist. Das aus der Literatur bekannte Einbrechen der Dispergierleistung der Polykondensat-fließmittel bei w/z-Werten < 0,4 konnte bestätigt werden.
4. Alle 6 Stärkefließmittel führten zu einer Verringerung der Fließgrenze und der dynamischen Viskosität des Zementleimes bei einem w/z-Wert von 0,35.
5. Der Vergleich der Dispergierleistung der Stärkefließmittel untereinander zeigte, dass die anionische Ladungsmenge einen Schlüsselparameter darstellt. Die Stärkefließmittel M-1, K-1, W-1 und W-4 mit anionischen Ladungsmengen > 6 C/g zeigten die höchste Dispergier¬performance. Die vergleichend herangezogenen klassischen Fließmittel wiesen anionische Ladungsmengen im Bereich von 1,2 C/g (Polycondensat) und 1,6 C/g (PCE) auf. Die Molekularmasse schien für die Dispergierleistung zunächst unerheblich zu sein. Aus diesem Grund wurde die Basisweizenstärke erneut chemisch modifiziert, indem anionische Ladungen eingeführt wurden, ohne die Molekularmasse jedoch zu verringern. Das Stärkederivat wies verdickende Eigenschaften im Zementleim auf. Daraus konnte geschlussfolgert werden, dass eine definierte Grenzmolekularmasse (150.000 Da) existiert, die unterschritten werden muss, um Fließmittel aus Stärke zu erzeugen. Des Weiteren zeigen die Ergebnisse, dass durch die chemische Modifizierung sowohl Fließmittel als auch Verdicker aus Stärke erzeugt werden können.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des Portlandzementes
Aus der Literatur ist bekannt, dass Fließmittel die Hydratation von Portlandzement maßgeblich beeinflussen können. Aus diesem Grund wurden kalorimetrische und konduktometrische Untersuchungen an Zementsuspensionen, die mit den synthetisierten Stärkefließmitteln versetzt wurden, durchgeführt. Ergänzt wurden die Untersuchungen durch Porenlösungsanalysen zu verschiedenen Zeitpunkten der Hydratation.
6. Die kalorimetrischen Untersuchungen zur Beeinflussung der Hydratation des Portlandzementes zeigten, dass die dormante Periode durch die Zugabe der Stärkefließmittel z.T. erheblich verlängert wird. Es konnte gezeigt werden, dass, je höher die anionische Ladungsmenge der Stärkefließmittel ist, desto länger dauert die dormante Periode andauert. Darüber hinaus zeigte sich, dass eine niedrige Molekularmasse der Stärkefließmittel die Verlängerung der dormanten Periode begünstigt.
7. Durch die konduktometrischen Untersuchungen konnte gezeigt werden, dass alle Stärkefließmittel die Dauer des freien- und diffusionskontrollierten CSH-Phasenwachstums verlangsamen. Insbesondere die Ausfällung des Portlandits, welches mit dem Erstarrungsbeginn korreliert, erfolgt zu deutlich späteren Zeitpunkten. Des Weiteren korrelierten die konduktometrischen Untersuchungen mit der zeitlichen Entwicklung der Calciumkonzentration der Porenlösungen. Der Vergleich der Stärkefließmittel untereinander zeigte, dass die Molekularmasse ein Schlüsselparameter ist. Das Stärkefließmittel M-1 mit der geringsten Molekularmasse, welches geringe Mengen kurzkettiger Anhydroglucoseeinheiten aufweist, verzögert die Hydratphasenbildung am stärksten. Diese Wirkung ist vergleichbar mit der von Zuckern. Darüber hinaus deuteten die Ergebnisse daraufhin, dass die Stärkefließmittel auf den ersten Hydratationsprodukten adsorbieren, wodurch die Hydratphasenbildung verlangsamt wird.
Die kalorimetrischen und konduktometrischen Daten sowie die Ergebnisse der Porenlösungsanalytik des Zementes, erforderten eine genauere Betrachtung der Beeinflussung der Hydratation der Klinkerphasen C3A und C3S, durch die Stärkefließmittel. Demzufolge wurden die Untersuchungen mit den Klinkerphasen C3A und C3S in Analogie zum Portlandzement durchgeführt.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des C3A
Während die kalorimetrischen Untersuchungen zur C3A-Hydratation eine Tendenz zur verlangsamten Hydratphasenbildung durch die Stärkefließmittel aufzeigten, lieferten die konduktometrischen Ergebnisse grundlegende Erkenntnisse zur Beeinflussung der C3A-Hydratation. Das Stadium I der C3A-Hydratation ist durch einen Abfall der elektrischen Leitfähigkeit geprägt. Dies korreliert mit dem Absinken der Calciumionenkonzentration und dem Anstieg der Aluminiumionenkonzentration in der Porenlösung der C3A-Suspensionen. Im Anschluss an das Stadium I bildet sich ein Plateau in den elektrischen Leitfähigkeitskurven aus.
8. Es konnte gezeigt werden, dass die Stärkefließmittel das Stadium I der C3A-Hydratation, d.h. die Auflösung und Bildung erster Calciumaluminathydrate verlangsamen. Insbesondere die Stärkefließmittel mit höherer Molekularmasse erhöhten die Dauer des Stadium I. Das Stadium II wird durch die Stärkefließmittel in folgender Reihenfolge am stärksten verlängert: M-1 > W-3 > K-1 > W-2 ≥ W-4 und verdeutlicht, dass keine Abhängigkeit von der anionischen Ladungsmenge identifiziert werden konnte. Die Ergebnisse zeigten, dass speziell die kurzkettige Stärke M-1, das Stadium II länger aufrechterhalten.
9. Das Stadium III und IV der C3A-Hydratation wird insbesondere durch die Stärkefließmittel mit höherer Molekularmasse verlängert.
Die Ergebnisse der Porenlösungsanalytik korrelieren mit den Ergebnissen der elektrischen Leitfähigkeit. Speziell die zeitlichen Verläufe der Calciumionenkonzentration bildeten die Verläufe der Konduktivitätskurven der C3A-Hydratation mit großer Übereinstimmung ab.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des C3S
Die Ergebnisse der kalorimetrischen Untersuchungen zur Beeinflussung der C3S-Hydratation durch die Stärkefließmittel zeigen, dass diese maßgeblich verlangsamt wird. Das Maximum des Haupthydratationspeaks wird zu späteren Zeiten verschoben und auch die Höhe des Maximums wird deutlich verringert. Durch die konduktometrischen Experimente wurde aufgeklärt, welche Stadien der C3S-Hydrataion beeinflusst wurden.
10. Es konnte gezeigt werden, dass sowohl die Menge der eingebrachten anionischen Ladungen als auch das Vorhandensein sehr kleiner Stärkefließmittelmoleküle (Zucker), Schlüsselparameter der verzögerten Hydratationskinetik des C3S sind. Der grundlegende Mechanismus der Hydratationsverzögerung beruht auf einer Kombination aus verminderter CSH-Keimbildung und Adsorptionsprozessen auf den ersten gebildeten CSH-Phasen der C3S-Partikel.
Beurteilung des Adsorptionsverhaltens am Zement, C3A und C3S
Die Bestimmung des Adsorptionsverhaltens der Stärkefließmittel erfolgte mit der Phenol-Schwefelsäure-Methode an Zement,- C3A- und C3S-Suspensionen. Durch den Vergleich der Adsorptionsraten und Adsorptionsmengen in Abhängigkeit von den molekularen Parametern der Stärkefließmittel wurde ein Wechselwirkungsmodell identifiziert.
11. Die Ursache für die hohe Dispergierleistung der Stärkefließmittel liegt in Adsorptionsprozessen an den ersten gebildeten Hydratphasen des Zementes begründet. Die Molekularmasse der Stärkefließmittel ist ein Schlüsselparameter der entscheidend für den Mechanismus der Adsorption ist. Während anionische, langkettige Stärken an mehreren Zementpartikeln gleichzeitig adsorbieren und für eine Vernetzung der Zementpartikel untereinander sorgen (Verdickerwirkung), adsorbieren kurzkettige anionische Stärken lediglich an den ersten gebildeten Hydratphasen der einzelnen Zementpartikel und führen zu elektrostatischer Abstoßung (Fließmittelwirkung).
12. Es konnte gezeigt werden, dass die Stärkefließmittel mit geringerem Molekulargewicht bei höheren Konzentrationen an den Hydratphasen des Zementes adsorbieren. Die Stärkefließmittel mit höherer Molekularmasse erreichen bei einer Zugabemenge von 0,7 % ein Plateau. Daraus wird geschlussfolgert, dass die größeren Fließmittelmoleküle einen erhöhten Platzbedarf erfordern und zur Absättigung der hydratisierenden Oberflächen bei geringeren Zugabemengen führen. Darüber hinaus konnte gezeigt werden, dass die Stärkefließmittel mit höherer anionischer Ladungsmenge zu höheren Adsorptionsmengen auf den Zement-, C3A- und C3S-Partikeln führen.
13. Die Adsorptionsprozesse finden an den ersten gebildeten Hydratphasen der C3A-Partikel statt, wodurch sowohl die Auflösung des C3A als auch die Bildung der Calciumhydroaluminate verlangsamt wird. Darüber hinaus wurde festgestellt, dass die Verlangsamung des freien- und diffusionskontrollierten Hydratphasenwachstums des C3S, durch die Adsorption der Stärkefließmittel auf den ersten gebildeten CSH-Phasen hervorgerufen wird. Des Weiteren wurde festgestellt, dass sehr kleine zuckerähnliche Moleküle in der kurzkettigen Maniokstärke in der Lage sind, die Bildung der ersten CSH-Keime zu unterdrücken. Dadurch kann die langanhaltende Plateauphase der elektrischen Leitfähigkeit der C3S-Hydratation erklärt werden.
Beurteilung der Porenstruktur- und Festigkeitsausbildung
Die Beurteilung der Qualität der Mikrostruktur erfolgte durch die Bestimmung der Rohdichte und der Porenradienverteilung mit Hilfe der Quecksilberhochdruckporosimetrie. Durch das Versetzen der Zementleime mit den Stärkefließmitteln konnten bei gleichbleibender Verarbeitbarkeit Zementsteinprobekörper mit einem um 17,5 % geringeren w/z-Wert von 0,35 hergestellt werden. Die Absenkung des w/z-Wertes führt zu einem Anstieg der Rohdichte des Zementsteins.
14. Durch die Zugabe der Stärkefließmittel und den verringerten w/z-Wert wird die Porenstruktur der Zementsteinproben im Vergleich zum Referenzzementstein verfeinert, da die Gesamtporosität sinkt. Insbesondere der Kapillarporenanteil wird verringert und der Gelporenanteil erhöht. Im Unterschied zu den PCE-Fließmitteln führt die Zugabe der Stärkefließmittel zu keinem erhöhten Eintrag von Luftporen. Dies wiederum hat zur Folge, dass bei der Verwendung der Stärkefließmittel auf Entschäumer verzichtet werden kann.
15. Entsprechend der dichteren Zementsteinmatrix wurden für die Zementsteine mit den Stärkefließmitteln nach 7 d und 28 d, erhöhte Biegezug- und Druckfestigkeiten ermittelt. Insbesondere die 28 d Druckfestigkeit wurde durch den verringerten w/z-Wert um die Faktoren 3,5 - 6,6 erhöht.
Multi-criteria decision analysis (MCDA) is an established methodology to support the decision-making of multi-objective problems. For conducting an MCDA, in most cases, a set of objectives (SOO) is required, which consists of a hierarchical structure comprised of objectives, criteria, and indicators. The development of an SOO is usually based on moderated development processes requiring high organizational and cognitive effort from all stakeholders involved. This article proposes elementary interactions as a key paradigm of an algorithm-driven development process for an SOO that requires little moderation efforts. Elementary interactions are self-contained information requests that may be answered with little cognitive effort. The pairwise comparison of elements in the well-known analytical hierarchical process (AHP) is an example of an elementary interaction. Each elementary interaction in the development process presented contributes to the stepwise development of an SOO. Based on the hypothesis that an SOO may be developed exclusively using elementary interactions (EIs), a concept for a multi-user platform is proposed. Essential components of the platform are a Model Aggregator, an Elementary Interaction Stream Generator, a Participant Manager, and a Discussion Forum. While the latter component serves the professional exchange of the participants, the first three components are intended to be automatable by algorithms. The platform concept proposed has been evaluated partly in an explorative validation study demonstrating the general functionality of the algorithms outlined. In summary, the platform concept suggested demonstrates the potential to ease SOO development processes as the platform concept does not restrict the application domain; it is intended to work with little administration moderation efforts, and it supports the further development of an existing SOO in the event of changes in external conditions. The algorithm-driven development of SOOs proposed in this article may ease the development of MCDA applications and, thus, may have a positive effect on the spread of MCDA applications.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
Diese Dissertation untersucht Handlungsressourcen von zivilgesellschaftlichen Akteuren in Planungsprozessen um innerstädtische Planungsverfahren. Den theoretischen Rahmen bilden die Kapitalarten von Pierre Bourdieu, die zusammen mit dem Matrixraum von Dieter Läpple zu einem neuen Feldbegriff des ‚Raumfeldes‘ zusammengeführt und operationalisiert wurden. Es handelt sich um eine qualitative Arbeit, die zwischen Stadtsoziologie und Urbanistik zu verorten ist. Als Fallbeispiele wurde die Erweiterung des Berliner Mauerparks sowie das Baugebiet „So! Berlin“ in Berlin gewählt.
El paisaje de la Cuenca Lechera Central Argentina: la huella de la producción sobre el territorio
(2022)
In recent times, the study of landscape heritage acquires value by virtue of becoming an alternative to rethink regional development, especially from the point of view of territorial planning. In this sense, the Central Argentine Dairy Basin (CADB) is presented as a space where the traces of different human projects have accumulated over centuries of occupation, which can be read as heritage. The impact of dairy farming and other productive activities has shaped the configuration of its landscape. The main hypothesis assumed that a cultural landscape would have been formed in the CADB, whose configuration would have depended to a great extent on the history of productive activities and their deployment over the territory, and this same history would hide the keys to its alternative.
The thesis approached the object of study from descriptive and cartographic methods that placed the narration of the history of territory and the resources of the landscape as a discursive axis. A series of intentional readings of the territory and its constituent parts pondered the layers of data that have accumulated on it in the form of landscape traces, with the help of an approach from complementary dimensions (natural, sociocultural, productive, planning). Furthermore, the intersection of historical sources was used in order to allow the construction of the territorial story and the detection of the origin of the landscape components. A meticulous cartographic work also helped to spatialise the set of phenomena and elements studied, and was reflected in a multiscalar scanning.
Finite Element Simulations of dynamically excited structures are mainly influenced by the mass, stiffness, and damping properties of the system, as well as external loads. The prediction quality of dynamic simulations of vibration-sensitive components depends significantly on the use of appropriate damping models. Damping phenomena have a decisive influence on the vibration amplitude and the frequencies of the vibrating structure. However, developing realistic damping models is challenging due to the multiple sources that cause energy dissipation, such as material damping, different types of friction, or various interactions with the environment.
This thesis focuses on thermoelastic damping, which is the main cause of material damping in homogeneous materials. The effect is caused by temperature changes due to mechanical strains. In vibrating structures, temperature gradients arise in adjacent tension and compression areas. Depending on the vibration frequency, they result in heat flows, leading to increased entropy and the irreversible transformation of mechanical energy into thermal energy.
The central objective of this thesis is the development of efficient simulation methods to incorporate thermoelastic damping in finite element analyses based on modal superposition. The thermoelastic loss factor is derived from the structure's mechanical mode shapes and eigenfrequencies. In subsequent analyses that are performed in the time and frequency domain, it is applied as modal damping.
Two approaches are developed to determine the thermoelastic loss in thin-walled plate structures, as well as three-dimensional solid structures. The realistic representation of the dissipation effects is verified by comparing the simulation results with experimentally determined data. Therefore, an experimental setup is developed to measure material damping, excluding other sources of energy dissipation.
The three-dimensional solid approach is based on the determination of the generated entropy and therefore the generated heat per vibration cycle, which is a measure for thermoelastic loss in relation to the total strain energy. For thin plate structures, the amount of bending energy in a modal deformation is calculated and summarized in the so-called Modal Bending Factor (MBF). The highest amount of thermoelastic loss occurs in the state of pure bending. Therefore, the MBF enables a quantitative classification of the mode shapes concerning the thermoelastic damping potential.
The results of the developed simulations are in good agreement with the experimental results and are appropriate to predict thermoelastic loss factors. Both approaches are based on modal superposition with the advantage of a high computational efficiency. Overall, the modeling of thermoelastic damping represents an important component in a comprehensive damping model, which is necessary to perform realistic simulations of vibration processes.
Atlas der Datenkörper. Körperbilder in Kunst, Design und Wissenschaft im Zeitalter digitaler Medien
(2022)
Digitale Technologien und soziale Medien verändern die Selbst- und Körperwahrnehmung und verzerren, verstärken oder produzieren dabei spezifische Körperbilder. Die Beiträger*innen kartographieren diese Phänomene, fragen nach ihrer medialen Existenzweise sowie nach den Möglichkeiten ihrer Kritik. Dabei begegnen sie ihrer Neuartigkeit mit einer transdisziplinären Herangehensweise. Aus sowohl der Perspektive künstlerischer und gestalterischer Forschung als auch der Kunst-, Kultur- und Medienwissenschaft sowie der Psychologie und Neurowissenschaft wird die Landschaft rezenter Körperbilder und Techniken einer digitalen Körperlichkeit untersucht.
Teilhabe an Gesundheitsversorgung von aufenthaltsrechtlich illegalisierten Menschen in Deutschland
(2022)
Die Gesundheitsversorgung in Deutschland ist seit den Bismarckschen Sozialreformen ein zunehmend institutionalisierter Teil der staatlichen Daseinsvorsorge im wohlfahrtsstaatlichen Gefüge. Institutionalisiert ist die Gesundheitsversorgung in korporatistischer Logik, das heißt in kooperativen Beziehungen zum privatwirtschaftlichen und zivilgesellschaftlichen Sektor und mit Befugnissen der Selbstverwaltung. Zudem fußt das Gesundheitssystem auf einem Versicherungssystem mit lohnabhängigen Abgaben. Institutionalisiert ist die staatliche Daseinsvorsorge jedoch auch in seinen Ausschlüssen. So werden Menschen ohne Bürgerrechte von vielen sozialen Rechten, wie von der Gesundheitsversorgung, ausgeschlossen, obwohl dieser Ausschluss im Widerspruch zu anderen konstitutiven Elementen des Nationalstaats steht.
In diesem Working Paper werden die grundlegende Strukturen des deutschen Gesundheitssystems und darin innewohnende Funktionslogiken der Produktion von Teilhabe dargestellt. Abschließend werden in Anlehnung an Kronauer die verschiedenen Dimensionen von Teilhabe an Gesundheitsversorgung in ihrer Produktions- und Ausschlusslogik im Wohlfahrtsregime dargelegt dabei auf die Gruppe der aufenthaltsrechtlich Illegalisierten fokussiert, denen gesellschaftliche Teilhabe in vielen Lebensbereichen, wie auch stark im Gesundheitsbereich, untersagt wird. Gleichzeitig soll dargestellt werden, wie zivilgesellschaftliche Akteur*innen auch gegen staatliche Vorgaben oder Anreize, Teilhabe (wieder-)herstellen.
Ernährung bestimmt unser tägliches Leben. Sie erfüllt in erster Linie die physiologische Notwendigkeit unseren Körper am Leben zu halten und ist gleichzeitig Alltagspraxis, durch welche gesamtgesellschaftliche Strukturen sichtbar werden. Innerhalb dieser Alltagspraxen erfüllt Ernährung vor allem eine wichtige Funktion in der Herstellung gesellschaftlicher Teilhabe oder kann strukturelle Ausschlüsse und soziale Ungleichheit bedingen. Dem Wohlfahrtsregime kommt somit eine wichtige Aufgabe in der Grundversorgung der Bevölkerung zu und muss innerhalb der Daseinsvorsorge auf Ausschlüsse von ernährungsbezogener Teilhabe einzelner Bevölkerungsschichten eingehen und sozialer Ungleichheit entgegenwirken. In diesem Working Paper soll der Fragestellung nachgegangen werden, inwiefern Teilhabe bzw. strukturelle Ausschlüsse von Ernährung innerhalb des bundesdeutschen Wohlfahrtsregimes hergestellt werden und durch welche politischen Praktiken und Forderungen aus der Zivilgesellschaft bzw. sozialen Bewegungen ernährungsvermittelte Teilhabe (wieder) hergestellt wird.
Hitze in der Stadt Jena
(2022)
Die vorliegende Arbeit befasst sich mit den spezifischen Faktoren und Wechselwirkungen des städtischen Klimas und Strategien zur Prävention und Kompensation lokaler Klimaveränderungen. Problematische Merkmale des Stadtklimas werden sich infolge des Klimawandels stärker ausprägen. Insbesondere die Hitzebelastung wird zunehmen und die Lebensbedingungen in der Stadt negativ beeinflussen. Infolge höherer Temperaturen in Städten und einer höheren Temperaturdifferenz zum Umland verändern sich Windströme und die Wasserbilanz. Es sind Strategien notwendig, um den Schadstoffausstoß, die Flächeninanspruchnahme, die Abfallproduktion und den Wasser-, Energie- und Ressourcenverbrauch zu verringern, um sowohl langfristig den Klimawandel als auch dessen bereits unvermeidbaren Auswirkungen auf Städte zu begrenzen.
Beispielhaft untersucht die Arbeit das Stadtklima, dessen zukünftige Veränderungen infolge des Klimawandels, bauliche Maßnahmen und Anpassungsstrategien der Stadt Jena. Jena ist die zweitgrößte Stadt im Bundesland Thüringen und gehört heute zu den wärmsten und trockensten Großstädten Deutschlands.
Die Ergebnisse der Arbeit werden anschließend anhand eines städtebaulichen Konzepts und Entwurfs angewendet. Das Bachstraßenareal liegt in der Innenstadt, dem am stärksten von Hitze betroffenen Stadtteil. Als ehemaliger Hauptstandort des Jenaer Universitätsklinikums, soll es zu einem nachhaltigen Wissenschaftscampus der Lebenswissenschaften umgebaut werden, wobei ein Großteil der denkmalgeschützten, ehemaligen Klinikgebäude erhalten bleibt. Der Fokus liegt dabei auf der Umsetzung der zuvor formulierten, nachhaltigen Strategien zur Verbesserung des lokalen Stadtklimas und einer Abschwächung der Auswirkungen des Klimawandels auf den besonders stark betroffenen Innenstadtbereich Jenas.
Warum werden in aktuellen Diskussionen Wohnungsgenossenschaften immer wieder als zentrale Akteure einer gemeinwohlorientierten Wohnraumversorgung benannt – obwohl sie kaum zur Schaffung neuen bezahlbaren Wohnraums beitragen? Warum wehrt sich die Mehrzahl der Wohnungsgenossenschaften mit Händen und Füßen gegen die Wiedereinführung eines Gesetzes zur Wohnungsgemeinnützigkeit, obwohl es doch gerade dieses Gesetz war, dass sie im 20. Jahrhundert zu im internationalen Vergleich großen Unternehmen wachsen ließ? Sind Wohnungsgenossenschaften nun klientilistische, wenig demokratische und nur halb dekommodifizierte Marktteilnehmer oder wichtiger Teil der Wohnungsversorgung der unteren Mittelschicht? Wer Antworten auf diese und andere Fragen sucht und Differenziertheit in ihrer Beantwortung aushält, lese Joscha Metzers Dissertation „Genossenschaften und die Wohnungsfrage.
Plastic structural analysis may be applied without any difficulty and with little effort for structural member verifications with regard to lateral torsional buckling of doubly symmetric rolled I sections. Suchlike analyses can be performed based on the plastic zone theory, specifically using finite beam elements with seven degrees of freedom and 2nd order theory considering material nonlinearity. The existing Eurocode enables these approaches and the coming-up generation will provide corresponding regulations in EN 1993-1-14. The investigations allow the determination of computationally accurate limit loads, which are determined in the present paper for selected structural systems with different sets of parameters, such as length, steel grade and cross section types. The results are compared to approximations gained by more sophisticated FEM analyses (commercial software Ansys Workbench applying solid elements) for reasons of verification/validation. In this course, differences in the results of the numerical models are addressed and discussed. In addition, results are compared to resistances obtained by common design regulations based on reduction factors χlt including regulations of EN 1993-1-1 (including German National Annex) as well as prEN 1993-1-1: 2020-08 (proposed new Eurocode generation). Concluding, correlations of results and their advantages as well as disadvantages are discussed.
Vertical green system for gray water treatment: Analysis of the VertiKKA-module in a field test
(2022)
This work presents a modular Vertical Green System (VGS) for gray water treatment, developed at the Bauhaus-Universität Weimar. The concept was transformed into a field study with four modules built and tested with synthetic gray water. Each module set contains a small and larger module with the same treatment substrate and was fed hourly. A combination of lightweight structural material and biochar of agricultural residues and wood chips was used as the treatment substrate. In this article, we present the first 18 weeks of operation. Regarding the treatment efficiency, the parameters chemical oxygen demand (COD), total phosphorous (TP), ortho-phosphate (ortho-P), total bound nitrogen (TNb), ammonium nitrogen (NH4-N), and nitrate nitrogen (NO3-N) were analyzed and are presented in this work. The results of the modules with agricultural residues are promising. Up to 92% COD reduction is stated in the data. The phosphate and nitrogen fractions are reduced significantly in these modules. By contrast, the modules with wood chips reduce only 67% of the incoming COD and respectively less regarding phosphates and the nitrogen fraction.
Experimental testing of nailed connections taken from old roof trusses is presented in this paper. To enable the further use and preservation of nailed roof trusses, it is important to understand how the nail corrosion and aging processes of steel and wood affect the load-bearing capacity and deformation behaviour of such structures. The hypothesis was investigated whether corroded nails allow an increase in load-bearing capacity. Several old and new joints were tested in a first test series, and the results were very promising regarding the initial assumption. However, more tests must be carried out to verify the results.
Nonlocal theories concern the interaction of objects, which are separated in space. Classical examples are Coulomb’s law or Newton’s law of universal gravitation. They had signficiant impact in physics and engineering. One classical application in mechanics is the failure of quasi-brittle materials. While local models lead to an ill-posed boundary value problem and associated mesh dependent results, nonlocal models guarantee the well-posedness and are furthermore relatively easy to implement into commercial computational software.
Research into bio-based epoxy resins has intensified in recent decades. Here, it is of great importance to use raw materials whose use does not compete with food production. In addition, the performance of the newly developed materials should be comparable to that of conventional products. Possible starting materials are lignin degradation products, such as vanillin and syringaldehyde, for which new synthesis routes to the desired products must be found and their properties determined. In this article, the first synthesis of two amine hardeners, starting with vanillin and syringaldehyde, using the Smiles rearrangement reaction is reported. The amine hardeners were mixed with bisphenol A diglycidyl ether, and the curing was compared to isophorone diamine, 4-4′-diaminodiphenyl sulfone, and 4-Aminonbenzylamine by means of differential scanning calorimetry. It was found that the two amines prepared are cold-curing. As TG-MS studies showed, the thermal stability of at least one of the polymers prepared with the potentially bio-based amines is comparable to that of the polymer prepared with isophorone diamine, and similar degradation products are formed during pyrolysis.
Calcined clays are interesting starting materials to be used as SCMs (supplementary cementitious materials) in cements or to be converted to geopolymers by activation with a high alkaline activator. The adjustment of the properties in the fresh state, especially regarding the consistency of these binders, is almost exclusively achieved by the addition of water, since commercially available superplasticizers seem to be ineffective in low-calcium geopolymer systems. The aim of this study was a systematic investigation of various PCE (polycarboxylate ester/ether) superplasticizers (methacrylate ester PCE: MPEG, isoprenol ether PCE: IPEG, methallyl ether PCE: HPEG) with respect to their stability in different alkaline activators (NaOH, KOH, sodium and potassium silicate solutions). The effectiveness of superplasticizers (SPs) in low-calcium geopolymer binders was verified by rheological tests. Size exclusion chromatography was used to investigate if structural degradation of the superplasticizers occurs. The investigated PCE superplasticizers showed a thickening effect in the low-calcium geopolymer system. Depending on the alkalinity of the activator solution, a degradation process was detected for all the PCEs investigated. The side chains of the PCEs are cleaved off the backbone by basic ester and ether hydrolysis. The highest degree of degradation was found in sodium and potassium silicate solutions. In alkaline hydroxide solutions, the degradation process increases with increasing alkalinity.
Physical exercise demonstrates a special case of aerosol emission due to its associated elevated breathing rate. This can lead to a faster spread of airborne viruses and respiratory diseases. Therefore, this study investigates cross-infection risk during training. Twelve human subjects exercised on a cycle ergometer under three mask scenarios: no mask, surgical mask, and FFP2 mask. The emitted aerosols were measured in a grey room with a measurement setup equipped with an optical particle sensor. The spread of expired air was qualitatively and quantitatively assessed using schlieren imaging. Moreover, user satisfaction surveys were conducted to evaluate the comfort of wearing face masks during training. The results indicated that both surgical and FFP2 masks significantly reduced particles emission with a reduction efficiency of 87.1% and 91.3% of all particle sizes, respectively. However, compared to surgical masks, FFP2 masks provided a nearly tenfold greater reduction of the particle size range with long residence time in the air (0.3–0.5 μm). Furthermore, the investigated masks reduced exhalation spreading distances to less than 0.15 m and 0.1 m in the case of the surgical mask and FFP2 mask, respectively. User satisfaction solely differed with respect to perceived dyspnea between no mask and FFP2 mask conditions.
This paper addresses the scope for action by municipalities in a climate emergency and places it in the framework of ecomodern (urban) policy. We analyse the way in which two German ‘climate emergency municipalities’ translate conflicts of post-fossil transformation into concrete political and planning strategies. Although more than 2,200 authorities around the world have already declared a climate emergency, research on the impact of these resolutions on the political orientation of municipalities is very limited. Our research focus is on the (potentially agonistic) treatment of conflicts in planning. We argue that in times of a socio-ecological crisis, success in conflict resolution cannot refer to appeasement and depoliticisation. Instead, we propose a framework of five criteria, based on critical theory on ecomodern strategies, planning processes and degrowth. Thus, this practice-related and explorative paper connects empirical insights from the German cities of Constance and Berlin with an innovative normative framework. The findings tell a complex story of an, at least partial, admission of the failure of previous climate mitigation strategies, a lack of social institutions of limits, an instrumental relation to nature and a disregard for social injustices. The paper discusses how municipalities, in the context of ongoing tensions over the post-fossil transformation in Germany, on the one hand hold on to business-as-usual approaches, but on the other hand also set political impulses for change.
This paper presents the development of an assessment scheme for a visual qualitative evaluation of nailed connections in existing structures, such as board trusses. In terms of further use and preservation, a quick visual inspection will help to evaluate the quality of a structure regarding its load-bearing capacity and deformation behaviour. Tests of old and new nailed joints in combination with a rating scheme point out the correlation between the load-bearing capacity and condition of a joint. Old joints of comparatively good condition tend to exhibit better results than those of poor condition. Moreover, aged joints are generally more load-bearing than newly assembled ones.
Obgleich redaktionelle Diversität regelmäßig als eine der Kernherausforderungen für den Journalismus gehandelt wird, tun sich journalistische Organisationen immer noch schwer damit, gleichberechtigte Zugangs-und Entfaltungschancen für Frauen, People of Color, Menschen aus Einwandererfamilien oder auf anderen Ebenen diskriminierungsbetroffene Journalist*innen zu schaffen. Stattdessen zeigt die gender-und diversitätsbezogene Redaktionsforschung, dass Redaktionen nach wie vor in ihren Strukturen, Praktiken und in ihrer Kultur gesellschaftliche Machtverhältnisse widerspiegeln und (re-)produzieren. Doch im Zuge des „Entrepreneurial Journalism“ entstehen heute vielerorts neue Organisationen. Diese journalistischen Neugründungen zeichnen sich unter anderem durch kleinere, offenere und flexiblere Organisationsstrukturen aus. Ihr veränderter organisationaler Charakter wurde jedoch bislang noch nicht tiefergehend im Hinblick auf seine Potenziale und möglichen Risiken für Diversität und (Anti-)Diskriminierung untersucht. Der Beitrag hat somit zum Ziel, journalistische Neugründungen als neuen Gegenstand auf der Agenda der organisations-und diskriminierungsbezogenen Journalismusforschung zu positionieren. Dazu werden ausgewählte Studien zum „Entrepreneurial Journalism“ im Hinblick auf Diversität und (Anti-)Diskriminierung aufgearbeitet und bestehende Desiderata identifiziert. Auf dieser Grundlage wird schließlich eine programmatische Forschungsagenda entwickelt, um empirische Folgeforschung zum Thema anzustoßen.
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
Due to the significant number of immigrants in Europe, especially Germany, integration is an ongoing subject of debate. Since the 1970s, with the emergence of the discussions on ‘place,’ it has also been realized that the immigrant experience is associated with location. Nevertheless, due to the challenges in capturing the place and migration relevance, there is a gap in understanding the role of the migrant’s geography of experiences and its outcomes (Phillips & Robinson, 2015).
This research aims to investigate the extent to which both the process of objective integration and the socio-spatial practices of high-skilled Iranian immigrants in Berlin outline and influence their sense of belonging to Berlin as the new “home.” The embedded mixed-method design had employed for this study. The quantitative analysis through Pearson’s correlation technique measured the strength of the association between Iranians’ settlement distribution and the characteristics of Berlins’ districts. The quantitative analysis provides contextual data to get a greater level of understanding of the case study’s interaction with place. The units of place intend to demonstrate the case study’s presence and possible interaction with places around their settlement location that relatively shapes their perception. The qualitative analysis comprises ethnographic fieldwork and semi-structured in-depth interviews with a homogeneous sample of Iranian immigrants in Berlin that provide data on individual and ethnic behaviors and trajectories and analyze the complex interactions between the immigrant’s experience and the role of place.
This research uncovers that Iranian highly skilled immigrants are successful in integrating objectively; However, in regards to their state of belonging, it illustrated the following: The role of socio-ethnic culture of the case study in denotation of home and belonging; Iranian high-skilled immigrants’ efforts towards reaching a level of upward mobility overshadow their attempt to shape social and spatial interaction with Berliners and Berlin itself, which manifests both in their perception and use of urban space; and finally, the identification practice and the boundary-making as an act of reassurance and self-protection against the generalization of adjacent nationalities, demonstrated in the intersection of demographical settlement distribution of Iranians in Berlin and the ethnic diversity, impact the sense of belonging and place-making.
Die Genese der Thüringer Kunstvereinslandschaft im ausgehenden 19. und frühen 20. Jahrhundert
(2023)
Zu Beginn des 19. Jahrhunderts existierten in Deutschland noch keine öffentlichen Museen, welche sich der Präsentation von Kunst widmeten und dem zeitgenössischen Kunstschaffen einen Raum bieten konnten. In den Genuss von Malerei und bildender Kunst kamen damit lediglich jene gesellschaftlichen Stände, denen durch Macht, Prestige und Adelszugehörigkeit dieses Privileg zu Teil wurde. Als neue Form des Erwachens der Bourgeoisie entwickelt, repräsentierten die sich im Entstehen befindlichen Kunstvereine erstmalig eine wirkungsvolle, dem Adel den Vormachtanspruch auf Kunst und Kultur entreißende Instanz, welche die Möglichkeit der öffentlichen Kunstvermittlung und Präsentation boten. Zwischen 1860 und 1945 entstand auf dem Gebiet des heutigen Landes Thüringen eine Unzahl an Kunstvereinen, Künstlerbünden und Kunstgesellschaften, welche die Gegenwartskunst und ihre lokalen Künstler förderten. Nach dem Ende des Zweiten Weltkrieges verschwanden diese Förderer jedoch gänzlich von der Bildfläche und ihr Wirken geriet in Vergessenheit. Bisher fand die Vergangenheit dieser Kunstvereine und -bünde nur wenig Aufmerksamkeit in der Kunstgeschichtsbetrachtung. Daher versucht die vorliegende Dissertation die Konstitutionen, Strukturen, die Wirksamkeit und den Einsatz für die (moderne) Kunst von 15 Kunstvereinen, -gesellschaften und Künstlervereinen nachzuzeichnen und damit längst überfällige Erkenntnisse der Beitragsleistung zur Kulturtätigkeit der Institutionen zu erbringen. Das Überblickswerk leistet einen ersten Vorstoß in die noch weithin unbekannten Kunstvereinsgefilde in Thüringen, vor allem auch im Kontext des nationalen Gefüges. Die historische Betrachtung, die Darstellung der Ausstellungspraxis und die finanziellen Handlungsrahmen sollen als direkte Vergleichsansätze die primäre Gegenüberstellung erleichtern.
Those who ask how social entities relate to the past, enter a field defined by competing interpretations and contested practices of a collectively shared heritage. Dissent and conflict among heritage communities represent productive moments in the negotiation of these varying constructs of the past, identities, and heritage. At the same time, they lead to omissions, the overwriting and amendment of existing constructs. A closer look at all that is suppressed, excluded or rejected opens up new perspectives: It reveals how social groups are formed through public disputes upon the material foundations of heritage constructs.
Taking the concept of censorship, the volume engages with the exclusionary and inclusionary mechanisms that underlie the construction of heritage and thus social identities. Censorship is understood here as a discursive strategy in public debates. In current debates, allegations of censorship surface primarily in cases where the handling of a certain heritage constructs is subjected to critical evaluation, or on the contrary, needs to be protected from criticism or even destruction. The authors trace the connection between heritage and identity and show that identity constructs are not only manifested within heritage but are actively negotiated through it.
Gründungsunternehmen stehen vor der Herausforderung, eine unternehmerische Leistung zu entwickeln und gleichzeitig eine Markenidentität aufzubauen. Dabei sind sie mit finanziellen, personellen und strukturellen Besonderheiten konfrontiert, aber auch mit Unbekanntheit und Kundenunsicherheit. Die Dissertation zielt darauf ab, durch die Analyse markenbildender Strategiepraktiken einen Beitrag zur wissenschaftlichen Auseinandersetzung mit der Markenbildung bei Gründungsunternehmen zu leisten und praktische Implikationen für angehende Gründer:innen sowie akademische Startup-Inkubatoren abzuleiten.
Der Fokus liegt dabei auf Gründungsvorhaben und Startups in der Vorgründungs- oder frühen Gründungsphase aus dem Hochschulumfeld. Zur Analyse markenbildender Strategiepraktiken wird der Strategy-as-Practice Ansatz (SAP) angewendet. Die qualitative Forschungsmethodik wird genutzt, um Handlungsmuster bestimmter Akteursgruppen in diesem spezifischen Kontext zu rekonstruieren. Beobachtungen, Interviews und Dokumente im Feld dienen als Grundlage für die Forschung.
Die Ergebnisse dieser Arbeit liefern umfassende Einblicke in die markenbildende Praxis bei Gründungsunternehmen. Auf Basis dieser Erkenntnisse wurde ein Modell entwickelt, das Komponenten beschreibt, die zusammen einen Handlungsrahmen für die Markenbildung in emergenten Strategiekontexten wie der Unternehmensgründung bilden. Dieses Modell bietet die Möglichkeit, sich vor dem Hintergrund der gründungsspezifischen Rahmenbedingungen mit der Markenentwicklung in der frühen Gründungsphase auseinanderzusetzen und sie systematisch in das Gründungsvorhaben zu implementieren.
SOS-Signale auf hoher See, Klopfzeichen in Trümmerfeldern, Flaschenposten am Strand: Wenn Menschen in Not geraten, müssen sie mit allen Mitteln auf sich aufmerksam machen. Sie müssen Lebenszeichen senden, um am Leben zu bleiben. Dieses Buch erforscht das Phänomen des Lebenszeichens erstmals aus der Perspektive von Medienkulturwissenschaft, Zeichentheorie und Existenzphilosophie. Anhand zahlreicher Katastrophenszenarien wie Erdbeben, Lawinen und Bergwerkunglücken zeigt die Studie, warum Menschen in Not existenziell von Medien und Kommunikationsmitteln abhängen: Keine Lebenszeichen ohne Signalfackeln, Peilsender, Satelliten oder Infrarotsensoren. Medien in Notfällen sind mehr als nur Mittel zur Kommunikation, sie sind Bedingungen menschlicher Existenz. Sie entscheiden, ob und wie sich Leben in Not äußern kann, ob Lebenszeichen Gehör finden und ob Leben gerettet wird. Damit werfen Lebenszeichen ein neues Licht auf die elementaren Bedingungen menschlichen Lebens: Sie zeigen uns, dass Menschen in Not nur überleben, wenn sie mit Artefakten, Netzwerken und Infrastrukturen verbunden sind, die ihre Existenz ermöglichen.