Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Year of publication
- 2004 (220)
- 2003 (197)
- 2006 (173)
- 1997 (165)
- 2015 (125)
- 2020 (123)
- 2010 (114)
- 2008 (112)
- 2005 (106)
- 2012 (105)
- 2000 (100)
- 2022 (94)
- 2011 (91)
- 2021 (88)
- 2013 (85)
- 2014 (85)
- 2016 (70)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2017 (58)
- 2018 (58)
- 2007 (53)
- 1983 (49)
- 2009 (49)
- 1979 (36)
- 1976 (29)
- 2001 (24)
- 2002 (24)
- 1993 (23)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
Design-related reassessment of structures integrating Bayesian updating of model safety factors
(2022)
In the semi-probabilistic approach of structural design, the partial safety factors are defined by considering some degree of uncertainties to actions and resistance, associated with the parameters’ stochastic nature. However, uncertainties for individual structures can be better examined by incorporating measurement data provided by sensors from an installed health monitoring scheme. In this context, the current study proposes an approach to revise the partial safety factor for existing structures on the action side, γE by integrating Bayesian model updating. A simple numerical example of a beam-like structure with artificially generated measurement data is used such that the influence of different sensor setups and data uncertainties on revising the safety factors can be investigated. It is revealed that the health monitoring system can reassess the current capacity reserve of the structure by updating the design safety factors, resulting in a better life cycle assessment of structures. The outcome is furthermore verified by analysing a real life small railway steel bridge ensuring the applicability of the proposed method to practical applications.
Determining the earthquake hazard of any settlement is one of the primary studies for reducing earthquake damage. Therefore, earthquake hazard maps used for this purpose must be renewed over time. Turkey Earthquake Hazard Map has been used instead of Turkey Earthquake Zones Map since 2019. A probabilistic seismic hazard was performed by using these last two maps and different attenuation relationships for Bitlis Province (Eastern Turkey) were located in the Lake Van Basin, which has a high seismic risk. The earthquake parameters were determined by considering all districts and neighborhoods in the province. Probabilistic seismic hazard analyses were carried out for these settlements using seismic sources and four different attenuation relationships. The obtained values are compared with the design spectrum stated in the last two earthquake maps. Significant differences exist between the design spectrum obtained according to the different exceedance probabilities. In this study, adaptive pushover analyses of sample-reinforced concrete buildings were performed using the design ground motion level. Structural analyses were carried out using three different design spectra, as given in the last two seismic design codes and the mean spectrum obtained from attenuation relationships. Different design spectra significantly change the target displacements predicted for the performance levels of the buildings.
The seismic vulnerability assessment of existing reinforced concrete (RC) buildings is a significant source of disaster mitigation plans and rescue services. Different countries evolved various Rapid Visual Screening (RVS) techniques and methodologies to deal with the devastating consequences of earthquakes on the structural characteristics of buildings and human casualties. Artificial intelligence (AI) methods, such as machine learning (ML) algorithm-based methods, are increasingly used in various scientific and technical applications. The investigation toward using these techniques in civil engineering applications has shown encouraging results and reduced human intervention, including uncertainties and biased judgment. In this study, several known non-parametric algorithms are investigated toward RVS using a dataset employing different earthquakes. Moreover, the methodology encourages the possibility of examining the buildings’ vulnerability based on the factors related to the buildings’ importance and exposure. In addition, a web-based application built on Django is introduced. The interface is designed with the idea to ease the seismic vulnerability investigation in real-time. The concept was validated using two case studies, and the achieved results showed the proposed approach’s potential efficiency
In the wake of the news industry’s digitization, novel organizations that differ considerably from traditional media firms in terms of their functional roles and organizational practices of media work are emerging. One new type is the field repair organization, which is characterized by supporting high‐quality media work to compensate for the deficits (such as those which come from cost savings and layoffs) which have become apparent in legacy media today. From a practice‐theoretical research perspective and based on semi‐structured interviews, virtual field observations, and document analysis, we have conducted a single case study on Science Media Center Germany (SMC), a unique non‐profit news start‐up launched in 2016 in Cologne, Germany. Our findings show that, in addition to field repair activities, SMC aims to facilitate progress and innovation in the field, which we refer to as field advancement. This helps to uncover emerging needs and anticipates problems before they intensify or even occur, proactively providing products and tools for future journalism. This article contributes to our understanding of novel media organizations with distinct functions in the news industry, allowing for advancements in theory on media work and the organization of journalism in times of digital upheaval.
Paper-based data acquisition and manual transfer between incompatible software or data formats during inspections of bridges, as done currently, are time-consuming, error-prone, cumbersome, and lead to information loss. A fully digitized workflow using open data formats would reduce data loss, efforts, and the costs of future inspections. On the one hand, existing studies proposed methods to automatize data acquisition and visualization for inspections. These studies lack an open standard to make the gathered data available for other processes. On the other hand, several studies discuss data structures for exchanging damage information among different stakeholders. However, those studies do not cover the process of automatic data acquisition and transfer. This study focuses on a framework that incorporates automatic damage data acquisition, transfer, and a damage information model for data exchange. This enables inspectors to use damage data for subsequent analyses and simulations. The proposed framework shows the potentials for a comprehensive damage information model and related (semi-)automatic data acquisition and processing.
This dataset presents the numerical analysis of the heat and moisture transport through a facade equipped with a living wall system designated for greywater treatment. While such greening systems provide many environmental benefits, they involve pumping large quantities of water onto the wall assembly, which can increase the risk of moisture in the wall as well as impaired energetic performance due to increased thermal conductivity with increased moisture content in the building materials. This dataset was acquired through numerical simulation using the coupling of two simulation tools, namely Envi-Met and Delphin. This coupling was used to include the complex role the plants play in shaping the near-wall environmental parameters in the hygrothermal simulations. Four different wall assemblies were investigated, each assembly was assessed twice: with and without the living wall. The presented data include the input and output parameters of the simulations, which were presented in the co-submitted article [1].
Der Aufruf, die Begriffe Stadt und Kritik in das Zentrum einer Debatte zu stellen, bietet die große Chance, uns weit über begriffliche Klärungen unseres gemeinsamen Arbeitsgegenstands hinaus – die ja auch für sich selbst sehr fruchtbar sein können – über die Funktion zu verständigen, die wir in der Gesellschaft ausüben, wenn wir räumliche Planung praktizieren, erforschen und lehren. Da in der Bundesrepublik nicht nur ein großer Bedarf, sondern auch eine beträchtliche Nachfrage nach öffentlicher Planung besteht und die planungsbezogenen Wissenschaften sich eines insgesamt stabilen institutionellen Standes erfreuen, laufen wir Gefahr, die gesellschaftspolitische Legitimation von Berufsfeld und Wissenschaft zu vernachlässigen, sie als gegeben zu behandeln. Wir müssen uns ja kaum rechtfertigen.
Der vorliegende Handlungsleitfaden hilft zivilgesellschaftlichen Organisationen und staatlichen Einrichtungen bei der Installation eines anonymen Behandlungs- oder Krankenschein für Menschen ohne Krankenversicherung. Dabei bündelt sich hier der Erfahrungsschatz verschiedener Initiativen aus dem gesamten Bundesgebiet.
In ten chapters, this thesis presents information retrieval technology which is tailored to the research activities that arise in the context of corpus-based digital humanities projects.
The presentation is structured by a conceptual research process that is introduced in Chapter 1. The process distinguishes a set of five research activities: research question generation, corpus acquisition, research question modeling, corpus annotation, and result dissemination. Each of these research activities elicits different information retrieval tasks with special challenges, for which algorithmic approaches are presented after an introduction of the core information retrieval concepts in Chapter 2.
A vital concept in many of the presented approaches is the keyquery paradigm introduced in Chapter 3, which represents an operation that returns relevant search queries in response to a given set of input documents. Keyqueries are proposed in Chapter 4 for the recommendation of related work, and in Chapter 5 for improving access to aspects hidden in the long tail of search result lists.
With pseudo-descriptions, a document expansion approach is presented in Chapter 6. The approach improves the retrieval performance for corpora where only bibliographic meta-data is originally available. In Chapter 7, the keyquery paradigm is employed to generate dynamic taxonomies for corpora in an unsupervised fashion.
Chapter 8 turns to the exploration of annotated corpora, and presents scoped facets as a conceptual extension to faceted search systems, which is particularly useful in exploratory search settings. For the purpose of highlighting the major topical differences in a sequence of sub-corpora, an algorithm called topical sequence profiling is presented in Chapter 9.
The thesis concludes with two pilot studies regarding the visualization of (re)search results for the means of successful result dissemination: a metaphoric interpretation of the information nutrition label, as well as the philosophical bodies, which are 3D-printed search results.
Multi-criteria decision analysis (MCDA) is an established methodology to support the decision-making of multi-objective problems. For conducting an MCDA, in most cases, a set of objectives (SOO) is required, which consists of a hierarchical structure comprised of objectives, criteria, and indicators. The development of an SOO is usually based on moderated development processes requiring high organizational and cognitive effort from all stakeholders involved. This article proposes elementary interactions as a key paradigm of an algorithm-driven development process for an SOO that requires little moderation efforts. Elementary interactions are self-contained information requests that may be answered with little cognitive effort. The pairwise comparison of elements in the well-known analytical hierarchical process (AHP) is an example of an elementary interaction. Each elementary interaction in the development process presented contributes to the stepwise development of an SOO. Based on the hypothesis that an SOO may be developed exclusively using elementary interactions (EIs), a concept for a multi-user platform is proposed. Essential components of the platform are a Model Aggregator, an Elementary Interaction Stream Generator, a Participant Manager, and a Discussion Forum. While the latter component serves the professional exchange of the participants, the first three components are intended to be automatable by algorithms. The platform concept proposed has been evaluated partly in an explorative validation study demonstrating the general functionality of the algorithms outlined. In summary, the platform concept suggested demonstrates the potential to ease SOO development processes as the platform concept does not restrict the application domain; it is intended to work with little administration moderation efforts, and it supports the further development of an existing SOO in the event of changes in external conditions. The algorithm-driven development of SOOs proposed in this article may ease the development of MCDA applications and, thus, may have a positive effect on the spread of MCDA applications.
Operator Calculus Approach to Comparison of Elasticity Models for Modelling of Masonry Structures
(2022)
The solution of any engineering problem starts with a modelling process aimed at formulating a mathematical model, which must describe the problem under consideration with sufficient precision. Because of heterogeneity of modern engineering applications, mathematical modelling scatters nowadays from incredibly precise micro- and even nano-modelling of materials to macro-modelling, which is more appropriate for practical engineering computations. In the field of masonry structures, a macro-model of the material can be constructed based on various elasticity theories, such as classical elasticity, micropolar elasticity and Cosserat elasticity. Evidently, a different macro-behaviour is expected depending on the specific theory used in the background. Although there have been several theoretical studies of different elasticity theories in recent years, there is still a lack of understanding of how modelling assumptions of different elasticity theories influence the modelling results of masonry structures. Therefore, a rigorous approach to comparison of different three-dimensional elasticity models based on quaternionic operator calculus is proposed in this paper. In this way, three elasticity models are described and spatial boundary value problems for these models are discussed. In particular, explicit representation formulae for their solutions are constructed. After that, by using these representation formulae, explicit estimates for the solutions obtained by different elasticity theories are obtained. Finally, several numerical examples are presented, which indicate a practical difference in the solutions.
It is widely accepted that most people spend the majority of their lives indoors. Most individuals do not realize that while indoors, roughly half of heat exchange affecting their thermal comfort is in the form of thermal infrared radiation. We show that while researchers have been aware of its thermal comfort significance over the past century, systemic error has crept into the most common evaluation techniques, preventing adequate characterization of the radiant environment. Measuring and characterizing radiant heat transfer is a critical component of both building energy efficiency and occupant thermal comfort and productivity. Globe thermometers are typically used to measure mean radiant temperature (MRT), a commonly used metric for accounting for the radiant effects of an environment at a point in space. In this paper we extend previous field work to a controlled laboratory setting to (1) rigorously demonstrate that existing correction factors used in the American Society of Heating Ventilation and Air-conditioning Engineers (ASHRAE) Standard 55 or ISO7726 for using globe thermometers to quantify MRT are not sufficient; (2) develop a correction to improve the use of globe thermometers to address problems in the current standards; and (3) show that mean radiant temperature measured with ping-pong ball-sized globe thermometers is not reliable due to a stochastic convective bias. We also provide an analysis of the maximum precision of globe sensors themselves, a piece missing from the domain in contemporary literature.
Data acquisition systems and methods to capture high-resolution images or reconstruct 3D point clouds of existing structures are an effective way to document their as-is condition. These methods enable a detailed analysis of building surfaces, providing precise 3D representations. However, for the condition assessment and documentation, damages are mainly annotated in 2D representations, such as images, orthophotos, or technical drawings, which do not allow for the application of a 3D workflow or automated comparisons of multitemporal datasets. In the available software for building heritage data management and analysis, a wide range of annotation and evaluation functions are available, but they also lack integrated post-processing methods and systematic workflows. The article presents novel methods developed to facilitate such automated 3D workflows and validates them on a small historic church building in Thuringia, Germany. Post-processing steps using photogrammetric 3D reconstruction data along with imagery were implemented, which show the possibilities of integrating 2D annotations into 3D documentations. Further, the application of voxel-based methods on the dataset enables the evaluation of geometrical changes of multitemporal annotations in different states and the assignment to elements of scans or building models. The proposed workflow also highlights the potential of these methods for condition assessment and planning of restoration work, as well as the possibility to represent the analysis results in standardised building model formats.
This dataset consists mainly of two subsets. The first subset includes measurements and simulation data conducted to validate the simulation tool ENVI-met. The measurements were conducted at the campus of the Bauhaus-University Weimar in Weimar, Germany and consisted of recording exterior air temperature, globe temperature, relative humidity, and wind velocity at 1.5 m at four points on four different days. After the measurements, the geometry of the campus was modelled and meshed; the simulations were conducted using the weather data of the measurements days with the aim of investigating the accuracy of the model.
The second data subset consists of ENVI-met simulation data of the potential of facade greening in improving the outdoor environment and the indoor air temperature during heatwaves in Central European cities. The data consist of the boundary conditions and the simulation output of two simulation models: with and without facade greening. The geometry of the models corresponded to a residential buildings district in Stuttgart, Germany. The simulation output consisted of exterior air temperature, mean radiant temperature, relative humidity, and wind velocity at 12 different probe points in the model in addition to the indoor air temperature of an exemplary building. The dataset presents both vertical profiles of the probed parameters as well as the time series output of the five-day simulation duration. Both data subsets correspond to the investigations presented in the co-submitted article [1].
The fracture of microcapsules is an important issue to release the healing agent for healing the cracks in encapsulation-based self-healing concrete. The capsular clustering generated from the concrete mixing process is considered one of the critical factors in the fracture mechanism. Since there is a lack of studies in the literature regarding this issue, the design of self-healing concrete cannot be made without an appropriate modelling strategy. In this paper, the effects of microcapsule size and clustering on the fractured microcapsules are studied computationally. A simple 2D computational modelling approach is developed based on the eXtended Finite Element Method (XFEM) and cohesive surface technique. The proposed model shows that the microcapsule size and clustering have significant roles in governing the load-carrying capacity and the crack propagation pattern and determines whether the microcapsule will be fractured or debonded from the concrete matrix. The higher the microcapsule circumferential contact length, the higher the load-carrying capacity. When it is lower than 25% of the microcapsule circumference, it will result in a greater possibility for the debonding of the microcapsule from the concrete. The greater the core/shell ratio (smaller shell thickness), the greater the likelihood of microcapsules being fractured.
Das Fahrrad ist ein Medium sozialer Veränderung. Seine vielfältigen utopischen Potenziale ergeben sich nicht zuletzt aus seinen ebenso vielfältigen und häufig übersehenen medialen Qualitäten: Es vermittelt, es verbindet, es übersetzt; es modifiziert Wahrnehmung und Organisation von Raum und Zeit, von Körpern und von Sozialität. Umgekehrt kann auch das medienwissenschaftliche Denken fahrradmedial verändert werden. Das Fahrrad ist nicht nur Medium des sozialen und ökologischen Wandels: Radfahren eröffnet Perspektiven, verändert Räume, lässt neue Relationen entstehen und teilt Handlungsmacht neu auf.
Fahrradutopien denkt vom Fahrrad aus und ergänzt dabei bestehende Ansätze zur Mobilitätsforschung um medienkulturwissenschaftliche Perspektiven. Die Beiträge verbinden Medienwissenschaften und Forschungen zu Fahrradaktivismus mit der Liebe zum Radfahren. Fokussiert werden Fahrradfilme und -vlogs, Verkehr und Infrastrukturen, Virtuelle Realität und Fahrrad, Fahrradkollektive und Fahrradfeminismus.
Zugang zu gesunder und nachhaltiger Ernährung ist in Berlin nicht für alle Menschen eine Selbstverständlichkeit. Um Ernährung für alle gewährleisten zu können, braucht es einen Wandel des Ernährungssystems in Berlin, der eine ökologische, klima- und sozialgerechte Nahrungsproduktion und Verteilung für alle Menschen in der Stadt ermöglicht.
Einen Beitrag um die Ernährung in der Stadt gerechter und nachhaltiger zu gestalten kann ein sogenannter LebensMittelPunkt (LMP) leisten.
LebensMittelPunkte entstehen meist aus ehrenamtlichen Initiativen, können aber auch in Zusammenarbeit mit städtischen Verwaltungen etabliert werden. Eine Zusammenarbeit zwischen zivilgesellschaftlichen Organisationen und Verwaltungen kann dabei Potenziale und Ressourcen freisetzen.
Dieser Leitfaden soll ernährungspolitischen Initiativen und Vereinen aus der Zivilgesellschaft sowie kommunalen oder bezirklichen Verwaltungen in Berlin – und darüber hinaus – Empfehlungen geben, wie ein LebensMittelPunkt in einer gemeinsamen Kooperation aufgebaut werden kann.
Im Heft zum zehnjährigen Jubiläum von sub\urban mit dem Themenschwerpunkt „sub\x: Verortungen, Entortungen" veröffentlichen wir eine Debatte, die von den bisherigen in unserer Zeitschrift in dieser Rubrik geführten textlichen Diskussionen abweicht. Im Vorfeld der Planungen für unsere Jubiläumsausgabe haben wir die aktuellen Mitglieder unseres wissenschaftlichen Beirats darum gebeten, zwei grundlegende Fragen von kritischer Stadtforschung in kurzen Beiträgen zu diskutieren: Was ist Stadt? Was ist Kritik?
Das Ziel der Arbeit ist, eine mögliche Verbesserung der Güte der Lebensdauervorhersage für Gusseisenwerkstoffe mit Kugelgraphit zu erreichen, wobei die Gießprozesse verschiedener Hersteller berücksichtigt werden.
Im ersten Schritt wurden Probenkörper aus GJS500 und GJS600 von mehreren Gusslieferanten gegossen und daraus Schwingproben erstellt.
Insgesamt wurden Schwingfestigkeitswerte der einzelnen gegossenen Proben sowie der Proben des Bauteils von verschiedenen Gussherstellern weltweit entweder durch direkte Schwingversuche oder durch eine Sammlung von Betriebsfestigkeitsversuchen bestimmt.
Dank der metallografischen Arbeit und Korrelationsanalyse konnten drei wesentliche Parameter zur Bestimmung der lokalen Dauerfestigkeit festgestellt werden: 1. statische Festigkeit, 2. Ferrit- und Perlitanteil der Mikrostrukturen und 3. Kugelgraphitanzahl pro Flächeneinheit.
Basierend auf diesen Erkenntnissen wurde ein neues Festigkeitsverhältnisdiagramm (sogenanntes Sd/Rm-SG-Diagramm) entwickelt.
Diese neue Methodik sollte vor allem ermöglichen, die Bauteildauerfestigkeit auf der Grundlage der gemessenen oder durch eine Gießsimulation vorhersagten lokalen Zugfestigkeitswerte sowie Mikrogefügenstrukturen besser zu prognostizieren.
Mithilfe der Versuche sowie der Gießsimulation ist es gelungen, unterschiedliche Methoden der Lebensdauervorhersage unter Berücksichtigung der Herstellungsprozesse weiterzuentwickeln.
Isogeometric analysis (IGA) is a numerical method for solving partial differential equations (PDEs), which was introduced with the aim of integrating finite element analysis with computer-aided design systems. The main idea of the method is to use the same spline basis functions which describe the geometry in CAD systems for the approximation of solution fields in the finite element method (FEM). Originally, NURBS which is a standard technology employed in CAD systems was adopted as basis functions in IGA but there were several variants of IGA using other technologies such as T-splines, PHT splines, and subdivision surfaces as basis functions. In general, IGA offers two key advantages over classical FEM: (i) by describing the CAD geometry exactly using smooth, high-order spline functions, the mesh generation process is simplified and the interoperability between CAD and FEM is improved, (ii) IGA can be viewed as a high-order finite element method which offers basis functions with high inter-element continuity and therefore can provide a primal variational formulation of high-order PDEs in a straightforward fashion. The main goal of this thesis is to further advance isogeometric analysis by exploiting these major advantages, namely precise geometric modeling and the use of smooth high-order splines as basis functions, and develop robust computational methods for problems with complex geometry and/or complex multi-physics.
As the first contribution of this thesis, we leverage the precise geometric modeling of isogeometric analysis and propose a new method for its coupling with meshfree discretizations. We exploit the strengths of both methods by using IGA to provide a smooth, geometrically-exact surface discretization of the problem domain boundary, while the Reproducing Kernel Particle Method (RKPM) discretization is used to provide the volumetric discretization of the domain interior. The coupling strategy is based upon the higher-order consistency or reproducing conditions that are directly imposed in the physical domain. The resulting coupled method enjoys several favorable features: (i) it preserves the geometric exactness of IGA, (ii) it circumvents the need for global volumetric parameterization of the problem domain, (iii) it achieves arbitrary-order approximation accuracy while preserving higher-order smoothness of the discretization. Several numerical examples are solved to show the optimal convergence properties of the coupled IGA–RKPM formulation, and to demonstrate its effectiveness in constructing volumetric discretizations for complex-geometry objects.
As for the next contribution, we exploit the use of smooth, high-order spline basis functions in IGA to solve high-order surface PDEs governing the morphological evolution of vesicles. These governing equations are often consisted of geometric PDEs, high-order PDEs on stationary or evolving surfaces, or a combination of them. We propose an isogeometric formulation for solving these PDEs. In the context of geometric PDEs, we consider phase-field approximations of mean curvature flow and Willmore flow problems and numerically study the convergence behavior of isogeometric analysis for these problems. As a model problem for high-order PDEs on stationary surfaces, we consider the Cahn–Hilliard equation on a sphere, where the surface is modeled using a phase-field approach. As for the high-order PDEs on evolving surfaces, a phase-field model of a deforming multi-component vesicle, which consists of two fourth-order nonlinear PDEs, is solved using the isogeometric analysis in a primal variational framework. Through several numerical examples in 2D, 3D and axisymmetric 3D settings, we show the robustness of IGA for solving the considered phase-field models.
Finally, we present a monolithic, implicit formulation based on isogeometric analysis and generalized-alpha time integration for simulating hydrodynamics of vesicles according to a phase-field model. Compared to earlier works, the number of equations of the phase-field model which need to be solved is reduced by leveraging high continuity of NURBS functions, and the algorithm is extended to 3D settings. We use residual-based variational multi-scale method (RBVMS) for solving Navier–Stokes equations, while the rest of PDEs in the phase-field model are treated using a standard Galerkin-based IGA. We introduce the resistive immersed surface (RIS) method into the formulation which can be employed for an implicit description of complex geometries using a diffuse-interface approach. The implementation highlights the robustness of the RBVMS method for Navier–Stokes equations of incompressible flows with non-trivial localized forcing terms including bending and tension forces of the vesicle. The potential of the phase-field model and isogeometric analysis for accurate simulation of a variety of fluid-vesicle interaction problems in 2D and 3D is demonstrated.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridynamic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dynamic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three distinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
Das Ziel dieser Arbeit war es, neuartige Fließmittel auf Basis von Stärke als nachwachsenden Rohstoff zu synthetisieren und die Wechselwirkung mit Portlandzement zu charakterisieren. Die Notwendigkeit, Alternativen zu synthetischen Zusatzmittel zu erforschen, ergibt sich aus der benötigten Menge zur Verarbeitung von ca. 4,1 Gt/a, wobei ca. 85 % der Zusatzmittel auf die Fließmittel entfallen.
Um Fließmittel aus Stärke zu synthetisieren, wurden drei Basisstärken unterschiedlicher Herkunft verwendet. Es wurde eine Maniokstärke mit einer niedrigen Molekularmasse und eine Weizenstärke mit einer hohen Molekularmasse verwendet. Darüber hinaus wurde eine Kartoffelstärke mit einer mittleren Molekularmasse, die ein Abfallprodukt der kartoffelverarbeitenden Industrie darstellt, genutzt. Die Stärkefließmittel wurden durch chemische Modifikation in einem zweistufigen Prozess synthetisiert. Im ersten Schritt wurde das Molekulargewicht der Weizen- und Kartoffelstärke durch säurehydrolytischen Abbau verringert. Für die kurzkettige Maniokstärke war eine Degradation der Molekularmasse nicht notwendig. Im zweiten Syntheseschritt wurden anionische Ladungen durch das Versetzen der degradierten Stärken und Maniokstärke mit Natriumvinylsulfonat in die Stärkemoleküle eingeführt.
Beurteilung der Synthesemethode zur Erzeugung von Stärkefließmitteln
In diesem Zusammenhang sollten molekulare Parameter der Stärkefließmittel gezielt eingestellt werden, um eine Fließwirkung im Portlandzement zu erhalten. Insbesondere die Molekularmasse und die Menge anionischer Ladungen sollte variiert werden, um Abhängigkeiten mit der Dispergierleistung zu identifizieren.
1. Es konnte durch GPC-Messungen gezeigt werden, dass die Molekularmasse der langkettigen Weizenstärke durch die gewählten Modifizierungsbedingungen zum säurehydrolytischen Abbau verringert werden konnte. Durch Variation der säurehydrolytischen Bedingungen wurden 4 degradierte Weizenstärken erzeugt, die eine Reduzierung der Molekularmasse um 27,5 – 43 % aufwiesen. Die Molekularmasse der Kartoffelstärke konnte durch säurehydrolytischen Abbau um ca. 26 % verringert werden.
2. Durch PCD-Messungen wurde gezeigt, dass anionische Ladungen durch Sulfoethylierung der freien Hydroxylgruppen in die degradierten Stärken eingeführt werden konnten. Durch Variation der Dauer der Sulfoethylierung konnte die Menge der anionischen Ladungen gesteuert und gezielt variiert werden, so dass Stärkefließmittel mit steigender Ladungsmenge in folgender Reihenfolge synthetisiert wurden:
W-3 < W-2 < K-1 < W¬-4 < W¬1 < M-1
Im Ergebnis der chemischen Modifizierung konnten 6 Stärkefließmittel mit variierten Molekularmassen und anionischen Ladungen erzeugt werden. Es konnte gezeigt werden, dass die Herkunft der Stärke für die chemische Modifizierung unerheblich ist. Die Fließmittel lagen synthesebedingt als basische, wässrige Suspensionen mit Wirkstoffgehalten im Bereich von 23,5 – 50 % vor.
Beurteilung der Dispergierleistung der synthetisierten Stärkefließmittel
Die Dispergierperformance wurde durch rheologische Experimente mit einem Rotationsviskosimeter erfasst. Dabei wurden der Einfluss auf die Fließkurven und die Viskositätskurven betrachtet. Durch Vergleich der Dispergierleistung mit einem Polykondensat- und einem PCE-Fließmittel konnte eine Einordnung und Bewertung der Fließmittel vorgenommen werden.
3. Die rheologische Experimente haben gezeigt, dass die Stärkefließmittel eine vergleichbar hohe Dispergierleistung aufweisen, wie das zum Vergleich herangezogen PCE-Fließmittel. Darüber hinaus zeigte sich, dass die Fließwirkung der 6 Stärkefließmittel gegenüber dem Polykondensatfließmittel deutlich höher ist. Das aus der Literatur bekannte Einbrechen der Dispergierleistung der Polykondensat-fließmittel bei w/z-Werten < 0,4 konnte bestätigt werden.
4. Alle 6 Stärkefließmittel führten zu einer Verringerung der Fließgrenze und der dynamischen Viskosität des Zementleimes bei einem w/z-Wert von 0,35.
5. Der Vergleich der Dispergierleistung der Stärkefließmittel untereinander zeigte, dass die anionische Ladungsmenge einen Schlüsselparameter darstellt. Die Stärkefließmittel M-1, K-1, W-1 und W-4 mit anionischen Ladungsmengen > 6 C/g zeigten die höchste Dispergier¬performance. Die vergleichend herangezogenen klassischen Fließmittel wiesen anionische Ladungsmengen im Bereich von 1,2 C/g (Polycondensat) und 1,6 C/g (PCE) auf. Die Molekularmasse schien für die Dispergierleistung zunächst unerheblich zu sein. Aus diesem Grund wurde die Basisweizenstärke erneut chemisch modifiziert, indem anionische Ladungen eingeführt wurden, ohne die Molekularmasse jedoch zu verringern. Das Stärkederivat wies verdickende Eigenschaften im Zementleim auf. Daraus konnte geschlussfolgert werden, dass eine definierte Grenzmolekularmasse (150.000 Da) existiert, die unterschritten werden muss, um Fließmittel aus Stärke zu erzeugen. Des Weiteren zeigen die Ergebnisse, dass durch die chemische Modifizierung sowohl Fließmittel als auch Verdicker aus Stärke erzeugt werden können.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des Portlandzementes
Aus der Literatur ist bekannt, dass Fließmittel die Hydratation von Portlandzement maßgeblich beeinflussen können. Aus diesem Grund wurden kalorimetrische und konduktometrische Untersuchungen an Zementsuspensionen, die mit den synthetisierten Stärkefließmitteln versetzt wurden, durchgeführt. Ergänzt wurden die Untersuchungen durch Porenlösungsanalysen zu verschiedenen Zeitpunkten der Hydratation.
6. Die kalorimetrischen Untersuchungen zur Beeinflussung der Hydratation des Portlandzementes zeigten, dass die dormante Periode durch die Zugabe der Stärkefließmittel z.T. erheblich verlängert wird. Es konnte gezeigt werden, dass, je höher die anionische Ladungsmenge der Stärkefließmittel ist, desto länger dauert die dormante Periode andauert. Darüber hinaus zeigte sich, dass eine niedrige Molekularmasse der Stärkefließmittel die Verlängerung der dormanten Periode begünstigt.
7. Durch die konduktometrischen Untersuchungen konnte gezeigt werden, dass alle Stärkefließmittel die Dauer des freien- und diffusionskontrollierten CSH-Phasenwachstums verlangsamen. Insbesondere die Ausfällung des Portlandits, welches mit dem Erstarrungsbeginn korreliert, erfolgt zu deutlich späteren Zeitpunkten. Des Weiteren korrelierten die konduktometrischen Untersuchungen mit der zeitlichen Entwicklung der Calciumkonzentration der Porenlösungen. Der Vergleich der Stärkefließmittel untereinander zeigte, dass die Molekularmasse ein Schlüsselparameter ist. Das Stärkefließmittel M-1 mit der geringsten Molekularmasse, welches geringe Mengen kurzkettiger Anhydroglucoseeinheiten aufweist, verzögert die Hydratphasenbildung am stärksten. Diese Wirkung ist vergleichbar mit der von Zuckern. Darüber hinaus deuteten die Ergebnisse daraufhin, dass die Stärkefließmittel auf den ersten Hydratationsprodukten adsorbieren, wodurch die Hydratphasenbildung verlangsamt wird.
Die kalorimetrischen und konduktometrischen Daten sowie die Ergebnisse der Porenlösungsanalytik des Zementes, erforderten eine genauere Betrachtung der Beeinflussung der Hydratation der Klinkerphasen C3A und C3S, durch die Stärkefließmittel. Demzufolge wurden die Untersuchungen mit den Klinkerphasen C3A und C3S in Analogie zum Portlandzement durchgeführt.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des C3A
Während die kalorimetrischen Untersuchungen zur C3A-Hydratation eine Tendenz zur verlangsamten Hydratphasenbildung durch die Stärkefließmittel aufzeigten, lieferten die konduktometrischen Ergebnisse grundlegende Erkenntnisse zur Beeinflussung der C3A-Hydratation. Das Stadium I der C3A-Hydratation ist durch einen Abfall der elektrischen Leitfähigkeit geprägt. Dies korreliert mit dem Absinken der Calciumionenkonzentration und dem Anstieg der Aluminiumionenkonzentration in der Porenlösung der C3A-Suspensionen. Im Anschluss an das Stadium I bildet sich ein Plateau in den elektrischen Leitfähigkeitskurven aus.
8. Es konnte gezeigt werden, dass die Stärkefließmittel das Stadium I der C3A-Hydratation, d.h. die Auflösung und Bildung erster Calciumaluminathydrate verlangsamen. Insbesondere die Stärkefließmittel mit höherer Molekularmasse erhöhten die Dauer des Stadium I. Das Stadium II wird durch die Stärkefließmittel in folgender Reihenfolge am stärksten verlängert: M-1 > W-3 > K-1 > W-2 ≥ W-4 und verdeutlicht, dass keine Abhängigkeit von der anionischen Ladungsmenge identifiziert werden konnte. Die Ergebnisse zeigten, dass speziell die kurzkettige Stärke M-1, das Stadium II länger aufrechterhalten.
9. Das Stadium III und IV der C3A-Hydratation wird insbesondere durch die Stärkefließmittel mit höherer Molekularmasse verlängert.
Die Ergebnisse der Porenlösungsanalytik korrelieren mit den Ergebnissen der elektrischen Leitfähigkeit. Speziell die zeitlichen Verläufe der Calciumionenkonzentration bildeten die Verläufe der Konduktivitätskurven der C3A-Hydratation mit großer Übereinstimmung ab.
Beurteilung der Beeinflussung der Hydratation und der Porenlösung des C3S
Die Ergebnisse der kalorimetrischen Untersuchungen zur Beeinflussung der C3S-Hydratation durch die Stärkefließmittel zeigen, dass diese maßgeblich verlangsamt wird. Das Maximum des Haupthydratationspeaks wird zu späteren Zeiten verschoben und auch die Höhe des Maximums wird deutlich verringert. Durch die konduktometrischen Experimente wurde aufgeklärt, welche Stadien der C3S-Hydrataion beeinflusst wurden.
10. Es konnte gezeigt werden, dass sowohl die Menge der eingebrachten anionischen Ladungen als auch das Vorhandensein sehr kleiner Stärkefließmittelmoleküle (Zucker), Schlüsselparameter der verzögerten Hydratationskinetik des C3S sind. Der grundlegende Mechanismus der Hydratationsverzögerung beruht auf einer Kombination aus verminderter CSH-Keimbildung und Adsorptionsprozessen auf den ersten gebildeten CSH-Phasen der C3S-Partikel.
Beurteilung des Adsorptionsverhaltens am Zement, C3A und C3S
Die Bestimmung des Adsorptionsverhaltens der Stärkefließmittel erfolgte mit der Phenol-Schwefelsäure-Methode an Zement,- C3A- und C3S-Suspensionen. Durch den Vergleich der Adsorptionsraten und Adsorptionsmengen in Abhängigkeit von den molekularen Parametern der Stärkefließmittel wurde ein Wechselwirkungsmodell identifiziert.
11. Die Ursache für die hohe Dispergierleistung der Stärkefließmittel liegt in Adsorptionsprozessen an den ersten gebildeten Hydratphasen des Zementes begründet. Die Molekularmasse der Stärkefließmittel ist ein Schlüsselparameter der entscheidend für den Mechanismus der Adsorption ist. Während anionische, langkettige Stärken an mehreren Zementpartikeln gleichzeitig adsorbieren und für eine Vernetzung der Zementpartikel untereinander sorgen (Verdickerwirkung), adsorbieren kurzkettige anionische Stärken lediglich an den ersten gebildeten Hydratphasen der einzelnen Zementpartikel und führen zu elektrostatischer Abstoßung (Fließmittelwirkung).
12. Es konnte gezeigt werden, dass die Stärkefließmittel mit geringerem Molekulargewicht bei höheren Konzentrationen an den Hydratphasen des Zementes adsorbieren. Die Stärkefließmittel mit höherer Molekularmasse erreichen bei einer Zugabemenge von 0,7 % ein Plateau. Daraus wird geschlussfolgert, dass die größeren Fließmittelmoleküle einen erhöhten Platzbedarf erfordern und zur Absättigung der hydratisierenden Oberflächen bei geringeren Zugabemengen führen. Darüber hinaus konnte gezeigt werden, dass die Stärkefließmittel mit höherer anionischer Ladungsmenge zu höheren Adsorptionsmengen auf den Zement-, C3A- und C3S-Partikeln führen.
13. Die Adsorptionsprozesse finden an den ersten gebildeten Hydratphasen der C3A-Partikel statt, wodurch sowohl die Auflösung des C3A als auch die Bildung der Calciumhydroaluminate verlangsamt wird. Darüber hinaus wurde festgestellt, dass die Verlangsamung des freien- und diffusionskontrollierten Hydratphasenwachstums des C3S, durch die Adsorption der Stärkefließmittel auf den ersten gebildeten CSH-Phasen hervorgerufen wird. Des Weiteren wurde festgestellt, dass sehr kleine zuckerähnliche Moleküle in der kurzkettigen Maniokstärke in der Lage sind, die Bildung der ersten CSH-Keime zu unterdrücken. Dadurch kann die langanhaltende Plateauphase der elektrischen Leitfähigkeit der C3S-Hydratation erklärt werden.
Beurteilung der Porenstruktur- und Festigkeitsausbildung
Die Beurteilung der Qualität der Mikrostruktur erfolgte durch die Bestimmung der Rohdichte und der Porenradienverteilung mit Hilfe der Quecksilberhochdruckporosimetrie. Durch das Versetzen der Zementleime mit den Stärkefließmitteln konnten bei gleichbleibender Verarbeitbarkeit Zementsteinprobekörper mit einem um 17,5 % geringeren w/z-Wert von 0,35 hergestellt werden. Die Absenkung des w/z-Wertes führt zu einem Anstieg der Rohdichte des Zementsteins.
14. Durch die Zugabe der Stärkefließmittel und den verringerten w/z-Wert wird die Porenstruktur der Zementsteinproben im Vergleich zum Referenzzementstein verfeinert, da die Gesamtporosität sinkt. Insbesondere der Kapillarporenanteil wird verringert und der Gelporenanteil erhöht. Im Unterschied zu den PCE-Fließmitteln führt die Zugabe der Stärkefließmittel zu keinem erhöhten Eintrag von Luftporen. Dies wiederum hat zur Folge, dass bei der Verwendung der Stärkefließmittel auf Entschäumer verzichtet werden kann.
15. Entsprechend der dichteren Zementsteinmatrix wurden für die Zementsteine mit den Stärkefließmitteln nach 7 d und 28 d, erhöhte Biegezug- und Druckfestigkeiten ermittelt. Insbesondere die 28 d Druckfestigkeit wurde durch den verringerten w/z-Wert um die Faktoren 3,5 - 6,6 erhöht.
Multi-criteria decision analysis (MCDA) is an established methodology to support the decision-making of multi-objective problems. For conducting an MCDA, in most cases, a set of objectives (SOO) is required, which consists of a hierarchical structure comprised of objectives, criteria, and indicators. The development of an SOO is usually based on moderated development processes requiring high organizational and cognitive effort from all stakeholders involved. This article proposes elementary interactions as a key paradigm of an algorithm-driven development process for an SOO that requires little moderation efforts. Elementary interactions are self-contained information requests that may be answered with little cognitive effort. The pairwise comparison of elements in the well-known analytical hierarchical process (AHP) is an example of an elementary interaction. Each elementary interaction in the development process presented contributes to the stepwise development of an SOO. Based on the hypothesis that an SOO may be developed exclusively using elementary interactions (EIs), a concept for a multi-user platform is proposed. Essential components of the platform are a Model Aggregator, an Elementary Interaction Stream Generator, a Participant Manager, and a Discussion Forum. While the latter component serves the professional exchange of the participants, the first three components are intended to be automatable by algorithms. The platform concept proposed has been evaluated partly in an explorative validation study demonstrating the general functionality of the algorithms outlined. In summary, the platform concept suggested demonstrates the potential to ease SOO development processes as the platform concept does not restrict the application domain; it is intended to work with little administration moderation efforts, and it supports the further development of an existing SOO in the event of changes in external conditions. The algorithm-driven development of SOOs proposed in this article may ease the development of MCDA applications and, thus, may have a positive effect on the spread of MCDA applications.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
Diese Dissertation untersucht Handlungsressourcen von zivilgesellschaftlichen Akteuren in Planungsprozessen um innerstädtische Planungsverfahren. Den theoretischen Rahmen bilden die Kapitalarten von Pierre Bourdieu, die zusammen mit dem Matrixraum von Dieter Läpple zu einem neuen Feldbegriff des ‚Raumfeldes‘ zusammengeführt und operationalisiert wurden. Es handelt sich um eine qualitative Arbeit, die zwischen Stadtsoziologie und Urbanistik zu verorten ist. Als Fallbeispiele wurde die Erweiterung des Berliner Mauerparks sowie das Baugebiet „So! Berlin“ in Berlin gewählt.
El paisaje de la Cuenca Lechera Central Argentina: la huella de la producción sobre el territorio
(2022)
In recent times, the study of landscape heritage acquires value by virtue of becoming an alternative to rethink regional development, especially from the point of view of territorial planning. In this sense, the Central Argentine Dairy Basin (CADB) is presented as a space where the traces of different human projects have accumulated over centuries of occupation, which can be read as heritage. The impact of dairy farming and other productive activities has shaped the configuration of its landscape. The main hypothesis assumed that a cultural landscape would have been formed in the CADB, whose configuration would have depended to a great extent on the history of productive activities and their deployment over the territory, and this same history would hide the keys to its alternative.
The thesis approached the object of study from descriptive and cartographic methods that placed the narration of the history of territory and the resources of the landscape as a discursive axis. A series of intentional readings of the territory and its constituent parts pondered the layers of data that have accumulated on it in the form of landscape traces, with the help of an approach from complementary dimensions (natural, sociocultural, productive, planning). Furthermore, the intersection of historical sources was used in order to allow the construction of the territorial story and the detection of the origin of the landscape components. A meticulous cartographic work also helped to spatialise the set of phenomena and elements studied, and was reflected in a multiscalar scanning.
Finite Element Simulations of dynamically excited structures are mainly influenced by the mass, stiffness, and damping properties of the system, as well as external loads. The prediction quality of dynamic simulations of vibration-sensitive components depends significantly on the use of appropriate damping models. Damping phenomena have a decisive influence on the vibration amplitude and the frequencies of the vibrating structure. However, developing realistic damping models is challenging due to the multiple sources that cause energy dissipation, such as material damping, different types of friction, or various interactions with the environment.
This thesis focuses on thermoelastic damping, which is the main cause of material damping in homogeneous materials. The effect is caused by temperature changes due to mechanical strains. In vibrating structures, temperature gradients arise in adjacent tension and compression areas. Depending on the vibration frequency, they result in heat flows, leading to increased entropy and the irreversible transformation of mechanical energy into thermal energy.
The central objective of this thesis is the development of efficient simulation methods to incorporate thermoelastic damping in finite element analyses based on modal superposition. The thermoelastic loss factor is derived from the structure's mechanical mode shapes and eigenfrequencies. In subsequent analyses that are performed in the time and frequency domain, it is applied as modal damping.
Two approaches are developed to determine the thermoelastic loss in thin-walled plate structures, as well as three-dimensional solid structures. The realistic representation of the dissipation effects is verified by comparing the simulation results with experimentally determined data. Therefore, an experimental setup is developed to measure material damping, excluding other sources of energy dissipation.
The three-dimensional solid approach is based on the determination of the generated entropy and therefore the generated heat per vibration cycle, which is a measure for thermoelastic loss in relation to the total strain energy. For thin plate structures, the amount of bending energy in a modal deformation is calculated and summarized in the so-called Modal Bending Factor (MBF). The highest amount of thermoelastic loss occurs in the state of pure bending. Therefore, the MBF enables a quantitative classification of the mode shapes concerning the thermoelastic damping potential.
The results of the developed simulations are in good agreement with the experimental results and are appropriate to predict thermoelastic loss factors. Both approaches are based on modal superposition with the advantage of a high computational efficiency. Overall, the modeling of thermoelastic damping represents an important component in a comprehensive damping model, which is necessary to perform realistic simulations of vibration processes.
Teilhabe an Gesundheitsversorgung von aufenthaltsrechtlich illegalisierten Menschen in Deutschland
(2022)
Die Gesundheitsversorgung in Deutschland ist seit den Bismarckschen Sozialreformen ein zunehmend institutionalisierter Teil der staatlichen Daseinsvorsorge im wohlfahrtsstaatlichen Gefüge. Institutionalisiert ist die Gesundheitsversorgung in korporatistischer Logik, das heißt in kooperativen Beziehungen zum privatwirtschaftlichen und zivilgesellschaftlichen Sektor und mit Befugnissen der Selbstverwaltung. Zudem fußt das Gesundheitssystem auf einem Versicherungssystem mit lohnabhängigen Abgaben. Institutionalisiert ist die staatliche Daseinsvorsorge jedoch auch in seinen Ausschlüssen. So werden Menschen ohne Bürgerrechte von vielen sozialen Rechten, wie von der Gesundheitsversorgung, ausgeschlossen, obwohl dieser Ausschluss im Widerspruch zu anderen konstitutiven Elementen des Nationalstaats steht.
In diesem Working Paper werden die grundlegende Strukturen des deutschen Gesundheitssystems und darin innewohnende Funktionslogiken der Produktion von Teilhabe dargestellt. Abschließend werden in Anlehnung an Kronauer die verschiedenen Dimensionen von Teilhabe an Gesundheitsversorgung in ihrer Produktions- und Ausschlusslogik im Wohlfahrtsregime dargelegt dabei auf die Gruppe der aufenthaltsrechtlich Illegalisierten fokussiert, denen gesellschaftliche Teilhabe in vielen Lebensbereichen, wie auch stark im Gesundheitsbereich, untersagt wird. Gleichzeitig soll dargestellt werden, wie zivilgesellschaftliche Akteur*innen auch gegen staatliche Vorgaben oder Anreize, Teilhabe (wieder-)herstellen.
Ernährung bestimmt unser tägliches Leben. Sie erfüllt in erster Linie die physiologische Notwendigkeit unseren Körper am Leben zu halten und ist gleichzeitig Alltagspraxis, durch welche gesamtgesellschaftliche Strukturen sichtbar werden. Innerhalb dieser Alltagspraxen erfüllt Ernährung vor allem eine wichtige Funktion in der Herstellung gesellschaftlicher Teilhabe oder kann strukturelle Ausschlüsse und soziale Ungleichheit bedingen. Dem Wohlfahrtsregime kommt somit eine wichtige Aufgabe in der Grundversorgung der Bevölkerung zu und muss innerhalb der Daseinsvorsorge auf Ausschlüsse von ernährungsbezogener Teilhabe einzelner Bevölkerungsschichten eingehen und sozialer Ungleichheit entgegenwirken. In diesem Working Paper soll der Fragestellung nachgegangen werden, inwiefern Teilhabe bzw. strukturelle Ausschlüsse von Ernährung innerhalb des bundesdeutschen Wohlfahrtsregimes hergestellt werden und durch welche politischen Praktiken und Forderungen aus der Zivilgesellschaft bzw. sozialen Bewegungen ernährungsvermittelte Teilhabe (wieder) hergestellt wird.
Hitze in der Stadt Jena
(2022)
Die vorliegende Arbeit befasst sich mit den spezifischen Faktoren und Wechselwirkungen des städtischen Klimas und Strategien zur Prävention und Kompensation lokaler Klimaveränderungen. Problematische Merkmale des Stadtklimas werden sich infolge des Klimawandels stärker ausprägen. Insbesondere die Hitzebelastung wird zunehmen und die Lebensbedingungen in der Stadt negativ beeinflussen. Infolge höherer Temperaturen in Städten und einer höheren Temperaturdifferenz zum Umland verändern sich Windströme und die Wasserbilanz. Es sind Strategien notwendig, um den Schadstoffausstoß, die Flächeninanspruchnahme, die Abfallproduktion und den Wasser-, Energie- und Ressourcenverbrauch zu verringern, um sowohl langfristig den Klimawandel als auch dessen bereits unvermeidbaren Auswirkungen auf Städte zu begrenzen.
Beispielhaft untersucht die Arbeit das Stadtklima, dessen zukünftige Veränderungen infolge des Klimawandels, bauliche Maßnahmen und Anpassungsstrategien der Stadt Jena. Jena ist die zweitgrößte Stadt im Bundesland Thüringen und gehört heute zu den wärmsten und trockensten Großstädten Deutschlands.
Die Ergebnisse der Arbeit werden anschließend anhand eines städtebaulichen Konzepts und Entwurfs angewendet. Das Bachstraßenareal liegt in der Innenstadt, dem am stärksten von Hitze betroffenen Stadtteil. Als ehemaliger Hauptstandort des Jenaer Universitätsklinikums, soll es zu einem nachhaltigen Wissenschaftscampus der Lebenswissenschaften umgebaut werden, wobei ein Großteil der denkmalgeschützten, ehemaligen Klinikgebäude erhalten bleibt. Der Fokus liegt dabei auf der Umsetzung der zuvor formulierten, nachhaltigen Strategien zur Verbesserung des lokalen Stadtklimas und einer Abschwächung der Auswirkungen des Klimawandels auf den besonders stark betroffenen Innenstadtbereich Jenas.
Warum werden in aktuellen Diskussionen Wohnungsgenossenschaften immer wieder als zentrale Akteure einer gemeinwohlorientierten Wohnraumversorgung benannt – obwohl sie kaum zur Schaffung neuen bezahlbaren Wohnraums beitragen? Warum wehrt sich die Mehrzahl der Wohnungsgenossenschaften mit Händen und Füßen gegen die Wiedereinführung eines Gesetzes zur Wohnungsgemeinnützigkeit, obwohl es doch gerade dieses Gesetz war, dass sie im 20. Jahrhundert zu im internationalen Vergleich großen Unternehmen wachsen ließ? Sind Wohnungsgenossenschaften nun klientilistische, wenig demokratische und nur halb dekommodifizierte Marktteilnehmer oder wichtiger Teil der Wohnungsversorgung der unteren Mittelschicht? Wer Antworten auf diese und andere Fragen sucht und Differenziertheit in ihrer Beantwortung aushält, lese Joscha Metzers Dissertation „Genossenschaften und die Wohnungsfrage.
Plastic structural analysis may be applied without any difficulty and with little effort for structural member verifications with regard to lateral torsional buckling of doubly symmetric rolled I sections. Suchlike analyses can be performed based on the plastic zone theory, specifically using finite beam elements with seven degrees of freedom and 2nd order theory considering material nonlinearity. The existing Eurocode enables these approaches and the coming-up generation will provide corresponding regulations in EN 1993-1-14. The investigations allow the determination of computationally accurate limit loads, which are determined in the present paper for selected structural systems with different sets of parameters, such as length, steel grade and cross section types. The results are compared to approximations gained by more sophisticated FEM analyses (commercial software Ansys Workbench applying solid elements) for reasons of verification/validation. In this course, differences in the results of the numerical models are addressed and discussed. In addition, results are compared to resistances obtained by common design regulations based on reduction factors χlt including regulations of EN 1993-1-1 (including German National Annex) as well as prEN 1993-1-1: 2020-08 (proposed new Eurocode generation). Concluding, correlations of results and their advantages as well as disadvantages are discussed.
Vertical green system for gray water treatment: Analysis of the VertiKKA-module in a field test
(2022)
This work presents a modular Vertical Green System (VGS) for gray water treatment, developed at the Bauhaus-Universität Weimar. The concept was transformed into a field study with four modules built and tested with synthetic gray water. Each module set contains a small and larger module with the same treatment substrate and was fed hourly. A combination of lightweight structural material and biochar of agricultural residues and wood chips was used as the treatment substrate. In this article, we present the first 18 weeks of operation. Regarding the treatment efficiency, the parameters chemical oxygen demand (COD), total phosphorous (TP), ortho-phosphate (ortho-P), total bound nitrogen (TNb), ammonium nitrogen (NH4-N), and nitrate nitrogen (NO3-N) were analyzed and are presented in this work. The results of the modules with agricultural residues are promising. Up to 92% COD reduction is stated in the data. The phosphate and nitrogen fractions are reduced significantly in these modules. By contrast, the modules with wood chips reduce only 67% of the incoming COD and respectively less regarding phosphates and the nitrogen fraction.
Atlas der Datenkörper. Körperbilder in Kunst, Design und Wissenschaft im Zeitalter digitaler Medien
(2022)
Digitale Technologien und soziale Medien verändern die Selbst- und Körperwahrnehmung und verzerren, verstärken oder produzieren dabei spezifische Körperbilder. Die Beiträger*innen kartographieren diese Phänomene, fragen nach ihrer medialen Existenzweise sowie nach den Möglichkeiten ihrer Kritik. Dabei begegnen sie ihrer Neuartigkeit mit einer transdisziplinären Herangehensweise. Aus sowohl der Perspektive künstlerischer und gestalterischer Forschung als auch der Kunst-, Kultur- und Medienwissenschaft sowie der Psychologie und Neurowissenschaft wird die Landschaft rezenter Körperbilder und Techniken einer digitalen Körperlichkeit untersucht.
Experimental testing of nailed connections taken from old roof trusses is presented in this paper. To enable the further use and preservation of nailed roof trusses, it is important to understand how the nail corrosion and aging processes of steel and wood affect the load-bearing capacity and deformation behaviour of such structures. The hypothesis was investigated whether corroded nails allow an increase in load-bearing capacity. Several old and new joints were tested in a first test series, and the results were very promising regarding the initial assumption. However, more tests must be carried out to verify the results.
Nonlocal theories concern the interaction of objects, which are separated in space. Classical examples are Coulomb’s law or Newton’s law of universal gravitation. They had signficiant impact in physics and engineering. One classical application in mechanics is the failure of quasi-brittle materials. While local models lead to an ill-posed boundary value problem and associated mesh dependent results, nonlocal models guarantee the well-posedness and are furthermore relatively easy to implement into commercial computational software.
Research into bio-based epoxy resins has intensified in recent decades. Here, it is of great importance to use raw materials whose use does not compete with food production. In addition, the performance of the newly developed materials should be comparable to that of conventional products. Possible starting materials are lignin degradation products, such as vanillin and syringaldehyde, for which new synthesis routes to the desired products must be found and their properties determined. In this article, the first synthesis of two amine hardeners, starting with vanillin and syringaldehyde, using the Smiles rearrangement reaction is reported. The amine hardeners were mixed with bisphenol A diglycidyl ether, and the curing was compared to isophorone diamine, 4-4′-diaminodiphenyl sulfone, and 4-Aminonbenzylamine by means of differential scanning calorimetry. It was found that the two amines prepared are cold-curing. As TG-MS studies showed, the thermal stability of at least one of the polymers prepared with the potentially bio-based amines is comparable to that of the polymer prepared with isophorone diamine, and similar degradation products are formed during pyrolysis.
Calcined clays are interesting starting materials to be used as SCMs (supplementary cementitious materials) in cements or to be converted to geopolymers by activation with a high alkaline activator. The adjustment of the properties in the fresh state, especially regarding the consistency of these binders, is almost exclusively achieved by the addition of water, since commercially available superplasticizers seem to be ineffective in low-calcium geopolymer systems. The aim of this study was a systematic investigation of various PCE (polycarboxylate ester/ether) superplasticizers (methacrylate ester PCE: MPEG, isoprenol ether PCE: IPEG, methallyl ether PCE: HPEG) with respect to their stability in different alkaline activators (NaOH, KOH, sodium and potassium silicate solutions). The effectiveness of superplasticizers (SPs) in low-calcium geopolymer binders was verified by rheological tests. Size exclusion chromatography was used to investigate if structural degradation of the superplasticizers occurs. The investigated PCE superplasticizers showed a thickening effect in the low-calcium geopolymer system. Depending on the alkalinity of the activator solution, a degradation process was detected for all the PCEs investigated. The side chains of the PCEs are cleaved off the backbone by basic ester and ether hydrolysis. The highest degree of degradation was found in sodium and potassium silicate solutions. In alkaline hydroxide solutions, the degradation process increases with increasing alkalinity.
Physical exercise demonstrates a special case of aerosol emission due to its associated elevated breathing rate. This can lead to a faster spread of airborne viruses and respiratory diseases. Therefore, this study investigates cross-infection risk during training. Twelve human subjects exercised on a cycle ergometer under three mask scenarios: no mask, surgical mask, and FFP2 mask. The emitted aerosols were measured in a grey room with a measurement setup equipped with an optical particle sensor. The spread of expired air was qualitatively and quantitatively assessed using schlieren imaging. Moreover, user satisfaction surveys were conducted to evaluate the comfort of wearing face masks during training. The results indicated that both surgical and FFP2 masks significantly reduced particles emission with a reduction efficiency of 87.1% and 91.3% of all particle sizes, respectively. However, compared to surgical masks, FFP2 masks provided a nearly tenfold greater reduction of the particle size range with long residence time in the air (0.3–0.5 μm). Furthermore, the investigated masks reduced exhalation spreading distances to less than 0.15 m and 0.1 m in the case of the surgical mask and FFP2 mask, respectively. User satisfaction solely differed with respect to perceived dyspnea between no mask and FFP2 mask conditions.
This paper addresses the scope for action by municipalities in a climate emergency and places it in the framework of ecomodern (urban) policy. We analyse the way in which two German ‘climate emergency municipalities’ translate conflicts of post-fossil transformation into concrete political and planning strategies. Although more than 2,200 authorities around the world have already declared a climate emergency, research on the impact of these resolutions on the political orientation of municipalities is very limited. Our research focus is on the (potentially agonistic) treatment of conflicts in planning. We argue that in times of a socio-ecological crisis, success in conflict resolution cannot refer to appeasement and depoliticisation. Instead, we propose a framework of five criteria, based on critical theory on ecomodern strategies, planning processes and degrowth. Thus, this practice-related and explorative paper connects empirical insights from the German cities of Constance and Berlin with an innovative normative framework. The findings tell a complex story of an, at least partial, admission of the failure of previous climate mitigation strategies, a lack of social institutions of limits, an instrumental relation to nature and a disregard for social injustices. The paper discusses how municipalities, in the context of ongoing tensions over the post-fossil transformation in Germany, on the one hand hold on to business-as-usual approaches, but on the other hand also set political impulses for change.
This paper presents the development of an assessment scheme for a visual qualitative evaluation of nailed connections in existing structures, such as board trusses. In terms of further use and preservation, a quick visual inspection will help to evaluate the quality of a structure regarding its load-bearing capacity and deformation behaviour. Tests of old and new nailed joints in combination with a rating scheme point out the correlation between the load-bearing capacity and condition of a joint. Old joints of comparatively good condition tend to exhibit better results than those of poor condition. Moreover, aged joints are generally more load-bearing than newly assembled ones.
Obgleich redaktionelle Diversität regelmäßig als eine der Kernherausforderungen für den Journalismus gehandelt wird, tun sich journalistische Organisationen immer noch schwer damit, gleichberechtigte Zugangs-und Entfaltungschancen für Frauen, People of Color, Menschen aus Einwandererfamilien oder auf anderen Ebenen diskriminierungsbetroffene Journalist*innen zu schaffen. Stattdessen zeigt die gender-und diversitätsbezogene Redaktionsforschung, dass Redaktionen nach wie vor in ihren Strukturen, Praktiken und in ihrer Kultur gesellschaftliche Machtverhältnisse widerspiegeln und (re-)produzieren. Doch im Zuge des „Entrepreneurial Journalism“ entstehen heute vielerorts neue Organisationen. Diese journalistischen Neugründungen zeichnen sich unter anderem durch kleinere, offenere und flexiblere Organisationsstrukturen aus. Ihr veränderter organisationaler Charakter wurde jedoch bislang noch nicht tiefergehend im Hinblick auf seine Potenziale und möglichen Risiken für Diversität und (Anti-)Diskriminierung untersucht. Der Beitrag hat somit zum Ziel, journalistische Neugründungen als neuen Gegenstand auf der Agenda der organisations-und diskriminierungsbezogenen Journalismusforschung zu positionieren. Dazu werden ausgewählte Studien zum „Entrepreneurial Journalism“ im Hinblick auf Diversität und (Anti-)Diskriminierung aufgearbeitet und bestehende Desiderata identifiziert. Auf dieser Grundlage wird schließlich eine programmatische Forschungsagenda entwickelt, um empirische Folgeforschung zum Thema anzustoßen.
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
Due to the significant number of immigrants in Europe, especially Germany, integration is an ongoing subject of debate. Since the 1970s, with the emergence of the discussions on ‘place,’ it has also been realized that the immigrant experience is associated with location. Nevertheless, due to the challenges in capturing the place and migration relevance, there is a gap in understanding the role of the migrant’s geography of experiences and its outcomes (Phillips & Robinson, 2015).
This research aims to investigate the extent to which both the process of objective integration and the socio-spatial practices of high-skilled Iranian immigrants in Berlin outline and influence their sense of belonging to Berlin as the new “home.” The embedded mixed-method design had employed for this study. The quantitative analysis through Pearson’s correlation technique measured the strength of the association between Iranians’ settlement distribution and the characteristics of Berlins’ districts. The quantitative analysis provides contextual data to get a greater level of understanding of the case study’s interaction with place. The units of place intend to demonstrate the case study’s presence and possible interaction with places around their settlement location that relatively shapes their perception. The qualitative analysis comprises ethnographic fieldwork and semi-structured in-depth interviews with a homogeneous sample of Iranian immigrants in Berlin that provide data on individual and ethnic behaviors and trajectories and analyze the complex interactions between the immigrant’s experience and the role of place.
This research uncovers that Iranian highly skilled immigrants are successful in integrating objectively; However, in regards to their state of belonging, it illustrated the following: The role of socio-ethnic culture of the case study in denotation of home and belonging; Iranian high-skilled immigrants’ efforts towards reaching a level of upward mobility overshadow their attempt to shape social and spatial interaction with Berliners and Berlin itself, which manifests both in their perception and use of urban space; and finally, the identification practice and the boundary-making as an act of reassurance and self-protection against the generalization of adjacent nationalities, demonstrated in the intersection of demographical settlement distribution of Iranians in Berlin and the ethnic diversity, impact the sense of belonging and place-making.
Die Genese der Thüringer Kunstvereinslandschaft im ausgehenden 19. und frühen 20. Jahrhundert
(2023)
Zu Beginn des 19. Jahrhunderts existierten in Deutschland noch keine öffentlichen Museen, welche sich der Präsentation von Kunst widmeten und dem zeitgenössischen Kunstschaffen einen Raum bieten konnten. In den Genuss von Malerei und bildender Kunst kamen damit lediglich jene gesellschaftlichen Stände, denen durch Macht, Prestige und Adelszugehörigkeit dieses Privileg zu Teil wurde. Als neue Form des Erwachens der Bourgeoisie entwickelt, repräsentierten die sich im Entstehen befindlichen Kunstvereine erstmalig eine wirkungsvolle, dem Adel den Vormachtanspruch auf Kunst und Kultur entreißende Instanz, welche die Möglichkeit der öffentlichen Kunstvermittlung und Präsentation boten. Zwischen 1860 und 1945 entstand auf dem Gebiet des heutigen Landes Thüringen eine Unzahl an Kunstvereinen, Künstlerbünden und Kunstgesellschaften, welche die Gegenwartskunst und ihre lokalen Künstler förderten. Nach dem Ende des Zweiten Weltkrieges verschwanden diese Förderer jedoch gänzlich von der Bildfläche und ihr Wirken geriet in Vergessenheit. Bisher fand die Vergangenheit dieser Kunstvereine und -bünde nur wenig Aufmerksamkeit in der Kunstgeschichtsbetrachtung. Daher versucht die vorliegende Dissertation die Konstitutionen, Strukturen, die Wirksamkeit und den Einsatz für die (moderne) Kunst von 15 Kunstvereinen, -gesellschaften und Künstlervereinen nachzuzeichnen und damit längst überfällige Erkenntnisse der Beitragsleistung zur Kulturtätigkeit der Institutionen zu erbringen. Das Überblickswerk leistet einen ersten Vorstoß in die noch weithin unbekannten Kunstvereinsgefilde in Thüringen, vor allem auch im Kontext des nationalen Gefüges. Die historische Betrachtung, die Darstellung der Ausstellungspraxis und die finanziellen Handlungsrahmen sollen als direkte Vergleichsansätze die primäre Gegenüberstellung erleichtern.
Those who ask how social entities relate to the past, enter a field defined by competing interpretations and contested practices of a collectively shared heritage. Dissent and conflict among heritage communities represent productive moments in the negotiation of these varying constructs of the past, identities, and heritage. At the same time, they lead to omissions, the overwriting and amendment of existing constructs. A closer look at all that is suppressed, excluded or rejected opens up new perspectives: It reveals how social groups are formed through public disputes upon the material foundations of heritage constructs.
Taking the concept of censorship, the volume engages with the exclusionary and inclusionary mechanisms that underlie the construction of heritage and thus social identities. Censorship is understood here as a discursive strategy in public debates. In current debates, allegations of censorship surface primarily in cases where the handling of a certain heritage constructs is subjected to critical evaluation, or on the contrary, needs to be protected from criticism or even destruction. The authors trace the connection between heritage and identity and show that identity constructs are not only manifested within heritage but are actively negotiated through it.
Gründungsunternehmen stehen vor der Herausforderung, eine unternehmerische Leistung zu entwickeln und gleichzeitig eine Markenidentität aufzubauen. Dabei sind sie mit finanziellen, personellen und strukturellen Besonderheiten konfrontiert, aber auch mit Unbekanntheit und Kundenunsicherheit. Die Dissertation zielt darauf ab, durch die Analyse markenbildender Strategiepraktiken einen Beitrag zur wissenschaftlichen Auseinandersetzung mit der Markenbildung bei Gründungsunternehmen zu leisten und praktische Implikationen für angehende Gründer:innen sowie akademische Startup-Inkubatoren abzuleiten.
Der Fokus liegt dabei auf Gründungsvorhaben und Startups in der Vorgründungs- oder frühen Gründungsphase aus dem Hochschulumfeld. Zur Analyse markenbildender Strategiepraktiken wird der Strategy-as-Practice Ansatz (SAP) angewendet. Die qualitative Forschungsmethodik wird genutzt, um Handlungsmuster bestimmter Akteursgruppen in diesem spezifischen Kontext zu rekonstruieren. Beobachtungen, Interviews und Dokumente im Feld dienen als Grundlage für die Forschung.
Die Ergebnisse dieser Arbeit liefern umfassende Einblicke in die markenbildende Praxis bei Gründungsunternehmen. Auf Basis dieser Erkenntnisse wurde ein Modell entwickelt, das Komponenten beschreibt, die zusammen einen Handlungsrahmen für die Markenbildung in emergenten Strategiekontexten wie der Unternehmensgründung bilden. Dieses Modell bietet die Möglichkeit, sich vor dem Hintergrund der gründungsspezifischen Rahmenbedingungen mit der Markenentwicklung in der frühen Gründungsphase auseinanderzusetzen und sie systematisch in das Gründungsvorhaben zu implementieren.
SOS-Signale auf hoher See, Klopfzeichen in Trümmerfeldern, Flaschenposten am Strand: Wenn Menschen in Not geraten, müssen sie mit allen Mitteln auf sich aufmerksam machen. Sie müssen Lebenszeichen senden, um am Leben zu bleiben. Dieses Buch erforscht das Phänomen des Lebenszeichens erstmals aus der Perspektive von Medienkulturwissenschaft, Zeichentheorie und Existenzphilosophie. Anhand zahlreicher Katastrophenszenarien wie Erdbeben, Lawinen und Bergwerkunglücken zeigt die Studie, warum Menschen in Not existenziell von Medien und Kommunikationsmitteln abhängen: Keine Lebenszeichen ohne Signalfackeln, Peilsender, Satelliten oder Infrarotsensoren. Medien in Notfällen sind mehr als nur Mittel zur Kommunikation, sie sind Bedingungen menschlicher Existenz. Sie entscheiden, ob und wie sich Leben in Not äußern kann, ob Lebenszeichen Gehör finden und ob Leben gerettet wird. Damit werfen Lebenszeichen ein neues Licht auf die elementaren Bedingungen menschlichen Lebens: Sie zeigen uns, dass Menschen in Not nur überleben, wenn sie mit Artefakten, Netzwerken und Infrastrukturen verbunden sind, die ihre Existenz ermöglichen.
Die Broschüre gibt einen Überblick über die angewandten Zugänge und erarbeiteten Ergebnisse aus dem interdisziplinären Forschungsprojekt „Zukunftsindex Heimat und Baukultur 2025" der Professuren Denkmalpflege und Baugeschichte, Landschaftsarchitektur /-planung sowie Sozialwissenschaftliche Stadtforschung, durchgeführt 2021-2023 am Institut für Europäische Urbanistik (IfEU) der Bauhaus Universität Weimar.
The present article aims to provide an overview of the consequences of dynamic soil-structure interaction (SSI) on building structures and the available modelling techniques to resolve SSI problems. The role of SSI has been traditionally considered beneficial to the response of structures. However, contemporary studies and evidence from past earthquakes showed detrimental effects of SSI in certain conditions. An overview of the related investigations and findings is presented and discussed in this article. Additionally, the main approaches to evaluate seismic soil-structure interaction problems with the commonly used modelling techniques and computational methods are highlighted. The strength, limitations, and application cases of each model are also discussed and compared. Moreover, the role of SSI in various design codes and global guidelines is summarized. Finally, the advancements and recent findings on the SSI effects on the seismic response of buildings with different structural systems and foundation types are presented. In addition, with the aim of helping new researchers to improve previous findings, the research gaps and future research tendencies in the SSI field are pointed out.
Aktuell findet aufgrund gesellschaftspolitischer Forderungen in vielen Industriezweigen ein Umdenken in Richtung Effizienz und Ökologie aber auch Digitalisierung und Industrie 4.0 statt. In dieser Hinsicht steht die Bauindustrie, im Vergleich zu Industrien wie IT, Automobil- oder Maschinenbau, noch am Anfang.
Dabei sind die Potentiale zur Einsparung und Optimierung gerade in der Bauindustrie aufgrund der großen Mengen an zu verarbeiteten Materialien besonders hoch. Die internationale Ressourcen- und Klimadebatte führt verstärkt dazu, dass auch in der Zement- und Betonherstellung neue Konzepte erstellt und geprüft werden. Einerseits erfolgt intensive Forschung und Entwicklung im Bereich alternativer, klimafreundlicher Zemente. Andererseits werden auch auf Seiten der Betonherstellung innovative materialsparende Konzepte geprüft, wie die aktuelle Entwicklung von 3D-Druck mit Beton zeigt.
Aufgrund der hohen Anforderungen an Konstruktion, Qualität und Langlebigkeit von Bauwerken, besitzen Betonfertigteile oftmals Vorteile gegenüber Ortbeton. Die hohe Oberflächenqualität und Dauerhaftigkeit aber auch die Gleichmäßigkeit und witterungsunabhängige Herstellung sind Merkmale, die im Zusammenhang mit Betonfertigteilen immer wieder erwähnt werden. Dabei ist es essenziell, dass auch der Betonherstellungsprozess im Fertigteilwerk kritisch hinterfragt wird, damit eine effizientere und nachhaltigere Produktion von Betonfertigteilen möglich wird.
Bei der Herstellung von Betonteilen im Fertigteilwerk liegt ein besonderer Fokus auf der Optimierung der Frühfestigkeitsentwicklung. Hohe Frühfestigkeiten sind Voraussetzung für einen hochfrequenten Schalungszyklus, was Arbeiten im 2- bzw. 3-Schichtbetrieb ermöglicht. Oft werden zur Sicherstellung hoher Frühfestigkeiten hochreaktive Zemente in Kombination mit hohen Zementgehalten im Beton und/oder einer Wärmebehandlung eingesetzt. Unter dieser Prämisse ist eine ökologisch nachhaltige Betonproduktion mit verminderter CO2 Bilanz nicht möglich.
In der vorliegenden Arbeit wird ein neues Verfahren zur Beschleunigung von Beton eingeführt. Hierbei werden die Bestandteile Zement und Wasser (Zementsuspension) mit Ultraschall vorbehandelt. Ausgangspunkt der Arbeit sind vorangegangene Untersuchungen zum Einfluss von Ultraschall auf die Hydration von Zement bzw. dessen Hauptbestandteil Tricalciumsilikat (C3S), die im Rahmen dieser Arbeit weiter vertieft werden. Darüber hinaus wird die Produktion von Beton mit Ultraschall im Technikumsmaßstab betrachtet. Die so erlangten Erfahrungen dienten dazu, das Ultraschall-Betonmischsystem weiterzuentwickeln und erstmalig zur industriellen Betonproduktion zu nutzen.
In der vorliegenden Arbeit werden die Auswirkungen von Ultraschall auf die Hydratation von C3S zunächst weitergehend und grundlegend untersucht. Dies erfolgte mittels Messung der elektrischen Leitfähigkeit, Analyse der Ionenkonzentration (ICP-OES), Thermoanalyse, Messung der BET-Oberfläche sowie einer optischen Auswertung mittels Rasterelektronenmikroskopie (REM). Der Fokus liegt auf den ersten Stunden der Hydratation, also der Zeit, die durch die Ultraschallbehandlung am stärksten beeinflusst wird.
In den Untersuchungen zeigt sich, dass die Beschleunigungswirkung von Ultraschall in verdünnten C3S Suspensionen (w/f-Wert = 50) stark von der Portlanditkonzentration der Lösung abhängt. Je niedriger die Portlanditkonzentration, desto größer ist die Beschleunigung. Ergänzende Untersuchungen der Ionenkonzentration der Lösung sowie Untersuchungen am hydratisierten C3S zeigen, dass unmittelbar nach der Beschallung (nach ca. 15 Minuten Hydratation) erste Hydratphasen vorliegen. Die durch Ultraschall initiiere Beschleunigung ist in den ersten 24 Stunden am stärksten und klingt dann sukzessive ab. Die Untersuchungen schließen mit Experimenten an C3S-Pasten (w/f-Wert = 0,50), die die Beobachtungen an den verdünnten Suspensionen bestätigen und infolge der Beschallung ein früheres Auftreten und einen größeren Anteil an C-S-H Phasen zeigen. Es wird gefolgert, dass die unmittelbar infolge von Ultraschall erzeugten C-S-H Phasen als Kristallisationskeim während der folgenden Reaktion dienen und daher Ultraschall als in-situ Keimbildungstechnik angesehen werden kann. Optisch zeigt sich, dass die C-S-H Phasen der beschallten Pasten nicht nur viel früher auftreten, sondern kleiner sind und fein verteilt über die Oberfläche des C3S vorliegen. Auch dieser Effekt wird als vorteilhaft für den sich anschließenden regulären Strukturaufbau angesehen.
Im nächsten Schritt wird daher der Untersuchungsfokus vom Modellsystem mit C3S auf Portlandzement erweitert. Hierbei wird der Frage nachgegangen, wie sich eine Änderung der Zusammensetzung der Zementsuspension (w/z-Wert, Fließmittelmenge) beziehungsweise eine Änderung des Ultraschallenergieeintrag auf die Fließeigenschaften und das Erhärtungsverhalten auswirken.
Um den Einfluss verschiedener Faktoren gleichzeitig zu betrachten, werden mit Hilfe von statistischen Versuchsplänen Modelle erstellt, die das Verhalten der einzelnen Faktoren beschreiben. Zur Beschreibung der Fließeigenschaften wurde das Setzfließ- und Ausbreitmaß von Zementsuspensionen herangezogen. Die Beschleunigung der Erhärtung wurde mit Hilfe der Ermittlung des Zeitpunkts des normalen Erstarrens der Zementsuspension bestimmt.
Die Ergebnisse dieser Untersuchungen zeigen deutlich, dass die Fließeigenschaften und der Erstarrungsbeginn nicht linear mit steigendem Ultraschall-Energieeintrag verändert werden. Es zeigt sich, dass es besonders bei den Verarbeitungseigenschaften der Portlandzementsuspensionen zur Ausbildung eines spezifischen Energieeintrages kommt, bis zu welchem das Setzfließ- und das Ausbreitmaß erhöht werden. Bei Überschreiten dieses Punktes, der als kritischer Energieeintrag definiert wurde, nimmt das Setzfließ- und Ausbreitmaß wieder ab. Das Auftreten dieses Punktes ist im besonderen Maße abhängig vom w/z-Wert. Mit sinkendem w/z-Wert wird der Energieeintrag, der eine Verbesserung der Fließeigenschaften hervorruft, reduziert. Bei sehr niedrigen w/z-Werten (< 0,35), kann keine Verbesserung mehr beobachtet werden.
Wird Fließmittel vor der Beschallung zur Zementsuspension zugegeben, können die Eigenschaften der Zementsuspension maßgeblich beeinflusst werden. In beschallten Suspensionen mit Fließmittel, konnte in Abhängigkeit des Energieeintrages die fließmittelbedingte Verzögerung des Erstarrungsbeginns deutlich reduziert werden. Weiterhin zeigt sich, dass der Energieeintrag, der notwendig ist um den Erstarrungsbeginn um einen festen Betrag zu reduzieren, bei Suspensionen mit Fließmittel deutlich reduziert ist.
Auf Grundlage der Beobachtungen an Zementsuspensionen wird der Einfluss von Ultraschall in einen dispergierenden und einen beschleunigenden Effekt unterteilt. Bei hohen w/z-Werten dominiert der dispergierende Einfluss von Ultraschall und der Erstarrungsbeginn wird moderat verkürzt. Bei niedrigeren w/z-Werten der Zementsuspension, dominiert der beschleunigende Effekt wobei kein oder sogar ein negativer Einfluss auf die Verarbeitungseigenschaften beobachtet werden kann.
Im nächsten Schritt werden die Untersuchungen auf den Betonmaßstab mit Hilfe einer Technikumsanlage erweitert und der Einfluss eines zweistufigen Mischens (also dem Herstellen einer Zementsuspension im ersten Schritt und dem darauffolgenden Vermischen mit der Gesteinskörnung im zweiten Schritt) mit Ultraschall auf die Frisch- und Festbetoneigenschaften betrachtet. Durch die Anlagentechnik, die mit der Beschallung größerer Mengen Zementsuspension einhergeht, kommen weitere Einflussfaktoren auf die Zementsuspension hinzu (z. B. Pumpgeschwindigkeit, Temperatur, Druck). Im Rahmen der Untersuchungen wurde eine Betonrezeptur mit und ohne Ultraschall hergestellt und die Frisch- und Festbetoneigenschaften verglichen. Darüber hinaus wurde ein umfangreiches Untersuchungsprogramm zur Ermittlung wesentlicher Dauerhaftigkeitsparameter durchgeführt. Aufbauend auf den Erfahrungen mit der Technikumsanlage wurde das Ultraschall-Vormischsystem in mehreren Stufen weiterentwickelt und abschließend in einem Betonwerk zur Betonproduktion verwendet.
Die Untersuchungen am Beton zeigen eine deutliche Steigerung der Frühdruckfestigkeiten des Portlandzementbetons. Hierbei kann die zum Entschalen von Betonbauteilen notwendige Druckfestigkeit von 15 MPa deutlich früher erreicht werden. Das Ausbreitmaß der Betone (w/z-Wert = 0,47) wird infolge der Beschallung leicht reduziert, was sich mit den Ergebnissen aus den Untersuchungen an reinen Zementsuspensionen deckt. Bei Applikation eines Überdruckes in der Beschallkammer oder einer Kühlung der Suspension während der Beschallung, kann das Ausbreitmaß leicht gesteigert werden. Allerdings werden die hohen Frühdruckfestigkeiten der ungekühlten beziehungsweise drucklosen Variante nicht mehr erreicht.
In den Untersuchungen kann gezeigt werden, dass das Potential durch die Ultraschall-Beschleunigung genutzt werden kann, um entweder die Festigkeitsklasse des Zementes leitungsneutral zu reduzieren (von CEM I 52,5 R auf CEM I 42,5 R) oder eine 4-stündige Wärmebehandlung vollständig zu substituieren. Die Dauerhaftigkeit der Betone wird dabei nicht negativ beeinflusst. In den Untersuchungen zum Sulfat-, Karbonatisierung-, Chlorideindring- oder Frost/Tauwiderstand kann weder ein positiver noch ein negativer Einfluss durch die Beschallung abgeleitet werden. Ebenso kann in einer Untersuchung zur Alkali-Kieselsäure-Reaktion kein negativer Einfluss durch die Ultraschallbehandlung beobachtet werden.
In den darauf aufbauenden Untersuchungen wird die Anlagentechnik weiterentwickelt, um die Ultraschallbehandlung stärker an eine reale Betonproduktion anzupassen. In der ersten Iterationsstufe wird das in den Betonuntersuchungen verwendete Anlagenkonzept 1 modifiziert (von der In-line-Beschallung zur Batch-Beschallung) und als Analgenkonzept 2 für weitere Untersuchungen genutzt. Hierbei wird eine neue Betonrezeptur mit höherem w/z-Wert (0,52) verwendet, wobei die Druckfestigkeiten ebenfalls deutlich gesteigert werden können. Im Gegensatz zum ersten Beton, wird das Ausbreitmaß dieser Betonzusammensetzung gesteigert, was zur Reduktion von Fließmittel genutzt wird. Dies deckt sich ebenfalls mit den Beobachtungen an reinen Portlandzementsuspensionen, wo eine deutliche Verbesserung der Fließfähigkeit bei höheren w/z-Werten beschrieben wird.
Für diese Betonrezeptur wird ein Vergleich mit einem kommerziell erhältlichen Erhärtungsbeschleuniger (synthetische C-S-H-Keime) angestellt. Hierbei zeigt sich, dass die Beschleunigungswirkung beider Technologien vergleichbar ist. Eine Kombination beider Technologien führt zu einer weiteren deutlichen Steigerung der Frühfestigkeiten, so dass hier von einem synergistischen Effekt ausgegangen werden kann.
In der letzten Iterationsstufe, dem Anlagenkonzept 3, wird beschrieben, wie das Mischsystem im Rahmen einer universitären Ausgründung signifikant weiterentwickelt wird und erstmals in einem Betonwerk zur Betonproduktion verwendet wird. Bei den Überlegungen zur Weiterentwicklung des Ultraschall-Mischsystems wird der Fokus auf die Praktikabilität gelegt und gezeigt, dass das ultraschallgestütze Mischsystem die Druckfestigkeitsentwicklung auch im Werksmaßstab deutlich beschleunigen kann. Damit ist die Voraussetzung für eine ökologisch nachhaltige Optimierung eines Fertigteilbetons unter realen Produktionsbedingungen geschaffen worden.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
Audiovisuelles Cut-Up
(2023)
Diese Forschungsarbeit bezeichnet und analysiert ein ästhetisches Phänomen audiovisueller Arbeiten mit sehr schnellen Schnitten. Der Begriff „Audiovisuelles Cut-Up“ wird vorgeschlagen um dieses Phänomen zu bezeichnen. Verschiedenste audiovisuelle Arbeiten aus unterschiedlichen Kontexten werden analysiert, welche das formale Kriterium von extrem kurzen Einstellungen erfüllen – einschließlich der eigenen Forschungsbeiträge des Autors. Die Werkzeuge und Technologien, welche die neuartige Ästhetik ermöglichten werden vorgestellt. Oftmals wurden diese von den Künstlern selbst geschaffen, da fertige Lösungen nicht verfügbar waren. Audiovisuelle Cut-Ups werden nach Kontext und Medium systematisiert und verortet. Es schließen sich Beobachtungen an, in wie fern Audio und Video sich in ihrem Charakter unterscheiden, was die kleinste wahrnehmbare Einheit ist und welche Rolle Latenzen und Antizipation bei der Wahrnehmung von audiovisuellen Medien spielen.
Drei Hauptthesen werden Aufgestellt: 1. Audiovisuelles Cut-Up hat die Kraft winzige, vormals überdeckte Details deutlich zu machen. Damit kann es das Quellmaterial verdichten aber auch den Inhalt manipulieren. 2. Technische Entwicklungen haben das audiovisuelle Cut-Up hervorgerufen. 3. Heute ist die Ästhetik als ein Stilmittel im Werkzeugkasten audiovisueller Gestaltung etabliert.
The artistic research work is concerned with webs of transnational artistic solidarity, especially those ingrained in the Nonaligned Movement (NAM), which embraced differences and united them in a common anti-imperialist and anti-colonial fight. Taking the museum as an artefact of historically situated solidarity, the project examines the instruments of transnational art solidarity for conceiving, developing and implementing decolonial cultural practices today. The main research question regards thinking about whether and how the emancipatory potential of the transnational art solidarity can be extracted, recuperated and translated when dealing with present issues of cultural decolonisation. Three museums founded on the bases of international solidarity and donations of artworks form the case study. Consequently, the research findings are systematised in three discourses: The Autonomous Museum; The Decolonial Museum; and The Museum in Exile.
Die vorliegende Studie geht der Fragestellung nach, wie sich eine anbieterübergreifende, abonnementbasierte Plattform für den digitalen Journalismus, also eine Art Spotify im Journalismus, auf die Umsätze der Anbieter journalistischer Inhalte und die Abonnements im Digitaljournalismus in Deutschland auswirken würde. Auf Basis drei sich ergänzender Schätzmethoden für Zahlungsbereitschaft, die in zwei Repräsentativbefragungen der deutschen Online-Bevölkerung mit insgesamt 8.000 Teilnehmenden angewandt wurden, gelangt das Whitepaper zu den folgenden Schlüsselbefunden.
Antimicrobial resistances (AMR) are ranked among the top ten threats to public health and societal development worldwide. Toilet wastewater contained in domestic wastewater is a significant source of AMR entering the aquatic environment. The current commonly implemented combined sewer systems at times cause overflows during rain events, resulting in the discharge of untreated wastewater into the aquatic environment, thus promoting AMR. In this short research article, we describe an approach to transform combined sewer systems into source separation-modified combined sewer systems that separately treat toilet wastewater. We employ simulations for demonstrating that source separation-modified combined sewer systems reduce the emission of AMR- causing substances by up to 11.5 logarithm levels. Thus, source separation- modified combined sewer systems are amongst the most effective means of combating AMR.
KEYWORDS
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Modell bedarfsorientierter Leistungserbringung im FM auf Grundlage von Sensortechnologien und BIM
(2023)
Während der Digitalisierung im Bauwesen insbesondere im Bereich der Planungs- und Errichtungsphase von Bauwerken immer größere Aufmerksamkeit zuteilwird, ist das digitale Potenzial im Facility Management weit weniger ausgeschöpft, als dies möglich wäre. Vor dem Hintergrund, dass die Bewirtschaftung von Gebäuden jedoch einen wesentlichen Kostenanteil im Lebenszyklus darstellt, ist eine Fokussierung auf digitale Prozesse im Gebäudebetrieb erforderlich. Im Facility Management werden Dienstleistungen häufig verrichtungsorientiert, d. h. nach statischen Intervallen, oder bedarfsorientiert erbracht. Beide Arten der Leistungserbringung weisen Defizite auf, beispielweise weil Tätigkeiten auf Basis definierter Intervalle erbracht werden, ohne dass eine Notwendigkeit besteht oder weil bestehende Bedarfe mangels Möglichkeiten der Bedarfsermittlung nicht identifiziert werden. Speziell die Definition und Ermittlung eines Bedarfs zur Leistungserbringung ist häufig subjektiv geprägt. Auch sind Dienstleister oft nicht in frühen Phasen der Gebäudeplanung involviert und erhalten für ihre Dienstleistungen notwendige Daten und Informationen erst kurz vor Inbetriebnahme des zu betreibenden Gebäudes.
Aktuelle Ansätze des Building Information Modeling (BIM) und die zunehmende Verfügbarkeit von Sensortechnologien in Gebäuden bieten Chancen, die o. g. Defizite zu beheben.
In der vorliegenden Arbeit werden deshalb Datenmodelle und Methoden entwickelt, die mithilfe von BIM-basierten Datenbankstrukturen sowie Auswertungs- und Entscheidungsmethodiken Dienstleistungen der Gebäudebewirtschaftung objektiviert und automatisiert auslösen können. Der Fokus der Arbeit liegt dabei auf dem Facility Service der Reinigungs- und Pflegedienste des infrastrukturellen Facility Managements.
Eine umfangreiche Recherche etablierter Normen und Standards sowie öffentlich zugänglicher Leistungsausschreibungen bilden die Grundlage der Definition erforderlicher Informationen zur Leistungserbringung. Die identifizierten statischen Gebäude- und Prozessinformationen werden in einem relationalen Datenbankmodell strukturiert, das nach einer Darstellung von Messgrößen und der Beschreibung des Vorgehens zur Auswahl geeigneter Sensoren für die Erfassung von Bedarfen, um Sensorinformationen erweitert wird. Um Messwerte verschiedener und bereits in Gebäuden existenten Sensoren für die Leistungsauslösung verwenden zu können, erfolgt die Implementierung einer Normierungsmethodik in das Datenbankmodell. Auf diese Weise kann der Bedarf zur Leistungserbringung ausgehend von Grenzwerten ermitteln werden. Auch sind Verknüpfungsmethoden zur Kombination verschiedener Anwendungen in dem Datenbankmodell integriert. Zusätzlich zur direkten Auslösung erforderlicher Aktivitäten ermöglicht das entwickelte Modell eine opportune Auslösung von Leistungen, d. h. eine Leistungserbringung vor dem eigentlich bestehenden Bedarf. Auf diese Weise können tätigkeitsähnliche oder räumlich nah beieinander liegende Tätigkeiten sinnvoll vorzeitig erbracht werden, um für den Dienstleister eine Wegstreckeneinsparung zu ermöglichen. Die Arbeit beschreibt zudem die für die Auswertung, Entscheidungsfindung und Auftragsüberwachung benötigen Algorithmen.
Die Validierung des entwickelten Modells bedarfsorientierter Leistungserbringung erfolgt in einer relationalen Datenbank und zeigt simulativ für unterschiedliche Szenarien des Gebäudebetriebs, dass Bedarfsermittlungen auf Grundlage von Sensortechnologien erfolgen und Leistungen opportun ausgelöst, beauftragt und dokumentiert werden können.
Due to the development of new technologies and materials, optimized bridge design has recently gained more attention. The aim is to reduce the bridge components materials and the CO2 emission from the cement manufacturing process. Thus, most long-span bridges are designed to be with high flexibility, low structural damping, and longer and slender spans. Such designs lead, however, to aeroelastic challenges. Moreover, the consideration of both the structural and aeroelastic behavior in bridges leads to contradictory solutions as the structural constraints lead to deck prototypes with high depth which provide high inertia to material volume ratios. On the other hand, considering solely the aerodynamic requirements, slender airfoil-shaped bridge box girders are recommended since they prevent vortex shedding and exhibit minimum drag. Within this framework comes this study which provides approaches to find optimal bridge deck cross-sections while considering the aerodynamic effects. Shape optimization of deck cross-section is usually formulated to minimize the amount of material by finding adequate parameters such as the depth, the height, and the thickness and while ensuring the overall stability of the structure by the application of some constraints. Codes and studies have been implemented to analyze the wind phenomena and the structural responses towards bridge deck cross-sections where simplifications have been adopted due to the complexity and the uniqueness of such components besides the difficulty of obtaining a final model of the aerodynamic behavior. In this thesis, two main perspectives have been studied; the first is fully deterministic and presents a novel framework on generating optimal aerodynamic shapes for streamlined and trapezoidal cross-sections based on the meta-modeling approach. Single and multi-objective optimizations were both carried out and a Pareto Front is generated. The performance of the optimal designs is checked afterwards. In the second part, a new strategy based on Reliability-Based Design Optimization (RBDO) to mitigate the vortex-induced vibration (VIV) on the Trans-Tokyo Bay bridge is proposed. Small changes in the leading and trailing edges are presented and uncertainties are considered in the structural system. Probabilistic constraints based on polynomial regression are evaluated and the problem is solved while applying the Reliability Index Approach (RIA) and the Performance Measure Approach (PMA). The results obtained in the first part showed that the aspect ratio has a significant effect on the aerodynamic behavior where deeper cross-sections have lower resistance against flutter and should be avoided. In the second part, the adopted RBDO approach succeeded to mitigate the VIV, and it is proven that designs with narrow or prolonged bottom-base length and featuring an abrupt surface change in the leading and trailing edges can lead to high vertical vibration amplitude. It is expected that this research will help engineers with the selections of the adequate deck cross-section layout, and encourage researchers to apply concepts of optimization regarding this field and develop the presented approaches for further studies.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
Die Form der Datenbank
(2023)
Datenbanken sind heute die wichtigste Technik zur Organisation und Verarbeitung von Daten. Wie wurden sie zu einer der allgegenwärtigsten und gleichzeitig unsichtbarsten Praxis, die menschliche Zusammenarbeit ermöglicht? Diese Studie beginnt mit einer historiographischen Erkundung der zentralen medialen Konzepte von Datenbanken und mündet in das praxeologische Konzept der "Daten als Formation", kurz: In-Formation.
Der erste Hauptteil befasst sich mit der Formatierung von Daten durch die Verarbeitung strukturierter Daten mittels relationaler Algebra. Es wird erarbeitet, auf welche Weise Struktur neues Wissen schafft. Im zweiten Teil wird erörtert, wie Datenbanken durch den diagrammatisch-epistemischen Raum der Tabelle operationalisiert werden. Drittens untersucht die Studie Transaktionen als Erklärungen dafür, wie Daten und reale Handlungen koordiniert und synchronisiert werden können.
Im zweiten Hauptteil wird untersucht, wie relationale Datenbanken zunehmend zum Zentrum von Softwareanwendungen und Infrastrukturen wurden, wobei der Schwerpunkt auf wirtschaftlichen Praktiken liegt. In einem vergleichenden Ansatz wird anhand von Fallstudien in der DDR der 1970er bis 1990er Jahren die Frage gestellt, ob es eine „sozialistische“ Datenbankmanagement-Software gegeben hat. Dabei werden die „westlichen“ Produktionsdatenbanken BOMP, COPICS und MAPICS (IBM) sowie R2 (SAP) im Zusammenspiel mit den ostdeutschen Sachgebietsorientierten Programmiersystemen (SOPS) von Robotron diskutiert. Schließlich untersucht dieser Teil, wie die DDR ihr eigenes relationales Datenbankmanagementsystem, DABA 1600, entwickelte und dabei „westliche“ Technologie neu interpretierte.
Das abschließende Kapitel fasst die Konzepte der relationalen Datenbanken als heute wichtigsten Datenorganisationstechnik zusammen. Es erörtert, inwiefern es möglich ist, die historiographische Erzählung über die Entstehung von Datenbankmanagementsystemen und ihre Folgen für die Geschichte der Informatik zu dezentrieren. Es schließt mit der Erkenntnis, dass östliche und westliche Medien der Kooperation sich in Form und Funktion erstaunlich ähnlich sind, beide wurzeln in den tiefen Genealogien von organisatorischen und wissensbildenden Datenpraktiken.
Neben dieser medienwissenschaftlichen Arbeit besteht die Dissertation aus einem künstlerischen Teil, der dokumentiert wird: Anhand einer Reihe von Vlogs erkundet die fiktionale Figur „Data Proxy“ aktuelle Datenökologien.
In this work, practice-based research is conducted to rethink the understanding of aesthetics, especially in relation to current media art. Granted, we live in times when technologies merge with living organisms, but we also live in times that provide unlimited resources of knowledge and maker tools. I raise the question: In what way does the hybridization of living organisms and non-living technologies affect art audiences in the culture that may be defined as Maker culture? My hypothesis is that active participation of an audience in an artwork is inevitable for experiencing the artwork itself, while also suggesting that the impact of the umwelt changes the perception of an artwork. I emphasize artistic projects that unfold through mutual interaction among diverse peers, including humans, non-human organisms, and machines. In my thesis, I pursue collaborative scenarios that lead to the realization of artistic ideas: (1) the development of ideas by others influenced by me and (2) the materialization of my own ideas influenced by others. By developing the scenarios of collaborative work as an artistic experience, I conclude that the role of an artist in Maker culture is to mediate different types of knowledge and different positions, whereas the role of the audience is to actively engage in the artwork itself. At the same time, aesthetics as experience is triggered by the other, including living and non-living actors. It is intended that the developed methodologies could be further adapted in artistic practices, philosophy, anthropology, and environmental studies.
Resonance vibration of structures is an unpleasant incident that can be conventionally avoided by using a Tuned Mass Damper (TMD). The scope of this paper contains the utilization of engineered inclusions in concrete as damping aggregates to suppress resonance vibration similar to a TMD. The inclusions are composed of a stainless-steel core with a spherical shape coated with silicone. This configuration has been the subject of several studies and it is best known as Metaconcrete. This paper presents the procedure of a free vibration test conducted with two small-scaled concrete beams. The beams exhibited a higher damping ratio after the core-coating element was secured to them. Subsequently, two meso-models of small-scaled beams were created: one representing conventional concrete and the other representing concrete with the core-coating inclusions. The frequency response curves of the models were obtained. The change in the response peak verified the ability of the inclusions to suppress the resonance vibration. This study concludes that the core-coating inclusions can be utilized in concrete as damping aggregates.
Urban Heat Transition in Berlin: Corporate Strategies, Political Conflicts, and Just Solutions
(2023)
In the field of urban climate policy, heat production and demand are key sectors for achieving a sustainable city. Heat production has to shift from fossil to renewable energies, and the heat demand of most buildings has to be reduced significantly via building retrofits. However, analyses of heat transition still lack its contextualization within entangled urban politico-economic processes and materialities and require critical socio-theoretical examination. Asking about the embeddedness of heat transition within social relations and its implications for social justice issues, this article discusses the challenges and opportunities of heat transition, taking Berlin as an example. It uses an urban political ecology perspective to analyze the materialities of Berlin’s heating-housing nexus, its politico-economic context, implications for relations of inequality and power, and its contested strategies. The empirical analysis identifies major disputes about the future trajectory of heat production and about the distribution of retrofit costs. Using our conceptual approach, we discuss these empirical findings against the idea of a more just heat transition. For this purpose, we discuss three policy proposals regarding cost distribution, urban heat planning, and remunicipalization of heat utilities. We argue that this conceptual approach provides huge benefits for debates around heat transition and, more generally, energy justice and just transitions.
Beyond metropolitan areas, many peripheral regions and their cities in Europe have, in manifold ways, been significantly shaped by industrialisation. In the context of the relocation of industrial production to other countries over the last decades, the question has been raised as to the role this heritage can play in futural regional development as well as the potential local identification with this history. Hence, this article seeks to analyse the perception of the industrial heritage in the Vogtland region, located alongside the border of three German federal states and the Czech Republic. It inquires as to the perception of the industrial heritage by the local population and related potential future narrations. Based on spontaneous and explorative interviews with local people as an empirical base, a discrepancy between the perception of the tangible and intangible dimensions of the industrial heritage can be observed. On the one hand, the tangible heritage like older factories and production complexes are seen as a functional legacy and an “eyesore” narrative is attributed to them. On the other hand, people often reference the personal and familial connection to the industry and highlight its importance for the historical development and the wealth of the region. But these positive associations are mainly limited to the intangible dimension and are disconnected from the material artefacts of industrial production.
The characteristic values of climatic actions in current structural design codes are based on a specified probability of exceedance during the design working life of a structure. These values are traditionally determined from the past observation data under a stationary climate assumption. However, this assumption becomes invalid in the context of climate change, where the frequency and intensity of climatic extremes varies with respect to time. This paper presents a methodology to calculate the non-stationary characteristic values using state of the art climate model projections. The non-stationary characteristic values are calculated in compliance with the requirements of structural design codes by forming quasi-stationary windows of the entire bias-corrected climate model data. Three approaches for the calculation of non-stationary characteristic values considering the design working life of a structure are compared and their consequences on exceedance probability are discussed.
Care of ageing adults has become a dominant field of application for assistive robot technologies, promising support for ageing adults residing in care homes and staff, in dealing with practical routine tasks and providing social and emotional relieve. A time consuming and human intensive necessity is the maintenance of high hygiene quality in care homes. Robotic vacuum cleaners have been proven effective for doing the job elsewhere, but—in the context of care homes—are counterproductive for residents’ well-being and do not get accepted. This is because people with dementia manifest their agency in more implicit and emotional ways, while making sense of the world around them. Starting from these premises, we explored how a zoomorphic designed vacuum cleaner could better accommodate the sensemaking of people with dementia. Our design reconceptualises robotic vacuum cleaners as a cat-like robot, referring to a playful behaviour and appearance to communicate a non-threatening and familiar role model. Data from an observational study shows that residents responded positively to our prototype, as most of them engaged playfully with it as if it was a pet or a cat-like toy, for example luring it with gestures. Some residents simply ignored the robot, indicating that it was not perceived as frightening or annoying. The level of activity influenced reactions; residents ignored our prototype if busy with other occupations, which proves that it did not cause significant disturbance. We further report results from focus group sessions with formal and informal caregivers who discussed a video prototype of our robot. Caregivers encouraged us to enhance the animal like characteristics (in behaviour and materiality) even further to result in richer interactions and provoke haptic pleasure but also pointed out that residents should not mistake the robot for a real cat.
Patterns of Detachment: Spatial Transformations of the Phosphate Industry in el-Quseir, Egypt
(2023)
The establishment of phosphate mines and processing plants by Italian entrepreneurs in el-Quseir in 1912 revitalized a town that had faced a steady decline after the opening of the Suez Canal and re-linked it to the world economy. To this day, the now defunct industrial site occupies a large section of physical el-Quseir and plays a key role in its identity. In this article, we explore the impact of the company’s successive industrialization and deindustrialization based on archival research, interviews, and mapping. By tracing physical changes on-site and in the city of el-Quseir from the founding of its phosphate industry until today, as well as the historical and current interactions of citizens with the industrial facilities, we hope to better understand the “cluster value” of the industrial plant in quotidian life and the effect of the vacuum left behind after the termination of production. As machinery and buildings are slowly eroding in the absence of expressed interest by the former Italian and current Egyptian owners, we aim to discuss the relationship between the citizens and their el-Quseir phosphate plant as a crucial element of its heritage value at the local level.
Identification of modal parameters of a space frame structure is a complex assignment due to a large number of degrees of freedom, close natural frequencies, and different vibrating mechanisms. Research has been carried out on the modal identification of rather simple truss structures. So far, less attention has been given to complex three-dimensional truss structures. This work develops a vibration-based methodology for determining modal information of three-dimensional space truss structures. The method uses a relatively complex space truss structure for its verification. Numerical modelling of the system gives modal information about the expected vibration behaviour. The identification process involves closely spaced modes that are characterised by local and global vibration mechanisms. To distinguish between local and global vibrations of the system, modal strain energies are used as an indicator. The experimental validation, which incorporated a modal analysis employing the stochastic subspace identification method, has confirmed that considering relatively high model orders is required to identify specific mode shapes. Especially in the case of the determination of local deformation modes of space truss members, higher model orders have to be taken into account than in the modal identification of most other types of structures.
In this paper we propose a novel and efficient rasterization-based approach for direct rendering of isosurfaces. Our method exploits the capabilities of task and mesh shader pipelines to identify subvolumes containing potentially visible isosurface geometry, and to efficiently extract primitives which are consumed on the fly by the rasterizer. As a result, our approach requires little preprocessing and negligible additional memory. Direct isosurface rasterization is competitive in terms of rendering performance when compared with ray-marching-based approaches, and significantly outperforms them for increasing resolution in most situations. Since our approach is entirely rasterization based, it affords straightforward integration into existing rendering pipelines, while allowing the use of modern graphics hardware features, such as multi-view stereo for efficient rendering of stereoscopic image pairs for geometry-bound applications. Direct isosurface rasterization is suitable for applications where isosurface geometry is highly variable, such as interactive analysis scenarios for static and dynamic data sets that require frequent isovalue adjustment.
Die Corona-Krise stellt das städtische Zusammenleben auf eine harte Probe. Nicht nur sozialer Austausch, Kultur und Verkehr, sondern auch die kommunale Demokratie ist massiv beeinflusst. Wer kann in der Krise noch mitsprechen? Und wie verändert sie das Zusammenspiel von Verwaltung, Politik und Zivilgesellschaft? Die Beiträger*innen untersuchen anhand von Fallstudien die Auswirkungen der Krise auf die kommunale Beteiligungskultur. Sie fragen mit interdisziplinärem Blick nach der kommunalen Krisenbewältigung und erfolgreichen Governance-Strukturen im Kontext multipler Krisen. Ihr Ansatz der kritischen Urbanistik versteht sich dabei als Einladung zur Reflexion, Debatte und alternativen Praxis.
Anhand der städtebaulichen und sozialen Transformation des östlichen Gründerzeitgebietes von Leipzig wird die Rolle von migrantischen Hausbesitzenden und in der Bausanierung Tätigen im Aufwertungsprozess untersucht. Der Zugang zum Gegenstand verbindet Fragen der Stadtsoziologie und der Denkmalforschung. Im sozialen Feld der Stadterneuerung wird die Revitalisierung des ehemals von Leerstand und Rückbau betroffenen Baubestandes ausgehandelt. Die Positionen der Akteur:innen im Feld werden durch ihre Ausstattung mit ökonomischem, aber auch sozialem und kulturellem Kapital bestimmt. Angehörige der Planungs- und Denkmalbehörden verfügen über institutionalisiertes Kulturkapital und stehen damit Kleineigentümer:innen, häufig Autodidakt:innen, gegenüber. Baudenkmale können über ihre Funktion als Geldanlage und Wohnraum hinaus Status repräsentieren und symbolisch angeeignet werden. Denkmalschutz dient dem öffentlichen Interesse am Erhalt historischer Bausubstanz. Bei Sanierungen bestehen die Herausforderungen der Vereinbarkeit von Konservierung und Modernisierung, der Finanzierbarkeit für Eigentümer:innen und der Sozialverträglichkeit für Bewohnende. Eine Darstellung der historischen Entwicklung des Leipziger Ostens zu Beginn der Analyse veranschaulicht die Abhängigkeit kultureller, sozialer und ökonomischer Werte des Baubestandes vom jeweiligen gesellschaftlichen Kontext. Planerische Konzepte für das Gebiet zeigen, dass eine sozioökonomische Stabilisierung und Imageverbesserung erreicht werden sollte durch das Aufgreifen von Potentialen, wie den denkmalgeschützten Bauten, dem zuziehenden alternativen Milieu und migrantischer Ökonomie. Es wird deutlich, dass nach einer initialen Ansässigkeit von Pionier:innen die öffentlichen Infrastrukturmaßnahmen und Denkmalausweisungen eine Inwertsetzung v. a. durch externe Anlegende vorbereiteten. Darauf aufbauend wurden anhand einer qualitativen Befragung die Erfahrungen von städtischen Mitarbeitenden, Fachleuten und im Quartier Engagierten denen von lokalen migrantischen Hausbesitzenden und im Bereich Sanierung Tätigen gegenübergestellt. Migrant:innengruppen haben den Stadtraum in einer Phase vorherrschender Abwanderung durch die Eröffnung von Geschäften und Institutionen sowie den Erwerb von Immobilien für sich erschlossen. Strukturelle Benachteiligungen, wie Diskriminierung auf dem Arbeitsmarkt, ihre Ansässigkeit im sozial stigmatisierten Gebiet sowie geringes ökonomisches Kapital versuchten sie durch den Einsatz von sozialem Kapital auszugleichen. Sanierungen erfolgten mit hoher Eigenleistung und Rückgriff auf private Netzwerke. Die Analyse des Erneuerungsprozesses im Leipziger Osten zeigt, dass in einer initialen Phase Pionier:innen von Planenden und der Denkmalpflege als essentiell für die Entwicklung angesehen wurden. Günstige Instandsetzungen durch Kleineigentümer:innen wurden akzeptiert, um Gebäude vor weiterem Verfall zu bewahren. Mit der zunehmenden Forderung nach Verwendung hochwertiger Materialen werden die Sanierungsleistungen nach ästhetischen und letztlich ökonomischen Kriterien bewertet. Gegenüber sozialen Folgen einer Aufwertung von Bausubstanz lässt sich eine unkritische Haltung der Denkmalpflege erkennen. Bei der Vermarktung der Bestände durch professionelle Investierende findet die Sozialgeschichte des Stadtteils wenig Berücksichtigung, positiv besetzte Merkmale des Quartiers, wie Multikulturalität werden selektiv aufgegriffen. Der Anteil migrantischer Akteur:innen an der Entwicklung wird durch die Öffentlichkeit unzureichend anerkannt. Auch die Wertschätzung von Planenden und im Quartier Engagierten erfolgt v. a. anhand des ökonomischen Status. Hohe Erwartungen an die Geschäftsstruktur und die Erscheinung des Straßenbildes können nicht erfüllt werden. Migrantische Hausbesitzende und im Bereich Sanierung Tätige benötigen für die Auseinandersetzung mit der Denkmalpflege kulturelles Kapital. Sie erkennen die Bedeutung des historischen Baubestandes für die Stadt und die Arbeit der Institution an, kritisieren jedoch Sanierungsauflagen bzw. Mitarbeitende der Denkmalpflege und können sich z. T. gegen diese behaupten. Lokale migrantische Kleineigentümer:innen leisten durch ihre Quartiersbindung einen Beitrag zur ökonomischen und sozialen Stabilisierung. Mit ihrer Aufstiegsorientierung fördern sie in der Vermietungspraxis jedoch nur bedingt die Integration anderer Migrant:innen und grenzen sich von statusniedrigen Gruppen im Quartier ab. Migrantische Hausbesitzende und Unternehmende nehmen sich selbst als erfolgreiche Vorreitende in einer heterogener werdenden ostdeutschen Stadtgesellschaft wahr. Sie erkannten frühzeitig das Entwicklungspotential und gehören zu den Initiierenden und Profitierenden der Inwertsetzung.
Search engines are very good at answering queries that look for facts. Still, information needs that concern forming opinions on a controversial topic or making a decision remain a challenge for search engines. Since they are optimized to retrieve satisfying answers, search engines might emphasize a specific stance on a controversial topic in their ranking, amplifying bias in society in an undesired way. Argument retrieval systems support users in forming opinions about controversial topics by retrieving arguments for a given query. In this thesis, we address challenges in argument retrieval systems that concern integrating them in search engines, developing generalizable argument mining approaches, and enabling frame-guided delivery of arguments.
Adapting argument retrieval systems to search engines should start by identifying and analyzing information needs that look for arguments. To identify questions that look for arguments we develop a two-step annotation scheme that first identifies whether the context of a question is controversial, and if so, assigns it one of several question types: factual, method, and argumentative. Using this annotation scheme, we create a question dataset from the logs of a major search engine and use it to analyze the characteristics of argumentative questions. The analysis shows that the proportion of argumentative questions on controversial topics is substantial and that they mainly ask for reasons and predictions. The dataset is further used to develop a classifier to uniquely map questions to the question types, reaching a convincing F1-score of 0.78.
While the web offers an invaluable source of argumentative content to respond to argumentative questions, it is characterized by multiple genres (e.g., news articles and social fora). Exploiting the web as a source of arguments relies on developing argument mining approaches that generalize over genre. To this end, we approach the problem of how to extract argument units in a genre-robust way. Our experiments on argument unit segmentation show that transfer across genres is rather hard to achieve using existing sequence-to-sequence models.
Another property of text which argument mining approaches should generalize over is topic. Since new topics appear daily on which argument mining approaches are not trained, argument mining approaches should be developed in a topic-generalizable way. Towards this goal, we analyze the coverage of 31 argument corpora across topics using three topic ontologies. The analysis shows that the topics covered by existing argument corpora are biased toward a small subset of easily accessible controversial topics, hinting at the inability of existing approaches to generalize across topics. In addition to corpus construction standards, fostering topic generalizability requires a careful formulation of argument mining tasks. Same side stance classification is a reformulation of stance classification that makes it less dependent on the topic. First experiments on this task show promising results in generalizing across topics.
To be effective at persuading their audience, users of an argument retrieval system should select arguments from the retrieved results based on what frame they emphasize of a controversial topic. An open challenge is to develop an approach to identify the frames of an argument. To this end, we define a frame as a subset of arguments that share an aspect. We operationalize this model via an approach that identifies and removes the topic of arguments before clustering them into frames. We evaluate the approach on a dataset that covers 12,326 frames and show that identifying the topic of an argument and removing it helps to identify its frames.
Anti-Gewalttrainings, Gewaltwissen und die institutionelle Erzeugung gewaltbefreiter Subjekte
(2023)
Dieser Beitrag fragt danach, wie Wissen über Gewalt in Anti-Gewalttrainings produziert, vermittelt und sozial wirkmächtig wird. Auf Basis des kommunikativen Konstruktivismus werden diese Kurse als gewaltbezogene Institutionen begriffen, in denen eine Wissensordnung der Gewalt stabilisiert wird. Sie sollen Abweichungen von institutionalisierten Wirklichkeitsvorstellungen in Bezug auf Gewalt entgegenwirken. Dabei lassen sie sich als Selbsttechniken begreifen, durch welche die Kursteilnehmer*innen eine spezifische Subjektposition einüben, nämlich die des gewaltbefreiten Subjekts. Vor diesem Hintergrund wird anschließend zwischen konditionalen und konzessiven Anti-Gewalttrainings unterschieden. Erstere wenden sich an Personen, die tatsächlich von der institutionalisierten Wirklichkeitsvorstellung abgewichen sind und somit gesellschaftlich als Gewalttäter*innen eingestuft werden, während Letztere auf eine Klientel zielen, die potenziell von den gängigen Normen abweichen könnte, obwohl noch keine Gewalt aufgetreten sein muss. Abschließend wird gezeigt, dass den Kursleiter*innen eine wichtige Rolle im Subjektivierungsprozess und der Wissenskommunikation über Gewalt zukommt. Neben Wissen über Gewalt werden durch sie auch Wertbindungen, Legitimationen und Weltbilder vermittelt.
When predicting sound pressure levels induced by structure-borne sound sources and describing the sound propagation path through the building structure as exactly as possible, it is necessary to characterize the vibration behavior of the structure-borne sound sources. In this investigation, the characterization of structure-borne sound sources was performed using the two-stage method (TSM) described in EN 15657. Four different structure-borne sound sources were characterized and subsequently installed in a lightweight test stand. The resulting sound pressure levels in an adjacent receiving room were measured. In the second step, sound pressure levels were predicted according to EN 12354-5 based on the parameters of the structure-borne sound sources. Subsequently, the predicted and the measured sound pressure levels were compared to obtain reliable statements on the achievable accuracy when using source quantities determined by TSM with this prediction method.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith.
The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers.
The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications.
The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study.
Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts.
Für die einen also „Bausünde“, für die anderen ein erhaltenswertes Bauwerk – wie geht man damit um? Für wen gilt wann etwas als „Bausünde“ und wann als erhaltenswert, welche Ziele werden damit verfolgt und Konzepte aufgezeigt? Inwieweit spielen beispielsweise Aspekte wie Ästhetik, Funktionalität oder der allgemeine gesellschaftliche Kontext bzw. Wandel sowie das jeweils aktuelle und bauzeitliche planerische Leitbild bzw. Verständnis eine Rolle bei der Verwendung des Begriffs und den Umgang für konkrete Bauwerke? Und inwieweit steht der Erhaltungswert bzw. eine Denkmalwürdigkeit damit im Verhältnis und wie kann damit planerisch umgegangen werden?
Der Diskussion über den Umgang mit verschmähten Bauwerken will sich die vorliegende Abschlussarbeit nähern. Als Bauwerke werden hierbei sowohl Gebäude und Plätze als auch zur Erinnerung gesetzte Objekte wie Statuen verstanden.
This paper presents initial findings from the empirical analysis of community based social enterprise (SE) and non-profit organisation (NPO) ecosystems in Johannesburg. SEs and NPOs are widely recognised as contributors to the resilience of marginalised urban communities. However, the connection between these organisations , urban governance, and community resilience has not yet been sufficiently understood , particularly in African urban contexts. The 'Resilient Urban Communities' project focuses on Johannesburg as a case study to shed light on this under-researched topic. The key to exploring it is understanding SEs and NPOs as providers of public services, job creators, and promoters of good governance, all of which contribute to community resilience. Using this premise as a starting point, this paper investigates ecosystem conditions with a particular focus on state-civil society partnerships. Empirical data was generated through semi-struc-tured interviews and analysed with a grounded theory approach. Preliminary results of this ongoing research reveal that urban geography is a relevant ecosystem factor for SEs and NPOs from marginalised communities. We also suggest that co-production could be an opportunity for growth within the investigated state-civil society partnership.
Dieser Handlungsleitfaden möchte die Zusammenarbeit zwischen zivilgesellschaftlichen Akteuren und öffentlichen Verwaltungen erleichtern. Er enthält allerdings kein Patentrezept, mit dem eine solche Zusammenarbeit gebacken werden kann, sondern vor allem Anstöße, was es dabei alles zu bedenken gilt. Denn Ko-Produktionsprozesse, bei denen zivilgesellschaftliche Gruppen und Verwaltungen gemeinsam an der Umsetzung von Dienstleistungen und Infrastrukturen der Daseinsvorsorge arbeiten, sind komplexe und noch recht unerprobte Prozesse.
As an optimization that starts from a randomly selected structure generally does not guarantee reasonable optimality, the use of a systemic approach, named the ground structure, is widely accepted in steel-made truss and frame structural design. However, in the case of reinforced concrete (RC) structural optimization, because of the orthogonal orientation of structural members, randomly chosen or architect-sketched framing is used. Such a one-time fixed layout trend, in addition to its lack of a systemic approach, does not necessarily guarantee optimality. In this study, an approach for generating a candidate ground structure to be used for cost or weight minimization of 3D RC building structures with included slabs is developed. A multiobjective function at the floor optimization stage and a single objective function at the frame optimization stage are considered. A particle swarm optimization (PSO) method is employed for selecting the optimal ground structure. This method enables generating a simple, yet potential, real-world representation of topologically preoptimized ground structure while both structural and main architectural requirements are considered. This is supported by a case study for different floor domain sizes.
One of the main criteria determining the thermal comfort of occupants is the air temperature. To monitor this parameter, a thermostat is traditionally mounted in the indoor environment for instance in office rooms in the workplaces, or directly on the radiator or in another location in a room. One of the drawbacks of this conventional method is the measurement at a certain location instead of the temperature distribution in the entire room including the occupant zone. As a result, the climatic conditions measured at the thermostat point may differ from those at the user's location. This not only negatively impacts the thermal comfort assessment but also leads to a waste of energy due to unnecessary heating and cooling. Moreover, for measuring the distribution of the air temperature under laboratory conditions, multiple thermal sensors should be installed in the area under investigation. This requires high effort in both installation and expense.
To overcome the shortcomings of traditional sensors, Acoustic travel-time TOMography (ATOM) offers an alternative based on measuring the transmission sound velocity signals. The basis of the ATOM technique is the first-order dependency of the sound velocity on the medium's temperature. The average sound velocity, along the propagation paths, can be determined by travel-times estimation of a defined acoustic signal between transducers. After the travel-times collection, the room is divided into several volumetric grid cells, i.e. voxels, whose sizes are defined depending on the dimension of the room and the number of sound paths. Accordingly, the spatial air temperature in each voxel can be determined using a suitable tomographic algorithm. Recent studies indicate that despite the great potential of this technique to detect room climate, few experiments have been conducted.
This thesis aims to develop the ATOM technique for indoor climatic applications while coupling the analysis methods of tomography and room acoustics. The method developed in this thesis uses high-energy early reflections in addition to the direct paths between transducers for travel time estimation. In this way, reflections can provide multiple sound paths that allow the room coverage to be maintained even when a few or even only one transmitter and receiver are used.
In the development of the ATOM measurement system, several approaches have been employed, including the development of numerical methods and simulations and conducting experimental measurements, each of which has contributed to the improvement of the system's accuracy. In order to effectively separate the early reflections and ensure adequate coverage of the room with sound paths, a numerical method was developed based on the optimization of the coordinates of the sound transducers in the test room. The validation of the optimal positioning method shows that the reconstructed temperatures were significantly improved by placing the transducers at the optimal coordinates derived from the developed numerical method. The other numerical method developed is related to the selection of the travel times of the early reflections. Accordingly, the detection of the travel times has been improved by adjusting the lengths of the multiple analysis time-windows according to the individual travel times in the reflectogram of the room impulse response. This can reduce the probability of trapping faulty travel times in the analysis time-windows.
The simulation model used in this thesis is based on the image source model (ISM) method for simulating the theoretical travel times of early reflection sound paths. The simulation model was developed to simulate the theoretical travel times up to third-order reflections.
The empirical measurements were carried out in the climate lab of the Chair of Building Physics under different boundary conditions, i.e., combinations of different room air temperatures under both steady-state and transient conditions, and different measurement setups. With the measurements under controllable conditions in the climate lab, the validity of the developed numerical methods was confirmed.
In this thesis, the performance of the ATOM measurement system was evaluated using two measurement setups. The setup for the initial investigations consists of an omnidirectional receiver and a near omnidirectional sound source, keeping the number of transducers as few as possible. This has led to accurately identify the sources of error that could occur in each part of the measuring system. The second measurement setup consists of two directional sound sources and one omnidirectional receiver. This arrangement of transducers allowed a higher number of well-detected travel times for tomography reconstruction, a better travel time estimation due to the directivity of the sound source, and better space utilization. Furthermore, this new measurement setup was tested to determine an optimal selection of the excitation signal. The results showed that for the utilized setup, a linear chirp signal with a frequency range of 200 - 4000 Hz and a signal duration of t = 1 s represents an optimal selection with respect to the reliability of the measured travel times and higher signal-to-noise ratio (SNR).
To evaluate the performance of the measuring setups, the ATOM temperatures were always compared with the temperatures of high-resolution NTC thermistors with an accuracy of ±0.2 K. The entire measurement program, including acoustic measurements, simulation, signal processing, and visualization of measurement results are performed in MATLAB software.
In addition, to reduce the uncertainty of the positioning of the transducers, the acoustic centre of the loudspeaker was determined experimentally for three types of excitation signals, namely MLS (maximum length sequence) signals with different lengths and duration, linear and logarithmic chirp signals with different defined frequency ranges. For this purpose, the climate lab was converted into a fully anechoic chamber by attaching absorption panels to the entire surfaces of the room. The measurement results indicated that the measurement of the acoustic centre of the sound source significantly reduces the displacement error of the transducer position.
Moreover, to measure the air temperature in an occupied room, an algorithm was developed that can convert distorted signals into pure reference signals using an adaptive filter. The measurement results confirm the validity of the approach for a temperature interval of 4 K inside the climate lab.
Accordingly, the accuracy of the reconstructed temperatures indicated that ATOM is very suitable for measuring the air temperature distribution in rooms.
We present a physics-informed deep learning model for the transient heat transfer analysis of three-dimensional functionally graded materials (FGMs) employing a Runge–Kutta discrete time scheme. Firstly, the governing equation, associated boundary conditions and the initial condition for transient heat transfer analysis of FGMs with exponential material variations are presented. Then, the deep collocation method with the Runge–Kutta integration scheme for transient analysis is introduced. The prior physics that helps to generalize the physics-informed deep learning model is introduced by constraining the temperature variable with discrete time schemes and initial/boundary conditions. Further the fitted activation functions suitable for dynamic analysis are presented. Finally, we validate our approach through several numerical examples on FGMs with irregular shapes and a variety of boundary conditions. From numerical experiments, the predicted results with PIDL demonstrate well agreement with analytical solutions and other numerical methods in predicting of both temperature and flux distributions and can be adaptive to transient analysis of FGMs with different shapes, which can be the promising surrogate model in transient dynamic analysis.
The release of the large language model-based chatbot ChatGPT 3.5 in November 2022 has brought considerable attention to the subject of artificial intelligence, not only to the public. From the perspective of higher education, ChatGPT challenges various learning and assessment formats as it significantly reduces the effectiveness of their learning and assessment functionalities. In particular, ChatGPT might be applied to formats that require learners to generate text, such as bachelor theses or student research papers. Accordingly, the research question arises to what extent writing of bachelor theses is still a valid learning and assessment format. Correspondingly, in this exploratory study, the first author was asked to write his bachelor’s thesis exploiting ChatGPT. For tracing the impact of ChatGPT methodically, an autoethnographic approach was used. First, all considerations on the potential use of ChatGPT were documented in logs, and second, all ChatGPT chats were logged. Both logs and chat histories were analyzed and are presented along with the recommendations for students regarding the use of ChatGPT suggested by a common framework. In conclusion, ChatGPT is beneficial for thesis writing during various activities, such as brainstorming, structuring, and text revision. However, there are limitations that arise, e.g., in referencing. Thus, ChatGPT requires continuous validation of the outcomes generated and thus fosters learning. Currently, ChatGPT is valued as a beneficial tool in thesis writing. However, writing a conclusive thesis still requires the learner’s meaningful engagement. Accordingly, writing a thesis is still a valid learning and assessment format. With further releases of ChatGPT, an increase in capabilities is to be expected, and the research question needs to be reevaluated from time to time.
Die Planungsforschung hat sich spätestens seit der „kommunikativen Wende“ intensiv damit beschäftigt, wie mit Konflikten umgegangen werden soll und wird. Ansätze der „agonistischen“ Planungstheorie widersprechen der normativen Prämisse, Konsensbildung unter den Planungsbeteiligten anzustreben. Vielmehr wollen sie widerstreitende Positionen normativ für die räumliche Entwicklung fruchtbar machen. Zugleich betonen sie eine vermeintliche Dualität von Planung und Protest, die in der neueren Protesttheorie infrage gestellt wird. Dieser Beitrag zeigt aufbauend auf einer Diskussion von planungs- und protesttheoretischen Ansätzen und einer empirischen Analyse planungsbezogener Proteste in Deutschland, dass diese Proteste von den Planungsakteuren zwar immer stärker als „Normalität“ aufgefasst werden und antagonistische Partizipation trotz zunehmender Konflikthaftigkeit und vermeintlicher Infragestellung der repräsentativen Demokratie kulturell regelgebunden bleibt. Protesthandeln ist Teil ausdifferenzierter „Partizipationsbündel“, die situationsbezogen auch Teilnahme an Beteiligungsverfahren, direktdemokratische Verfahren und Klagen umfassen. Protestierende verfolgen dabei meist eine eher reformorientierte Agenda, die keiner „Zähmung“ bedarf. Allerdings können die zugrunde liegenden Konflikte häufig gar nicht „gelöst“ werden. Planenden hingegen können auch innerhalb eines agonistischen Planungsumfelds rationalistische und deliberative Ansätze zur Verfügung stehen, die sie situationsbezogen und strategisch nutzen.
Experimental Validation of Dynamic Response of Small-Scale Metaconcrete Beams at Resonance Vibration
(2023)
Structures and their components experience substantially large vibration amplitudes at resonance, which can cause their failure. The scope of this study is the utilization of silicone-coated steel balls in concrete as damping aggregates to suppress the resonance vibration. The heavy steel cores oscillate with a frequency close to the resonance frequency of the structure. Due to the phase difference between the vibrations of the cores and the structure, the cores counteract the vibration of the structure. The core-coating inclusions are randomly distributed in concrete similar to standard aggregates. This mixture is referred to as metaconcrete. The main goal of this work is to validate the ability of the inclusions to suppress mechanical vibration through laboratory experiments. For this purpose, two small-scale metaconcrete beams were cast and tested. In a free vibration test, the metaconcrete beams exhibited a larger damping ratio compared to a similar beam cast from conventional concrete. The vibration amplitudes of the metaconcrete beams at resonance were measured with a frequency sweep test. In comparison with the conventional concrete beam, both metaconcrete beams demonstrated smaller vibration amplitudes. Both experiments verified an improvement in the dynamic response of the metaconcrete beams at resonance vibration.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
The study presents a Machine Learning (ML)-based framework designed to forecast the stress-strain relationship of arc-direct energy deposited mild steel. Based on microstructural characteristics previously extracted using microscopy and X-ray diffraction, approximately 1000 new parameter sets are generated by applying the Latin Hypercube Sampling Method (LHSM). For each parameter set, a Representative Volume Element (RVE) is synthetically created via Voronoi Tessellation. Input raw data for ML-based algorithms comprises these parameter sets or RVE-images, while output raw data includes their corresponding stress-strain relationships calculated after a Finite Element (FE) procedure. Input data undergoes preprocessing involving standardization, feature selection, and image resizing. Similarly, the stress-strain curves, initially unsuitable for training traditional ML algorithms, are preprocessed using cubic splines and occasionally Principal Component Analysis (PCA). The later part of the study focuses on employing multiple ML algorithms, utilizing two main models. The first model predicts stress-strain curves based on microstructural parameters, while the second model does so solely from RVE images. The most accurate prediction yields a Root Mean Squared Error of around 5 MPa, approximately 1% of the yield stress. This outcome suggests that ML models offer precise and efficient methods for characterizing dual-phase steels, establishing a framework for accurate results in material analysis.
The imperative to transform current energy provisions is widely acknowledged. However, scant attention has hitherto been directed toward rural municipalities and their innate resources, notably biogenic resources. In this paper, a methodological framework is developed to interconnect resources from waste, wastewater, and agricultural domains for energy utilization. This entails cataloging existing resources, delineating their potential via quantitative assessments utilizing diverse technologies, and encapsulating them in a conceptual model. The formulated models underwent iterative evaluation with engagement from diverse stakeholders. Consequently, 3 main concepts, complemented by 72 sub-concepts, were delineated, all fostering positive contributions to climate protection and providing heat supply in the rural study area. The outcomes’ replicability is underscored by the study area’s generic structure and the employed methodology. Through these inquiries, a framework for the requisite energy transition, with a pronounced emphasis on the coupling of waste, wastewater, and agriculture sectors in rural environments, is robustly analyzed.
Dieser Handlungsleitfaden möchte die gemeinwohlorientierte Vergabe von Räumen und Flächen an zivilgesellschaftliche Gruppen stärken. Er ist als Inspirationssammlung zu verstehen, die den Weg zu neuen Kooperationen zwischen öffentlichen und zivilgesellschaftlichen Akteuren erleichtern soll. Wissenswertesund inspirierende Beispiele bieten eine Starthilfe, um nicht nur einzelne stadträumliche Experimente zu wagen, sondern die gemeinwohlorientierte Flächen- und Raumvergabe an zivilgesellschaftliche Gruppen kommunal zu verankern. Denn öffentliche Liegenschaften sind nach vielen Jahren der Privatisierung eine rare Ressource, die umso mehr dem Gemeinwohl dienen sollte.
Der Erfahrung auf der Spur
(2023)
Dieselbe Zeit, derselbe Raum - zwei, grundverschiedene Regisseure und damit Erfahrungswelten. Aleksandr Rastorguevs und Sergei Loznitsas Dokumentarfilme der 90er und 2000er Jahre sind politische, poetische, punktgenaue Interventionen in die Gegenwart der „kleinen Menschen“. Das Buch widmet sich dokumentarfilmischen Meisterwerken, die methodisch Verdrängtes und Übersehenes, planmäßig Vergessenes sichtbar machen – nach dem Krieg ist vor dem Krieg. Ästhetik in ihrer sozial-, geschichts- und kulturwissenschaftlichen Relevanz.
Im post- und kontrafaktischen Zeitalter des allgegenwärtigen medialen Überflusses, inmitten der Fernseh-, YouTube- und virtuellen Realität, erfüllen, begründen, ermöglichen oder schlichtweg erkämpfen die Filme und ihre Autoren verloren gegangene Räume für Widersprüche, Fragen, die mal in ihrer Ambivalenz, mal in ihrer spröden Eindeutigkeit ihren Aussagewert haben. Wider die marginale Rezeption rückt die Publikation sie in den Raum der interdisziplinären wissenschaftlichen Forschung und stellt sie als gleichwertige Formen der Wissens- und Erfahrungsproduktion vor.
Bei all ihrer Unterschiedlichkeit, katapultieren die Filme den Zuschauer in ebenjene bekannte, aber nicht erkannte, weil nicht gesehene, übersehene, nicht wahrgenommene Hyperrealität ihrer Alltagswirklichkeit. Weder der Autor noch das Werk noch der Zuschauer sind aus dem jeweiligen historischen oder soziopolitischen Diktum herauslösbar oder gar gänzlich frei.
Es gibt keine Kreativität ohne Obliteration – also ohne Überschreiben und Entwerten oder Vergessen und Vernichten. Johannes Bennke setzt erstmals die Obliteration ins Zentrum der Medienphilosophie und deckt im Anschluss an Emmanuel Levinas in ihr etwas bildlich Negatives auf. Als Differenzfigur erlangt die Obliteration gestalterische Sprengkraft sowie ethische und epistemologische Relevanz. Über Bildkonjunktionen als genuine Methode der Bildwissenschaft entsteht so eine Theorie der Kunst und eine Philosophie des Medialen nach Levinas, die sedimentierte Wissensformen erschüttert und im Zeichen eines Lebens mit Anderen erneuert.
Dass Lobby-Arbeit auch für Bibliotheken und damit auch für Bibliothekar:innen unverzichtbar ist, hat sich als Erkenntnis mittlerweile durchgesetzt. Im Folgenden soll – ausgehend von einer kurzen Betrachtung des Stellenwerts der Lobbyarbeit in der bibliothekarischen Verbandsarbeit – aufgezeigt werden, welche Rolle Lobbyaktivitäten im bibliothekarischen Alltag spielen könnten bzw. sollten.
Materialsparende Holzkonstruktionen, die insbesondere während der Kriegs- und Nachkriegszeit im 20. Jahrhundert entwickelt und optimiert wurden, erlangen aktuell aus konstruktionshistorischer Sicht, aber auch aus ökonomischer Sicht erneut Interesse. Der vorliegende Beitrag gibt einen Überblick angefangen von den ersten Konstruktionen Ende der 1920er Jahre bis hin zu Typenbindern der DDR, die noch bis 1990 über Landwirtschaftsbauten errichtet wurden und heute oft als Tragkonstruktionen für Photovoltaikanlagen weiterverwendet werden. Der Fokus liegt auf der chronologischen Vorstellung ausgewählter Konstruktionsweisen für Hallen- und Hausdächer unterschieden nach Fachwerk- und Vollwandbindern. Sowohl die verantwortlichen Ingenieure und deren Herkunft, sowie wesentliche Anwendungsfelder und Beispielbauten kommen in der Überblicksdarstellung zur Sprache. Eine wesentliche Erkenntnis ist die im Betrachtungszeitraum 1930 bis 1990 zu verzeichnende Reduzierung einer Vielzahl genagelter Spar- hin zu Typenkonstruktionen, die im wesentlichen äußerst materialeffiziente Fachwerkbinder für Satteldächer hervorbrachte.
Der Nagel als tragendes Holzverbindungsmittel ist heute gut bekannt. Doch noch vor 100 Jahren war das anders: sein statisch konstruktiver Gebrauch war verboten. Das änderte sich mit Beginn dessen Erforschung Ende der 1920er Jahre. Seit 1933 ist der Nagel Bestandteil der deutschen Regelwerke und findet seitdem breite Verwendung. Über weite Teile des 20. Jahrhunderts diente er in Not- und Sparkonstruktionen wie Brett- und Bohlenbindern als hocheffizientes Verbindungsmittel der Wahl. Diese materialsparenden Tragwerke waren bei der periodisch im-mer wiederkehrenden Ressourcenknappheit sehr gefragt und sind ein wichtiger Bestandteil der Konstruktionsgeschichte des Holzbaus. In dem folgenden Beitrag wird die Erforschung des Na-geltragverhaltens und die einhergehende fortlaufende Normierung behandelt. Die Errungen-schaften einzelner Forschungsvorhaben werden vorgestellt. Anhand eines Zeitstrahls werden Zusammenhänge zwischen Forschung und Normung gezeigt. Tabellen und Grafiken verdeutli-chen die Änderungen innerhalb der Normen von der ersten DIN 1052 im Jahr 1933 über die erste eigenständige Holzbaunorm in der DDR, der TGL 112-0730, aus 1963 bis zur DIN 1052- 1988. Dabei wird immer Bezug zum derzeitigen Entwurf des Eurocode 5 genommen. Allgemein zeigt sich, dass ein Großteil der heutigen Kenntnisse immer noch auf die Grundlagenforschung der 1930er Jahre zurückgeht.
Die Tragfähigkeit von Nägeln und Nagelverbindungen im Holzbau war lange Zeit ausschließlich über Tabellen, die auf experimentellen Untersuchungen basierten, geregelt. In den letzten 100 Jahren untersuchten unterschiedliche Forscher das Last-Verformungsverhalten dieser Verbindungen und entwickelten Modelle, mit denen auf Grundlage von analytischen Gleichungen die Tragfähigkeit und das Verformungsverhalten von Nägeln berechnet werden kann. Die zunächst in Not- und Sparkonstruktion eingesetzten Nägel werden heutzutage vor allem bei Tafelelementen verwendet. Im Bestand finden sich aber auch zahlreiche, teils weit gespannte Fachwerkkonstruktionen. In dem folgenden Beitrag werden die Erforschung und Entwicklung der Tragfähigkeit sowie des Verformungsverhaltens von genagelten Verbindungen detailliert und strukturiert erläutert. Die zugehörigen Meilensteine werden genauer betrachtet. Über unterschiedliche Methoden für die Bestimmung der Tragfähigkeit sowie mechanische Phänomene, die erst nach und nach entdeckt wurden, können in der aktuellen Normung sehr individuelle Verbindungen nachgewiesen und deren Verhalten beschrieben werden. Tabellen und Grafiken verdeutlichen die einzelnen Meilensteine der geschichtlichen Entwicklung und vergleichen konkret die normativen Regelungen seit Beginn der Einführung des Nagels in den Ingenieurholzbau in Deutschland. Hierbei kann gezeigt werden, dass einige Definitionen seit 1933 bis heute noch ihre Gültigkeit behalten.
Urban heritage is at the core of the process of many changes observable in the cities today. The pace of urban change in heritage contexts, however, differs widely across the globe. In some areas, it goes slowly, in others it is astonishingly rapid. In some cases, change is coupled with risks of erosion of heritage and urban areas of value and in others change is synonymous with prosperity and positive impacts. Change in urban heritage areas is not only confined to the physical and tangible aspects, but needs to be regarded as mirroring changes related socio-political practices, economic implications, and cultural impacts. In this regard, the present thematic issue looks at various patterns of the interrelationship between heritage and urban change from both the physical and the non-physical perspectives. This editorial presents the topic of urban heritage and patterns of physical and non-physical transformation in urban heritage contexts and introduces the thematic issue “Urban Heritage and Patterns of Change: Spatial Practices of Physical and Non-Physical Transformation.”