Refine
Has Fulltext
- yes (2569) (remove)
Document Type
- Conference Proceeding (857)
- Article (830)
- Doctoral Thesis (493)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Institut für Strukturmechanik (ISM) (164)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
- Professur Informatik in der Architektur (37)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Computerunterstütztes Verfahren (289)
- Architektur (246)
- Architektur <Informatik> (201)
- CAD (184)
- Angewandte Informatik (155)
- Angewandte Mathematik (148)
- Bauhaus (125)
- Architekturtheorie (97)
Research into bio-based epoxy resins has intensified in recent decades. Here, it is of great importance to use raw materials whose use does not compete with food production. In addition, the performance of the newly developed materials should be comparable to that of conventional products. Possible starting materials are lignin degradation products, such as vanillin and syringaldehyde, for which new synthesis routes to the desired products must be found and their properties determined. In this article, the first synthesis of two amine hardeners, starting with vanillin and syringaldehyde, using the Smiles rearrangement reaction is reported. The amine hardeners were mixed with bisphenol A diglycidyl ether, and the curing was compared to isophorone diamine, 4-4′-diaminodiphenyl sulfone, and 4-Aminonbenzylamine by means of differential scanning calorimetry. It was found that the two amines prepared are cold-curing. As TG-MS studies showed, the thermal stability of at least one of the polymers prepared with the potentially bio-based amines is comparable to that of the polymer prepared with isophorone diamine, and similar degradation products are formed during pyrolysis.
As an optimization that starts from a randomly selected structure generally does not guarantee reasonable optimality, the use of a systemic approach, named the ground structure, is widely accepted in steel-made truss and frame structural design. However, in the case of reinforced concrete (RC) structural optimization, because of the orthogonal orientation of structural members, randomly chosen or architect-sketched framing is used. Such a one-time fixed layout trend, in addition to its lack of a systemic approach, does not necessarily guarantee optimality. In this study, an approach for generating a candidate ground structure to be used for cost or weight minimization of 3D RC building structures with included slabs is developed. A multiobjective function at the floor optimization stage and a single objective function at the frame optimization stage are considered. A particle swarm optimization (PSO) method is employed for selecting the optimal ground structure. This method enables generating a simple, yet potential, real-world representation of topologically preoptimized ground structure while both structural and main architectural requirements are considered. This is supported by a case study for different floor domain sizes.
We present a physics-informed deep learning model for the transient heat transfer analysis of three-dimensional functionally graded materials (FGMs) employing a Runge–Kutta discrete time scheme. Firstly, the governing equation, associated boundary conditions and the initial condition for transient heat transfer analysis of FGMs with exponential material variations are presented. Then, the deep collocation method with the Runge–Kutta integration scheme for transient analysis is introduced. The prior physics that helps to generalize the physics-informed deep learning model is introduced by constraining the temperature variable with discrete time schemes and initial/boundary conditions. Further the fitted activation functions suitable for dynamic analysis are presented. Finally, we validate our approach through several numerical examples on FGMs with irregular shapes and a variety of boundary conditions. From numerical experiments, the predicted results with PIDL demonstrate well agreement with analytical solutions and other numerical methods in predicting of both temperature and flux distributions and can be adaptive to transient analysis of FGMs with different shapes, which can be the promising surrogate model in transient dynamic analysis.
Nonlocal theories concern the interaction of objects, which are separated in space. Classical examples are Coulomb’s law or Newton’s law of universal gravitation. They had signficiant impact in physics and engineering. One classical application in mechanics is the failure of quasi-brittle materials. While local models lead to an ill-posed boundary value problem and associated mesh dependent results, nonlocal models guarantee the well-posedness and are furthermore relatively easy to implement into commercial computational software.
This paper presents initial findings from the empirical analysis of community based social enterprise (SE) and non-profit organisation (NPO) ecosystems in Johannesburg. SEs and NPOs are widely recognised as contributors to the resilience of marginalised urban communities. However, the connection between these organisations , urban governance, and community resilience has not yet been sufficiently understood , particularly in African urban contexts. The 'Resilient Urban Communities' project focuses on Johannesburg as a case study to shed light on this under-researched topic. The key to exploring it is understanding SEs and NPOs as providers of public services, job creators, and promoters of good governance, all of which contribute to community resilience. Using this premise as a starting point, this paper investigates ecosystem conditions with a particular focus on state-civil society partnerships. Empirical data was generated through semi-struc-tured interviews and analysed with a grounded theory approach. Preliminary results of this ongoing research reveal that urban geography is a relevant ecosystem factor for SEs and NPOs from marginalised communities. We also suggest that co-production could be an opportunity for growth within the investigated state-civil society partnership.
Real-world labs hold the potential to catalyse rapid urban transformations through real-world experimentation. Characterised by a rather radical, responsive, and location-specific nature, real-world labs face constraints in the scaling of experimental knowledge. To make a significant contribution to urban transformation, the produced knowledge must go beyond the level of a building, street, or small district where real-world experiments are conducted. Thus, a conflict arises between experimental boundaries and the stimulation of broader implications. The challenges of scaling experimental knowledge have been recognised as a problem, but remain largely unexplained. Based on this, the article will discuss the applicability of the “typology of amplification processes” by Lam et al. (2020) to explore and evaluate the potential of scaling experimental knowledge from real-world labs. The application of the typology is exemplified in the case of the Bauhaus.MobilityLab. The Bauhaus.MobilityLab takes a unique approach by testing and developing cross-sectoral mobility, energy, and logistics solutions with a distinct focus on scaling knowledge and innovation. For this case study, different qualitative research techniques are combined according to “within-method triangulation” and synthesised in a strengths, weaknesses, opportunities, and threats (SWOT) analysis. The analysis of the Bauhaus.MobilityLab proves that the “typology of amplification processes” is useful as a systematic approach to identifying and evaluating the potential of scaling experimental knowledge.
Experimental testing of nailed connections taken from old roof trusses is presented in this paper. To enable the further use and preservation of nailed roof trusses, it is important to understand how the nail corrosion and aging processes of steel and wood affect the load-bearing capacity and deformation behaviour of such structures. The hypothesis was investigated whether corroded nails allow an increase in load-bearing capacity. Several old and new joints were tested in a first test series, and the results were very promising regarding the initial assumption. However, more tests must be carried out to verify the results.
This paper presents the development of an assessment scheme for a visual qualitative evaluation of nailed connections in existing structures, such as board trusses. In terms of further use and preservation, a quick visual inspection will help to evaluate the quality of a structure regarding its load-bearing capacity and deformation behaviour. Tests of old and new nailed joints in combination with a rating scheme point out the correlation between the load-bearing capacity and condition of a joint. Old joints of comparatively good condition tend to exhibit better results than those of poor condition. Moreover, aged joints are generally more load-bearing than newly assembled ones.
Dieser Handlungsleitfaden möchte die Zusammenarbeit zwischen zivilgesellschaftlichen Akteuren und öffentlichen Verwaltungen erleichtern. Er enthält allerdings kein Patentrezept, mit dem eine solche Zusammenarbeit gebacken werden kann, sondern vor allem Anstöße, was es dabei alles zu bedenken gilt. Denn Ko-Produktionsprozesse, bei denen zivilgesellschaftliche Gruppen und Verwaltungen gemeinsam an der Umsetzung von Dienstleistungen und Infrastrukturen der Daseinsvorsorge arbeiten, sind komplexe und noch recht unerprobte Prozesse.
Die Diskussionen in der Politik und in der Gesellschaft über Klimawandel, globale Erwärmung oder Nachhaltigkeit, die schon noch länger anhält, werden nie ein Ende finden, solange die Probleme, auf denen sie basiert, unlösbar bleiben. Vorgeschlagene Lösungen werden meist nicht richtig umgesetzt. Im Zusammenhang mit dieser Problematik steigt aber das Verantwortungsgefühl für bessere Zukunftsstrategien immer mehr. Die in den letzten Jahren vorgekommenen Umweltkatastrophen, wie im Golf von Mexiko (April 2010) oder im Fukushima (März 2011) die noch aktuell sind, zeigen, dass der Primärenergieeinsatz oder die Transportproblematik nicht mehr nur die Sorge der Entwicklungsländer, sondern auch der Industrieländer ist. Die Bauwelt mit ihrem erheblichen Energiebedarf spielt bei der Festlegung der Zukunftsstrategien eine große Rolle.
Vor allem sind die Forschungen nach umweltfreundlichen Materialien, der Recyclebarkeit der eingesetzten Baumaterialien oder dem vernünftigen Nutzen der Naturressourcen die wichtigsten Schwerpunkte. In dieser Hinsicht bringt Lehm als Baumaterial viele Vorteile mit sich. Bei einem Artikel sagt der Lehmbauexperte Martin Rauch: “In heutiger Zeit und einem Kulturkreis, in dem Baugrund und Arbeitszeit unsere großen Kosten verursachen, findet der tradierte Lehmbau mit dem verbundenen großen Aufwand an menschlicher Arbeitszeit nur schwer seinen Platz. Über die Art der Bauweise wird auch die Entscheidung gefällt, wie und wo die Wertschöpfung erfolgt und ob der Einsatz des Budgets einen gesellschaftlichen Nutzen mit sich bringt. Im Vergleich zu einem Sichtbetonhaus können bei einem Stampflehmhaus 40% der Primärenergie ein gespart und dafür mehr lokale Arbeitsressourcen gebunden werden. Davon profitieren vor allem die lokalen Handwerker und mittelständischen Betriebe” Anatolien ist der Ort, wo man immer noch die tiefsten Wurzeln der Baukultur menschlicher Geschichte findet. Diese Baukultur, die in den vergangenen Jahrzehnten fast verlorengegangen ist, ist die Lehmbaukultur. In dieser Hinsicht beabsichtigt dieser Entwurf die Würde des Lehms in Anatolien wieder herzustellen und dadurch dessen Glaubwürdigkeit zurückzubringen.
One of the main criteria determining the thermal comfort of occupants is the air temperature. To monitor this parameter, a thermostat is traditionally mounted in the indoor environment for instance in office rooms in the workplaces, or directly on the radiator or in another location in a room. One of the drawbacks of this conventional method is the measurement at a certain location instead of the temperature distribution in the entire room including the occupant zone. As a result, the climatic conditions measured at the thermostat point may differ from those at the user's location. This not only negatively impacts the thermal comfort assessment but also leads to a waste of energy due to unnecessary heating and cooling. Moreover, for measuring the distribution of the air temperature under laboratory conditions, multiple thermal sensors should be installed in the area under investigation. This requires high effort in both installation and expense.
To overcome the shortcomings of traditional sensors, Acoustic travel-time TOMography (ATOM) offers an alternative based on measuring the transmission sound velocity signals. The basis of the ATOM technique is the first-order dependency of the sound velocity on the medium's temperature. The average sound velocity, along the propagation paths, can be determined by travel-times estimation of a defined acoustic signal between transducers. After the travel-times collection, the room is divided into several volumetric grid cells, i.e. voxels, whose sizes are defined depending on the dimension of the room and the number of sound paths. Accordingly, the spatial air temperature in each voxel can be determined using a suitable tomographic algorithm. Recent studies indicate that despite the great potential of this technique to detect room climate, few experiments have been conducted.
This thesis aims to develop the ATOM technique for indoor climatic applications while coupling the analysis methods of tomography and room acoustics. The method developed in this thesis uses high-energy early reflections in addition to the direct paths between transducers for travel time estimation. In this way, reflections can provide multiple sound paths that allow the room coverage to be maintained even when a few or even only one transmitter and receiver are used.
In the development of the ATOM measurement system, several approaches have been employed, including the development of numerical methods and simulations and conducting experimental measurements, each of which has contributed to the improvement of the system's accuracy. In order to effectively separate the early reflections and ensure adequate coverage of the room with sound paths, a numerical method was developed based on the optimization of the coordinates of the sound transducers in the test room. The validation of the optimal positioning method shows that the reconstructed temperatures were significantly improved by placing the transducers at the optimal coordinates derived from the developed numerical method. The other numerical method developed is related to the selection of the travel times of the early reflections. Accordingly, the detection of the travel times has been improved by adjusting the lengths of the multiple analysis time-windows according to the individual travel times in the reflectogram of the room impulse response. This can reduce the probability of trapping faulty travel times in the analysis time-windows.
The simulation model used in this thesis is based on the image source model (ISM) method for simulating the theoretical travel times of early reflection sound paths. The simulation model was developed to simulate the theoretical travel times up to third-order reflections.
The empirical measurements were carried out in the climate lab of the Chair of Building Physics under different boundary conditions, i.e., combinations of different room air temperatures under both steady-state and transient conditions, and different measurement setups. With the measurements under controllable conditions in the climate lab, the validity of the developed numerical methods was confirmed.
In this thesis, the performance of the ATOM measurement system was evaluated using two measurement setups. The setup for the initial investigations consists of an omnidirectional receiver and a near omnidirectional sound source, keeping the number of transducers as few as possible. This has led to accurately identify the sources of error that could occur in each part of the measuring system. The second measurement setup consists of two directional sound sources and one omnidirectional receiver. This arrangement of transducers allowed a higher number of well-detected travel times for tomography reconstruction, a better travel time estimation due to the directivity of the sound source, and better space utilization. Furthermore, this new measurement setup was tested to determine an optimal selection of the excitation signal. The results showed that for the utilized setup, a linear chirp signal with a frequency range of 200 - 4000 Hz and a signal duration of t = 1 s represents an optimal selection with respect to the reliability of the measured travel times and higher signal-to-noise ratio (SNR).
To evaluate the performance of the measuring setups, the ATOM temperatures were always compared with the temperatures of high-resolution NTC thermistors with an accuracy of ±0.2 K. The entire measurement program, including acoustic measurements, simulation, signal processing, and visualization of measurement results are performed in MATLAB software.
In addition, to reduce the uncertainty of the positioning of the transducers, the acoustic centre of the loudspeaker was determined experimentally for three types of excitation signals, namely MLS (maximum length sequence) signals with different lengths and duration, linear and logarithmic chirp signals with different defined frequency ranges. For this purpose, the climate lab was converted into a fully anechoic chamber by attaching absorption panels to the entire surfaces of the room. The measurement results indicated that the measurement of the acoustic centre of the sound source significantly reduces the displacement error of the transducer position.
Moreover, to measure the air temperature in an occupied room, an algorithm was developed that can convert distorted signals into pure reference signals using an adaptive filter. The measurement results confirm the validity of the approach for a temperature interval of 4 K inside the climate lab.
Accordingly, the accuracy of the reconstructed temperatures indicated that ATOM is very suitable for measuring the air temperature distribution in rooms.
Antimicrobial resistances (AMR) are ranked among the top ten threats to public health and societal development worldwide. Toilet wastewater contained in domestic wastewater is a significant source of AMR entering the aquatic environment. The current commonly implemented combined sewer systems at times cause overflows during rain events, resulting in the discharge of untreated wastewater into the aquatic environment, thus promoting AMR. In this short research article, we describe an approach to transform combined sewer systems into source separation-modified combined sewer systems that separately treat toilet wastewater. We employ simulations for demonstrating that source separation-modified combined sewer systems reduce the emission of AMR- causing substances by up to 11.5 logarithm levels. Thus, source separation- modified combined sewer systems are amongst the most effective means of combating AMR.
KEYWORDS
Die vorliegende Studie geht der Fragestellung nach, wie sich eine anbieterübergreifende, abonnementbasierte Plattform für den digitalen Journalismus, also eine Art Spotify im Journalismus, auf die Umsätze der Anbieter journalistischer Inhalte und die Abonnements im Digitaljournalismus in Deutschland auswirken würde. Auf Basis drei sich ergänzender Schätzmethoden für Zahlungsbereitschaft, die in zwei Repräsentativbefragungen der deutschen Online-Bevölkerung mit insgesamt 8.000 Teilnehmenden angewandt wurden, gelangt das Whitepaper zu den folgenden Schlüsselbefunden.
Resonance vibration of structures is an unpleasant incident that can be conventionally avoided by using a Tuned Mass Damper (TMD). The scope of this paper contains the utilization of engineered inclusions in concrete as damping aggregates to suppress resonance vibration similar to a TMD. The inclusions are composed of a stainless-steel core with a spherical shape coated with silicone. This configuration has been the subject of several studies and it is best known as Metaconcrete. This paper presents the procedure of a free vibration test conducted with two small-scaled concrete beams. The beams exhibited a higher damping ratio after the core-coating element was secured to them. Subsequently, two meso-models of small-scaled beams were created: one representing conventional concrete and the other representing concrete with the core-coating inclusions. The frequency response curves of the models were obtained. The change in the response peak verified the ability of the inclusions to suppress the resonance vibration. This study concludes that the core-coating inclusions can be utilized in concrete as damping aggregates.
Open Innovation in kleinen und mittleren Unternehmen (KMU) hat sich stark ausdifferenziert. Dabei zeigt die Empirie, dass KMU unterschiedliche Wege in der offenen Entwicklung von Innovationen begehen. Um die bestehende Literatur zu erweitern, wurden mit dieser Dissertation die Ziele verfolgt 1) offene Innovationsaktivitäten in KMU aus einer Prozessperspektive aufzudecken und genau zu beschreiben und 2) zu erklären, warum sich die Öffnung von Innovationsprozessen in KMU unterscheidet. Dafür wurde auf eine multiple Fallstudienanalyse zurückgegriffen. Untersuchungsobjekte waren kleine etablierte High-Tech Unternehmen aus den neuen Bundesländern. Die Ergebnisse zeigen sechs Prozessmodelle der offenen Innovationsentwicklung, beschrieben als Open Innovation Muster. Deskriptionen dieser Muster unter Berücksichtigung von formenden Innovationsaktivitäten, ausgetauschtem Wissen, beteiligten externen Akteuren und Gründen für und gegen Open Innovation vermitteln ein über den bisherigen Forschungsstand hinausgehendes Verständnis von Open Innovation in KMU. Zudem zeigen die Ergebnisse, dass die Entrepreneurial Orientation erklärt, warum KMU bei der Ausgestaltung von offenen Innovationsprozessen unterschiedlich vorgehen. In der Dissertation wird detailliert dargelegt, welche Open Innovation Muster sich anhand der Entrepreneurial Orientation von KMU (nicht-entrepreneurial bis entrepreneurial) zeigen. Die Ergebnisse liefern sowohl wissenschaftliche Implikationen, als auch Handlungsempfehlungen für die Unternehmenspraxis.
In this work, practice-based research is conducted to rethink the understanding of aesthetics, especially in relation to current media art. Granted, we live in times when technologies merge with living organisms, but we also live in times that provide unlimited resources of knowledge and maker tools. I raise the question: In what way does the hybridization of living organisms and non-living technologies affect art audiences in the culture that may be defined as Maker culture? My hypothesis is that active participation of an audience in an artwork is inevitable for experiencing the artwork itself, while also suggesting that the impact of the umwelt changes the perception of an artwork. I emphasize artistic projects that unfold through mutual interaction among diverse peers, including humans, non-human organisms, and machines. In my thesis, I pursue collaborative scenarios that lead to the realization of artistic ideas: (1) the development of ideas by others influenced by me and (2) the materialization of my own ideas influenced by others. By developing the scenarios of collaborative work as an artistic experience, I conclude that the role of an artist in Maker culture is to mediate different types of knowledge and different positions, whereas the role of the audience is to actively engage in the artwork itself. At the same time, aesthetics as experience is triggered by the other, including living and non-living actors. It is intended that the developed methodologies could be further adapted in artistic practices, philosophy, anthropology, and environmental studies.
Die Form der Datenbank
(2023)
Datenbanken sind heute die wichtigste Technik zur Organisation und Verarbeitung von Daten. Wie wurden sie zu einer der allgegenwärtigsten und gleichzeitig unsichtbarsten Praxis, die menschliche Zusammenarbeit ermöglicht? Diese Studie beginnt mit einer historiographischen Erkundung der zentralen medialen Konzepte von Datenbanken und mündet in das praxeologische Konzept der "Daten als Formation", kurz: In-Formation.
Der erste Hauptteil befasst sich mit der Formatierung von Daten durch die Verarbeitung strukturierter Daten mittels relationaler Algebra. Es wird erarbeitet, auf welche Weise Struktur neues Wissen schafft. Im zweiten Teil wird erörtert, wie Datenbanken durch den diagrammatisch-epistemischen Raum der Tabelle operationalisiert werden. Drittens untersucht die Studie Transaktionen als Erklärungen dafür, wie Daten und reale Handlungen koordiniert und synchronisiert werden können.
Im zweiten Hauptteil wird untersucht, wie relationale Datenbanken zunehmend zum Zentrum von Softwareanwendungen und Infrastrukturen wurden, wobei der Schwerpunkt auf wirtschaftlichen Praktiken liegt. In einem vergleichenden Ansatz wird anhand von Fallstudien in der DDR der 1970er bis 1990er Jahren die Frage gestellt, ob es eine „sozialistische“ Datenbankmanagement-Software gegeben hat. Dabei werden die „westlichen“ Produktionsdatenbanken BOMP, COPICS und MAPICS (IBM) sowie R2 (SAP) im Zusammenspiel mit den ostdeutschen Sachgebietsorientierten Programmiersystemen (SOPS) von Robotron diskutiert. Schließlich untersucht dieser Teil, wie die DDR ihr eigenes relationales Datenbankmanagementsystem, DABA 1600, entwickelte und dabei „westliche“ Technologie neu interpretierte.
Das abschließende Kapitel fasst die Konzepte der relationalen Datenbanken als heute wichtigsten Datenorganisationstechnik zusammen. Es erörtert, inwiefern es möglich ist, die historiographische Erzählung über die Entstehung von Datenbankmanagementsystemen und ihre Folgen für die Geschichte der Informatik zu dezentrieren. Es schließt mit der Erkenntnis, dass östliche und westliche Medien der Kooperation sich in Form und Funktion erstaunlich ähnlich sind, beide wurzeln in den tiefen Genealogien von organisatorischen und wissensbildenden Datenpraktiken.
Neben dieser medienwissenschaftlichen Arbeit besteht die Dissertation aus einem künstlerischen Teil, der dokumentiert wird: Anhand einer Reihe von Vlogs erkundet die fiktionale Figur „Data Proxy“ aktuelle Datenökologien.
Due to the development of new technologies and materials, optimized bridge design has recently gained more attention. The aim is to reduce the bridge components materials and the CO2 emission from the cement manufacturing process. Thus, most long-span bridges are designed to be with high flexibility, low structural damping, and longer and slender spans. Such designs lead, however, to aeroelastic challenges. Moreover, the consideration of both the structural and aeroelastic behavior in bridges leads to contradictory solutions as the structural constraints lead to deck prototypes with high depth which provide high inertia to material volume ratios. On the other hand, considering solely the aerodynamic requirements, slender airfoil-shaped bridge box girders are recommended since they prevent vortex shedding and exhibit minimum drag. Within this framework comes this study which provides approaches to find optimal bridge deck cross-sections while considering the aerodynamic effects. Shape optimization of deck cross-section is usually formulated to minimize the amount of material by finding adequate parameters such as the depth, the height, and the thickness and while ensuring the overall stability of the structure by the application of some constraints. Codes and studies have been implemented to analyze the wind phenomena and the structural responses towards bridge deck cross-sections where simplifications have been adopted due to the complexity and the uniqueness of such components besides the difficulty of obtaining a final model of the aerodynamic behavior. In this thesis, two main perspectives have been studied; the first is fully deterministic and presents a novel framework on generating optimal aerodynamic shapes for streamlined and trapezoidal cross-sections based on the meta-modeling approach. Single and multi-objective optimizations were both carried out and a Pareto Front is generated. The performance of the optimal designs is checked afterwards. In the second part, a new strategy based on Reliability-Based Design Optimization (RBDO) to mitigate the vortex-induced vibration (VIV) on the Trans-Tokyo Bay bridge is proposed. Small changes in the leading and trailing edges are presented and uncertainties are considered in the structural system. Probabilistic constraints based on polynomial regression are evaluated and the problem is solved while applying the Reliability Index Approach (RIA) and the Performance Measure Approach (PMA). The results obtained in the first part showed that the aspect ratio has a significant effect on the aerodynamic behavior where deeper cross-sections have lower resistance against flutter and should be avoided. In the second part, the adopted RBDO approach succeeded to mitigate the VIV, and it is proven that designs with narrow or prolonged bottom-base length and featuring an abrupt surface change in the leading and trailing edges can lead to high vertical vibration amplitude. It is expected that this research will help engineers with the selections of the adequate deck cross-section layout, and encourage researchers to apply concepts of optimization regarding this field and develop the presented approaches for further studies.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
The artistic research work is concerned with webs of transnational artistic solidarity, especially those ingrained in the Nonaligned Movement (NAM), which embraced differences and united them in a common anti-imperialist and anti-colonial fight. Taking the museum as an artefact of historically situated solidarity, the project examines the instruments of transnational art solidarity for conceiving, developing and implementing decolonial cultural practices today. The main research question regards thinking about whether and how the emancipatory potential of the transnational art solidarity can be extracted, recuperated and translated when dealing with present issues of cultural decolonisation. Three museums founded on the bases of international solidarity and donations of artworks form the case study. Consequently, the research findings are systematised in three discourses: The Autonomous Museum; The Decolonial Museum; and The Museum in Exile.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Modell bedarfsorientierter Leistungserbringung im FM auf Grundlage von Sensortechnologien und BIM
(2023)
Während der Digitalisierung im Bauwesen insbesondere im Bereich der Planungs- und Errichtungsphase von Bauwerken immer größere Aufmerksamkeit zuteilwird, ist das digitale Potenzial im Facility Management weit weniger ausgeschöpft, als dies möglich wäre. Vor dem Hintergrund, dass die Bewirtschaftung von Gebäuden jedoch einen wesentlichen Kostenanteil im Lebenszyklus darstellt, ist eine Fokussierung auf digitale Prozesse im Gebäudebetrieb erforderlich. Im Facility Management werden Dienstleistungen häufig verrichtungsorientiert, d. h. nach statischen Intervallen, oder bedarfsorientiert erbracht. Beide Arten der Leistungserbringung weisen Defizite auf, beispielweise weil Tätigkeiten auf Basis definierter Intervalle erbracht werden, ohne dass eine Notwendigkeit besteht oder weil bestehende Bedarfe mangels Möglichkeiten der Bedarfsermittlung nicht identifiziert werden. Speziell die Definition und Ermittlung eines Bedarfs zur Leistungserbringung ist häufig subjektiv geprägt. Auch sind Dienstleister oft nicht in frühen Phasen der Gebäudeplanung involviert und erhalten für ihre Dienstleistungen notwendige Daten und Informationen erst kurz vor Inbetriebnahme des zu betreibenden Gebäudes.
Aktuelle Ansätze des Building Information Modeling (BIM) und die zunehmende Verfügbarkeit von Sensortechnologien in Gebäuden bieten Chancen, die o. g. Defizite zu beheben.
In der vorliegenden Arbeit werden deshalb Datenmodelle und Methoden entwickelt, die mithilfe von BIM-basierten Datenbankstrukturen sowie Auswertungs- und Entscheidungsmethodiken Dienstleistungen der Gebäudebewirtschaftung objektiviert und automatisiert auslösen können. Der Fokus der Arbeit liegt dabei auf dem Facility Service der Reinigungs- und Pflegedienste des infrastrukturellen Facility Managements.
Eine umfangreiche Recherche etablierter Normen und Standards sowie öffentlich zugänglicher Leistungsausschreibungen bilden die Grundlage der Definition erforderlicher Informationen zur Leistungserbringung. Die identifizierten statischen Gebäude- und Prozessinformationen werden in einem relationalen Datenbankmodell strukturiert, das nach einer Darstellung von Messgrößen und der Beschreibung des Vorgehens zur Auswahl geeigneter Sensoren für die Erfassung von Bedarfen, um Sensorinformationen erweitert wird. Um Messwerte verschiedener und bereits in Gebäuden existenten Sensoren für die Leistungsauslösung verwenden zu können, erfolgt die Implementierung einer Normierungsmethodik in das Datenbankmodell. Auf diese Weise kann der Bedarf zur Leistungserbringung ausgehend von Grenzwerten ermitteln werden. Auch sind Verknüpfungsmethoden zur Kombination verschiedener Anwendungen in dem Datenbankmodell integriert. Zusätzlich zur direkten Auslösung erforderlicher Aktivitäten ermöglicht das entwickelte Modell eine opportune Auslösung von Leistungen, d. h. eine Leistungserbringung vor dem eigentlich bestehenden Bedarf. Auf diese Weise können tätigkeitsähnliche oder räumlich nah beieinander liegende Tätigkeiten sinnvoll vorzeitig erbracht werden, um für den Dienstleister eine Wegstreckeneinsparung zu ermöglichen. Die Arbeit beschreibt zudem die für die Auswertung, Entscheidungsfindung und Auftragsüberwachung benötigen Algorithmen.
Die Validierung des entwickelten Modells bedarfsorientierter Leistungserbringung erfolgt in einer relationalen Datenbank und zeigt simulativ für unterschiedliche Szenarien des Gebäudebetriebs, dass Bedarfsermittlungen auf Grundlage von Sensortechnologien erfolgen und Leistungen opportun ausgelöst, beauftragt und dokumentiert werden können.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
Physical exercise demonstrates a special case of aerosol emission due to its associated elevated breathing rate. This can lead to a faster spread of airborne viruses and respiratory diseases. Therefore, this study investigates cross-infection risk during training. Twelve human subjects exercised on a cycle ergometer under three mask scenarios: no mask, surgical mask, and FFP2 mask. The emitted aerosols were measured in a grey room with a measurement setup equipped with an optical particle sensor. The spread of expired air was qualitatively and quantitatively assessed using schlieren imaging. Moreover, user satisfaction surveys were conducted to evaluate the comfort of wearing face masks during training. The results indicated that both surgical and FFP2 masks significantly reduced particles emission with a reduction efficiency of 87.1% and 91.3% of all particle sizes, respectively. However, compared to surgical masks, FFP2 masks provided a nearly tenfold greater reduction of the particle size range with long residence time in the air (0.3–0.5 μm). Furthermore, the investigated masks reduced exhalation spreading distances to less than 0.15 m and 0.1 m in the case of the surgical mask and FFP2 mask, respectively. User satisfaction solely differed with respect to perceived dyspnea between no mask and FFP2 mask conditions.
The present article aims to provide an overview of the consequences of dynamic soil-structure interaction (SSI) on building structures and the available modelling techniques to resolve SSI problems. The role of SSI has been traditionally considered beneficial to the response of structures. However, contemporary studies and evidence from past earthquakes showed detrimental effects of SSI in certain conditions. An overview of the related investigations and findings is presented and discussed in this article. Additionally, the main approaches to evaluate seismic soil-structure interaction problems with the commonly used modelling techniques and computational methods are highlighted. The strength, limitations, and application cases of each model are also discussed and compared. Moreover, the role of SSI in various design codes and global guidelines is summarized. Finally, the advancements and recent findings on the SSI effects on the seismic response of buildings with different structural systems and foundation types are presented. In addition, with the aim of helping new researchers to improve previous findings, the research gaps and future research tendencies in the SSI field are pointed out.
Vertical green system for gray water treatment: Analysis of the VertiKKA-module in a field test
(2022)
This work presents a modular Vertical Green System (VGS) for gray water treatment, developed at the Bauhaus-Universität Weimar. The concept was transformed into a field study with four modules built and tested with synthetic gray water. Each module set contains a small and larger module with the same treatment substrate and was fed hourly. A combination of lightweight structural material and biochar of agricultural residues and wood chips was used as the treatment substrate. In this article, we present the first 18 weeks of operation. Regarding the treatment efficiency, the parameters chemical oxygen demand (COD), total phosphorous (TP), ortho-phosphate (ortho-P), total bound nitrogen (TNb), ammonium nitrogen (NH4-N), and nitrate nitrogen (NO3-N) were analyzed and are presented in this work. The results of the modules with agricultural residues are promising. Up to 92% COD reduction is stated in the data. The phosphate and nitrogen fractions are reduced significantly in these modules. By contrast, the modules with wood chips reduce only 67% of the incoming COD and respectively less regarding phosphates and the nitrogen fraction.
This article aims to develop a social theory of violence that emphasizes the role of the third party as well as the communication between the involved subjects. For this Teresa Koloma Beck’s essay ‘The Eye of the Beholder: Violence as a Social Process’ is taken as a starting point, which adopts a social-constructivist perspective. On the one hand, the basic concepts and the benefits of this approach are presented. On the other hand, social-theoretical problems of this approach are revealed. These deficits are counteracted by expanding Koloma Beck’s approach with a communicative-constructivist framework. Thus, the role of communicative action and the ‘objectification of violence’ is emphasized. These aspects impact the perception, judgement and (de-)legitimation of violence phenomena and the emergence of a ‘knowledge of violence’. Communicative actions and objectifications form a key to understanding violent interactions and the link between the micro and macro levels. Finally, the methodological consequences for the research of violence and Communicative Constructivism are discussed. Furthermore, possible research fields are outlined, which open up by looking at communicative action and the objectifications within the ‘triads of violence’.
Zu den diversen Unternehmungen sozialbewegter „Gegenwissenschaft“, die um 1980 auf der Bildfläche der BRD erschienen, zählte der 1982 gegründete Berliner Wissenschaftsladen e. V., kurz WILAB – eine Art „alternatives“ Spin-off der Technischen Universität Berlin. Der vorliegende Beitrag situiert die Ausgründung des „Ladens“ im Kontext zeitgenössischer Fortschritte der (regionalen) Forschungs- und Technologiepolitik. Gezeigt wird, wie der deindustrialisierenden Inselstadt, qua „innovationspolitischer“ Gegensteuerung, dabei sogar eine gewisse Vorreiterrolle zukam: über die Stadtgrenzen hinaus sichtbare Neuerungen wie die Gründermesse BIG TECH oder das 1983 eröffnete Berliner Innovations- und Gründerzentrum (BIG), der erste „Incubator“ [sic] der BRD, etwa gingen auf das Konto der 1977/78 lancierten Technologie-Transferstelle der TU Berlin, TU-transfer.
Anders gesagt: tendenziell bekam man es hier nun mit Verhältnissen zu tun, die immer weniger mit den Träumen einer „kritischen“, nicht-fremdbestimmten (Gegen‑)Wissenschaft kompatibel waren. Latent konträr zur historiographischen Prominenz des wissenschaftskritischen Zeitgeists fristeten „alternativen“ Zielsetzungen verpflichtete Unternehmungen wie „WILAB“ ein relativ marginalisiertes Nischendasein. Dennoch wirft das am WILAB verfolgte, so gesehen wenig aussichtsreiche Anliegen, eine andere, nämlich „humanere“ Informationstechnologie in die Wege zu leiten, ein instruktives Licht auf die Aufbrüche „unternehmerischer“ Wissenschaft in der BRD um 1980.
This paper outlines an important step in characterizing a novel field of robotic construction research where a cable-driven parallel robot is used to extrude cementitious material in three-dimensional space, and thus offering a comprehensive new approach to computational design and construction, and to robotic fabrication at larger scales. Developed by the Faculty of Art and Design at Bauhaus-University Weimar (Germany), the faculty of Architecture at the University of Applied Sciences Dortmund (Germany) and the Chair of Mechatronics at the University of Duisburg-Essen (Germany), this approach offers unique advantages over existing additive manufacturing methods: the system is easily transportable and scalable, it does not require additional formwork or scaffolding, and it offers digital integration and informational oversight across the entire design and building process. This paper considers 1) key research components of cable robotic 3D-printing (such as computational design, material exploration, and robotic control), and 2) the integration of these parameters into a unified design and building process. The demonstration of the approach at full-scale is of particular concern.
Plastic structural analysis may be applied without any difficulty and with little effort for structural member verifications with regard to lateral torsional buckling of doubly symmetric rolled I sections. Suchlike analyses can be performed based on the plastic zone theory, specifically using finite beam elements with seven degrees of freedom and 2nd order theory considering material nonlinearity. The existing Eurocode enables these approaches and the coming-up generation will provide corresponding regulations in EN 1993-1-14. The investigations allow the determination of computationally accurate limit loads, which are determined in the present paper for selected structural systems with different sets of parameters, such as length, steel grade and cross section types. The results are compared to approximations gained by more sophisticated FEM analyses (commercial software Ansys Workbench applying solid elements) for reasons of verification/validation. In this course, differences in the results of the numerical models are addressed and discussed. In addition, results are compared to resistances obtained by common design regulations based on reduction factors χlt including regulations of EN 1993-1-1 (including German National Annex) as well as prEN 1993-1-1: 2020-08 (proposed new Eurocode generation). Concluding, correlations of results and their advantages as well as disadvantages are discussed.
Immanuel Kant’s thought is a central historical and theoretical reference in Hans Blumenberg’s metaphorological project. This is demonstrated by the fact that in the Paradigms the author outlines the concept of absolute metaphor by explicitly referring to §59 of the Critique of the Power of Judgment and recognizing in the Kantian symbol a model for his own metaphorics. However, Kant’s name also appears in the chapter on the metaphor of the “terra incognita” that not only did he theorize the presence of symbolic hypotyposis in our language [...] but also made extensive use of metaphors linked to “determinate historical experiences”. In particular: geographical metaphors. In my essay, I would like to start from the analysis of Kant’s geographical metaphors in order to try to rethink Blumenberg’s archaeological method as an archaeology of media that grounds the study of metaphors in the materiality of communication and the combination of tools, agents and media.
Subscription-based news platforms (such as “Apple News+” or “Readly”) that bundle content from different publishers into one comprehensive package and offer it to media users at a fixed monthly rate are a new way of accessing and consuming digital journalism. These services have received little attention in journalism studies, although they differ greatly from traditional media products and distribution channels. This article empirically investigates the perception of journalism platforms based on eight qualitative focus group discussions with 55 German news consumers.
Results show that the central characteristics these platforms should fulfill in order to attract users are strikingly similar to the characteristics of media platforms from the music and video industries, in particular regarding price points, contract features, and modes of usage. Against this background, the potential and perspectives of a subscription-based news platform for journalism’s societal role are discussed.
Audiovisuelles Cut-Up
(2023)
Diese Forschungsarbeit bezeichnet und analysiert ein ästhetisches Phänomen audiovisueller Arbeiten mit sehr schnellen Schnitten. Der Begriff „Audiovisuelles Cut-Up“ wird vorgeschlagen um dieses Phänomen zu bezeichnen. Verschiedenste audiovisuelle Arbeiten aus unterschiedlichen Kontexten werden analysiert, welche das formale Kriterium von extrem kurzen Einstellungen erfüllen – einschließlich der eigenen Forschungsbeiträge des Autors. Die Werkzeuge und Technologien, welche die neuartige Ästhetik ermöglichten werden vorgestellt. Oftmals wurden diese von den Künstlern selbst geschaffen, da fertige Lösungen nicht verfügbar waren. Audiovisuelle Cut-Ups werden nach Kontext und Medium systematisiert und verortet. Es schließen sich Beobachtungen an, in wie fern Audio und Video sich in ihrem Charakter unterscheiden, was die kleinste wahrnehmbare Einheit ist und welche Rolle Latenzen und Antizipation bei der Wahrnehmung von audiovisuellen Medien spielen.
Drei Hauptthesen werden Aufgestellt: 1. Audiovisuelles Cut-Up hat die Kraft winzige, vormals überdeckte Details deutlich zu machen. Damit kann es das Quellmaterial verdichten aber auch den Inhalt manipulieren. 2. Technische Entwicklungen haben das audiovisuelle Cut-Up hervorgerufen. 3. Heute ist die Ästhetik als ein Stilmittel im Werkzeugkasten audiovisueller Gestaltung etabliert.
Aktuell findet aufgrund gesellschaftspolitischer Forderungen in vielen Industriezweigen ein Umdenken in Richtung Effizienz und Ökologie aber auch Digitalisierung und Industrie 4.0 statt. In dieser Hinsicht steht die Bauindustrie, im Vergleich zu Industrien wie IT, Automobil- oder Maschinenbau, noch am Anfang.
Dabei sind die Potentiale zur Einsparung und Optimierung gerade in der Bauindustrie aufgrund der großen Mengen an zu verarbeiteten Materialien besonders hoch. Die internationale Ressourcen- und Klimadebatte führt verstärkt dazu, dass auch in der Zement- und Betonherstellung neue Konzepte erstellt und geprüft werden. Einerseits erfolgt intensive Forschung und Entwicklung im Bereich alternativer, klimafreundlicher Zemente. Andererseits werden auch auf Seiten der Betonherstellung innovative materialsparende Konzepte geprüft, wie die aktuelle Entwicklung von 3D-Druck mit Beton zeigt.
Aufgrund der hohen Anforderungen an Konstruktion, Qualität und Langlebigkeit von Bauwerken, besitzen Betonfertigteile oftmals Vorteile gegenüber Ortbeton. Die hohe Oberflächenqualität und Dauerhaftigkeit aber auch die Gleichmäßigkeit und witterungsunabhängige Herstellung sind Merkmale, die im Zusammenhang mit Betonfertigteilen immer wieder erwähnt werden. Dabei ist es essenziell, dass auch der Betonherstellungsprozess im Fertigteilwerk kritisch hinterfragt wird, damit eine effizientere und nachhaltigere Produktion von Betonfertigteilen möglich wird.
Bei der Herstellung von Betonteilen im Fertigteilwerk liegt ein besonderer Fokus auf der Optimierung der Frühfestigkeitsentwicklung. Hohe Frühfestigkeiten sind Voraussetzung für einen hochfrequenten Schalungszyklus, was Arbeiten im 2- bzw. 3-Schichtbetrieb ermöglicht. Oft werden zur Sicherstellung hoher Frühfestigkeiten hochreaktive Zemente in Kombination mit hohen Zementgehalten im Beton und/oder einer Wärmebehandlung eingesetzt. Unter dieser Prämisse ist eine ökologisch nachhaltige Betonproduktion mit verminderter CO2 Bilanz nicht möglich.
In der vorliegenden Arbeit wird ein neues Verfahren zur Beschleunigung von Beton eingeführt. Hierbei werden die Bestandteile Zement und Wasser (Zementsuspension) mit Ultraschall vorbehandelt. Ausgangspunkt der Arbeit sind vorangegangene Untersuchungen zum Einfluss von Ultraschall auf die Hydration von Zement bzw. dessen Hauptbestandteil Tricalciumsilikat (C3S), die im Rahmen dieser Arbeit weiter vertieft werden. Darüber hinaus wird die Produktion von Beton mit Ultraschall im Technikumsmaßstab betrachtet. Die so erlangten Erfahrungen dienten dazu, das Ultraschall-Betonmischsystem weiterzuentwickeln und erstmalig zur industriellen Betonproduktion zu nutzen.
In der vorliegenden Arbeit werden die Auswirkungen von Ultraschall auf die Hydratation von C3S zunächst weitergehend und grundlegend untersucht. Dies erfolgte mittels Messung der elektrischen Leitfähigkeit, Analyse der Ionenkonzentration (ICP-OES), Thermoanalyse, Messung der BET-Oberfläche sowie einer optischen Auswertung mittels Rasterelektronenmikroskopie (REM). Der Fokus liegt auf den ersten Stunden der Hydratation, also der Zeit, die durch die Ultraschallbehandlung am stärksten beeinflusst wird.
In den Untersuchungen zeigt sich, dass die Beschleunigungswirkung von Ultraschall in verdünnten C3S Suspensionen (w/f-Wert = 50) stark von der Portlanditkonzentration der Lösung abhängt. Je niedriger die Portlanditkonzentration, desto größer ist die Beschleunigung. Ergänzende Untersuchungen der Ionenkonzentration der Lösung sowie Untersuchungen am hydratisierten C3S zeigen, dass unmittelbar nach der Beschallung (nach ca. 15 Minuten Hydratation) erste Hydratphasen vorliegen. Die durch Ultraschall initiiere Beschleunigung ist in den ersten 24 Stunden am stärksten und klingt dann sukzessive ab. Die Untersuchungen schließen mit Experimenten an C3S-Pasten (w/f-Wert = 0,50), die die Beobachtungen an den verdünnten Suspensionen bestätigen und infolge der Beschallung ein früheres Auftreten und einen größeren Anteil an C-S-H Phasen zeigen. Es wird gefolgert, dass die unmittelbar infolge von Ultraschall erzeugten C-S-H Phasen als Kristallisationskeim während der folgenden Reaktion dienen und daher Ultraschall als in-situ Keimbildungstechnik angesehen werden kann. Optisch zeigt sich, dass die C-S-H Phasen der beschallten Pasten nicht nur viel früher auftreten, sondern kleiner sind und fein verteilt über die Oberfläche des C3S vorliegen. Auch dieser Effekt wird als vorteilhaft für den sich anschließenden regulären Strukturaufbau angesehen.
Im nächsten Schritt wird daher der Untersuchungsfokus vom Modellsystem mit C3S auf Portlandzement erweitert. Hierbei wird der Frage nachgegangen, wie sich eine Änderung der Zusammensetzung der Zementsuspension (w/z-Wert, Fließmittelmenge) beziehungsweise eine Änderung des Ultraschallenergieeintrag auf die Fließeigenschaften und das Erhärtungsverhalten auswirken.
Um den Einfluss verschiedener Faktoren gleichzeitig zu betrachten, werden mit Hilfe von statistischen Versuchsplänen Modelle erstellt, die das Verhalten der einzelnen Faktoren beschreiben. Zur Beschreibung der Fließeigenschaften wurde das Setzfließ- und Ausbreitmaß von Zementsuspensionen herangezogen. Die Beschleunigung der Erhärtung wurde mit Hilfe der Ermittlung des Zeitpunkts des normalen Erstarrens der Zementsuspension bestimmt.
Die Ergebnisse dieser Untersuchungen zeigen deutlich, dass die Fließeigenschaften und der Erstarrungsbeginn nicht linear mit steigendem Ultraschall-Energieeintrag verändert werden. Es zeigt sich, dass es besonders bei den Verarbeitungseigenschaften der Portlandzementsuspensionen zur Ausbildung eines spezifischen Energieeintrages kommt, bis zu welchem das Setzfließ- und das Ausbreitmaß erhöht werden. Bei Überschreiten dieses Punktes, der als kritischer Energieeintrag definiert wurde, nimmt das Setzfließ- und Ausbreitmaß wieder ab. Das Auftreten dieses Punktes ist im besonderen Maße abhängig vom w/z-Wert. Mit sinkendem w/z-Wert wird der Energieeintrag, der eine Verbesserung der Fließeigenschaften hervorruft, reduziert. Bei sehr niedrigen w/z-Werten (< 0,35), kann keine Verbesserung mehr beobachtet werden.
Wird Fließmittel vor der Beschallung zur Zementsuspension zugegeben, können die Eigenschaften der Zementsuspension maßgeblich beeinflusst werden. In beschallten Suspensionen mit Fließmittel, konnte in Abhängigkeit des Energieeintrages die fließmittelbedingte Verzögerung des Erstarrungsbeginns deutlich reduziert werden. Weiterhin zeigt sich, dass der Energieeintrag, der notwendig ist um den Erstarrungsbeginn um einen festen Betrag zu reduzieren, bei Suspensionen mit Fließmittel deutlich reduziert ist.
Auf Grundlage der Beobachtungen an Zementsuspensionen wird der Einfluss von Ultraschall in einen dispergierenden und einen beschleunigenden Effekt unterteilt. Bei hohen w/z-Werten dominiert der dispergierende Einfluss von Ultraschall und der Erstarrungsbeginn wird moderat verkürzt. Bei niedrigeren w/z-Werten der Zementsuspension, dominiert der beschleunigende Effekt wobei kein oder sogar ein negativer Einfluss auf die Verarbeitungseigenschaften beobachtet werden kann.
Im nächsten Schritt werden die Untersuchungen auf den Betonmaßstab mit Hilfe einer Technikumsanlage erweitert und der Einfluss eines zweistufigen Mischens (also dem Herstellen einer Zementsuspension im ersten Schritt und dem darauffolgenden Vermischen mit der Gesteinskörnung im zweiten Schritt) mit Ultraschall auf die Frisch- und Festbetoneigenschaften betrachtet. Durch die Anlagentechnik, die mit der Beschallung größerer Mengen Zementsuspension einhergeht, kommen weitere Einflussfaktoren auf die Zementsuspension hinzu (z. B. Pumpgeschwindigkeit, Temperatur, Druck). Im Rahmen der Untersuchungen wurde eine Betonrezeptur mit und ohne Ultraschall hergestellt und die Frisch- und Festbetoneigenschaften verglichen. Darüber hinaus wurde ein umfangreiches Untersuchungsprogramm zur Ermittlung wesentlicher Dauerhaftigkeitsparameter durchgeführt. Aufbauend auf den Erfahrungen mit der Technikumsanlage wurde das Ultraschall-Vormischsystem in mehreren Stufen weiterentwickelt und abschließend in einem Betonwerk zur Betonproduktion verwendet.
Die Untersuchungen am Beton zeigen eine deutliche Steigerung der Frühdruckfestigkeiten des Portlandzementbetons. Hierbei kann die zum Entschalen von Betonbauteilen notwendige Druckfestigkeit von 15 MPa deutlich früher erreicht werden. Das Ausbreitmaß der Betone (w/z-Wert = 0,47) wird infolge der Beschallung leicht reduziert, was sich mit den Ergebnissen aus den Untersuchungen an reinen Zementsuspensionen deckt. Bei Applikation eines Überdruckes in der Beschallkammer oder einer Kühlung der Suspension während der Beschallung, kann das Ausbreitmaß leicht gesteigert werden. Allerdings werden die hohen Frühdruckfestigkeiten der ungekühlten beziehungsweise drucklosen Variante nicht mehr erreicht.
In den Untersuchungen kann gezeigt werden, dass das Potential durch die Ultraschall-Beschleunigung genutzt werden kann, um entweder die Festigkeitsklasse des Zementes leitungsneutral zu reduzieren (von CEM I 52,5 R auf CEM I 42,5 R) oder eine 4-stündige Wärmebehandlung vollständig zu substituieren. Die Dauerhaftigkeit der Betone wird dabei nicht negativ beeinflusst. In den Untersuchungen zum Sulfat-, Karbonatisierung-, Chlorideindring- oder Frost/Tauwiderstand kann weder ein positiver noch ein negativer Einfluss durch die Beschallung abgeleitet werden. Ebenso kann in einer Untersuchung zur Alkali-Kieselsäure-Reaktion kein negativer Einfluss durch die Ultraschallbehandlung beobachtet werden.
In den darauf aufbauenden Untersuchungen wird die Anlagentechnik weiterentwickelt, um die Ultraschallbehandlung stärker an eine reale Betonproduktion anzupassen. In der ersten Iterationsstufe wird das in den Betonuntersuchungen verwendete Anlagenkonzept 1 modifiziert (von der In-line-Beschallung zur Batch-Beschallung) und als Analgenkonzept 2 für weitere Untersuchungen genutzt. Hierbei wird eine neue Betonrezeptur mit höherem w/z-Wert (0,52) verwendet, wobei die Druckfestigkeiten ebenfalls deutlich gesteigert werden können. Im Gegensatz zum ersten Beton, wird das Ausbreitmaß dieser Betonzusammensetzung gesteigert, was zur Reduktion von Fließmittel genutzt wird. Dies deckt sich ebenfalls mit den Beobachtungen an reinen Portlandzementsuspensionen, wo eine deutliche Verbesserung der Fließfähigkeit bei höheren w/z-Werten beschrieben wird.
Für diese Betonrezeptur wird ein Vergleich mit einem kommerziell erhältlichen Erhärtungsbeschleuniger (synthetische C-S-H-Keime) angestellt. Hierbei zeigt sich, dass die Beschleunigungswirkung beider Technologien vergleichbar ist. Eine Kombination beider Technologien führt zu einer weiteren deutlichen Steigerung der Frühfestigkeiten, so dass hier von einem synergistischen Effekt ausgegangen werden kann.
In der letzten Iterationsstufe, dem Anlagenkonzept 3, wird beschrieben, wie das Mischsystem im Rahmen einer universitären Ausgründung signifikant weiterentwickelt wird und erstmals in einem Betonwerk zur Betonproduktion verwendet wird. Bei den Überlegungen zur Weiterentwicklung des Ultraschall-Mischsystems wird der Fokus auf die Praktikabilität gelegt und gezeigt, dass das ultraschallgestütze Mischsystem die Druckfestigkeitsentwicklung auch im Werksmaßstab deutlich beschleunigen kann. Damit ist die Voraussetzung für eine ökologisch nachhaltige Optimierung eines Fertigteilbetons unter realen Produktionsbedingungen geschaffen worden.
In kalten und gemäßigten Klimazonen kann Beton einem kombinierten Frost-Tausalz-Angriff ausgesetzt sein, der zu Schäden in Form von Abwitterungen führen kann. Daher wurden zahlreiche Prüfverfahren entwickelt, um die Widerstandsfähigkeit von Betonzusammensetzungen gegen diese Art des Angriffs zu bestimmen. Diese Tests simulieren in der Regel einen starken Angriff mit hohen Sättigungsgraden, wie z. B. bei Betonfahrbahnen. Es gibt nur sehr wenige Ansätze für die Prüfung des Widerstands von Betonen, die nur einem mittleren Sättigungsgrad ausgesetzt sind, da solche Betonelemente in der Regel keine nennenswerten Abwitterungen aufweisen. Die zunehmende Verwendung von klinkereffizienten Zementen könnte sich jedoch in gewissem Maße auf den Frost-Tausalz-Widerstand solcher Betonelemente auswirken. Um eine angemessene Dauerhaftigkeit zu gewährleisten ist es daher wünschenswert, ihre Leistungsfähigkeit in einem tatsächlichen Prüfverfahren zu ermitteln, anstatt sich auf Erfahrungswerte zu verlassen. Daher wurden Ansätze für abgeschwächte Prüfverfahren entwickelt, die auf dem Slab-Test bzw. dem CDF-Test beruhen.
In der vorliegenden Studie wurde der Einfluss der Klinkerzusammensetzung sowie der Sulfatträgerart auf die Leistungsfähigkeit eines Spritzzementes untersucht. Um eine Untersulfatisierung im System mit einen Aluminiumsulfat / -hydroxid Beschleuniger zu vermeiden, sollte ein anhydritbasierter Sulfatträger eingesetzt werden. Dies führt zu einer besseren Festigkeitsentwicklung im jungen Alter.
Die Tragfähigkeit von Nägeln und Nagelverbindungen im Holzbau war lange Zeit ausschließlich über Tabellen, die auf experimentellen Untersuchungen basierten, geregelt. In den letzten 100 Jahren untersuchten unterschiedliche Forscher das Last-Verformungsverhalten dieser Verbindungen und entwickelten Modelle, mit denen auf Grundlage von analytischen Gleichungen die Tragfähigkeit und das Verformungsverhalten von Nägeln berechnet werden kann. Die zunächst in Not- und Sparkonstruktion eingesetzten Nägel werden heutzutage vor allem bei Tafelelementen verwendet. Im Bestand finden sich aber auch zahlreiche, teils weit gespannte Fachwerkkonstruktionen. In dem folgenden Beitrag werden die Erforschung und Entwicklung der Tragfähigkeit sowie des Verformungsverhaltens von genagelten Verbindungen detailliert und strukturiert erläutert. Die zugehörigen Meilensteine werden genauer betrachtet. Über unterschiedliche Methoden für die Bestimmung der Tragfähigkeit sowie mechanische Phänomene, die erst nach und nach entdeckt wurden, können in der aktuellen Normung sehr individuelle Verbindungen nachgewiesen und deren Verhalten beschrieben werden. Tabellen und Grafiken verdeutlichen die einzelnen Meilensteine der geschichtlichen Entwicklung und vergleichen konkret die normativen Regelungen seit Beginn der Einführung des Nagels in den Ingenieurholzbau in Deutschland. Hierbei kann gezeigt werden, dass einige Definitionen seit 1933 bis heute noch ihre Gültigkeit behalten.
Der Nagel als tragendes Holzverbindungsmittel ist heute gut bekannt. Doch noch vor 100 Jahren war das anders: sein statisch konstruktiver Gebrauch war verboten. Das änderte sich mit Beginn dessen Erforschung Ende der 1920er Jahre. Seit 1933 ist der Nagel Bestandteil der deutschen Regelwerke und findet seitdem breite Verwendung. Über weite Teile des 20. Jahrhunderts diente er in Not- und Sparkonstruktionen wie Brett- und Bohlenbindern als hocheffizientes Verbindungsmittel der Wahl. Diese materialsparenden Tragwerke waren bei der periodisch im-mer wiederkehrenden Ressourcenknappheit sehr gefragt und sind ein wichtiger Bestandteil der Konstruktionsgeschichte des Holzbaus. In dem folgenden Beitrag wird die Erforschung des Na-geltragverhaltens und die einhergehende fortlaufende Normierung behandelt. Die Errungen-schaften einzelner Forschungsvorhaben werden vorgestellt. Anhand eines Zeitstrahls werden Zusammenhänge zwischen Forschung und Normung gezeigt. Tabellen und Grafiken verdeutli-chen die Änderungen innerhalb der Normen von der ersten DIN 1052 im Jahr 1933 über die erste eigenständige Holzbaunorm in der DDR, der TGL 112-0730, aus 1963 bis zur DIN 1052- 1988. Dabei wird immer Bezug zum derzeitigen Entwurf des Eurocode 5 genommen. Allgemein zeigt sich, dass ein Großteil der heutigen Kenntnisse immer noch auf die Grundlagenforschung der 1930er Jahre zurückgeht.
Materialsparende Holzkonstruktionen, die insbesondere während der Kriegs- und Nachkriegszeit im 20. Jahrhundert entwickelt und optimiert wurden, erlangen aktuell aus konstruktionshistorischer Sicht, aber auch aus ökonomischer Sicht erneut Interesse. Der vorliegende Beitrag gibt einen Überblick angefangen von den ersten Konstruktionen Ende der 1920er Jahre bis hin zu Typenbindern der DDR, die noch bis 1990 über Landwirtschaftsbauten errichtet wurden und heute oft als Tragkonstruktionen für Photovoltaikanlagen weiterverwendet werden. Der Fokus liegt auf der chronologischen Vorstellung ausgewählter Konstruktionsweisen für Hallen- und Hausdächer unterschieden nach Fachwerk- und Vollwandbindern. Sowohl die verantwortlichen Ingenieure und deren Herkunft, sowie wesentliche Anwendungsfelder und Beispielbauten kommen in der Überblicksdarstellung zur Sprache. Eine wesentliche Erkenntnis ist die im Betrachtungszeitraum 1930 bis 1990 zu verzeichnende Reduzierung einer Vielzahl genagelter Spar- hin zu Typenkonstruktionen, die im wesentlichen äußerst materialeffiziente Fachwerkbinder für Satteldächer hervorbrachte.
Inhaltlich beschäftigt sich die Arbeit, die im Rahmen des Promotionsstudiengangs Kunst und Gestaltung an der Bauhaus-Universität entstand, mit der Erforschung sozio-interaktiver Potentiale der Videotelefonie im Kontext von Nähe und Verbundenheit mit Fokus auf Eigenbild, Embodiment sowie den Rederechtswechsel.
Die Videotelefonie als Kommunikationsform hat sich – und darauf deuten die Erfahrungen der Co- vid-19-Pandemie hin – im lebensweltlichen Alltag der Menschen etabliert und wird dort in naher Zukunft nicht mehr wegzudenken sein. Auf Basis ihrer Möglichkeiten und Errungenschaften ist es inzwischen Realität und Lebenswirklichkeit, dass die Kommunikation sowohl im privaten als auch im geschäftlichen Kontext mittels verschiedenster Kanäle stattfindet. Der Videotelefonie kommt hierbei als solche nicht nur eine tragende Funktion, sondern auch eine herausragende Rolle bei der vermeintlichen Reproduktion der Face-to-Face-Kommunikation im digitalen Raum zu und wird wie selbstverständlich zum zwischenmenschlichen Austausch genutzt. Just an diesem Punkt knüpft die Forschungsarbeit an. Zentral stand dabei das Vorhaben einer dezidierte Untersuchung des Forschungsgegenstandes Videotelefonie, sowohl aus Kultur- als auch Technikhistorischer, aber auch Medien-, Wahrnehmungs- wie Kommunikations- theoretischer Perspektive, indem analytische und phänosemiotische Perspektiven miteinander in Beziehung gesetzt werden (z.B. Wahrnehmungsbedingungen, Interaktionsmerkmale, realisierte Kommunikationsprozesse etc.). Damit verbundenes, wünschenswertes Ziel war es, eine möglichst zeitgemäße wie relevante Forschungsfrage zu adressieren, die neben den kulturellen Technisierungs- und Mediatisierungstendenzen in institutionellen und privaten Milieus ebenfalls eine conditio sine qua non der pandemischen (Massen-)Kommunikation entwirft.
Die Arbeit ist damit vor allem im Bereich des Produkt- und Interactiondesigns zu verorten. Darüber hinaus hatte sie das Ziel der Darlegung und Begründung der Videotelefonie als eigenständige Kommunikationsform, welche durch eigene, kommunikative Besonderheiten, die sich in ihrer jeweiligen Ingebrauchnahme sowie durch spezielle Wahrnehmungsbedingungen äußern, und die die Videotelefonie als »Rederechtswechselmedium« avant la lettre konsolidieren, gekennzeichnet ist. Dabei sollte der Beweis erbracht werden, dass die Videotelefonie nicht als Schwundstufe einer Kommunikation Face-to-Face, sondern als ein eigenständiges Mediatisierungs- und Kommunikationsereignis zu verstehen sei. Und eben nicht als eine beliebige – sich linear vom Telefon ausgehende – entwickelte Form der audio-visuellen Fernkommunikation darstellt, sondern die gestalterische (Bewegtbild-)Technizität ein eigenständiges Funktionsmaß offeriert, welches wiederum ein innovatives Kommunikationsmilieu im Kontext einer Rederechtswechsel-Medialität stabilisiert.
The theme of this project is the colonial history of the natural rubber industry. It focuses on two species of tropical plants: Ficus elastica and Hevea brasiliensis. Geographically their native habitat is very distant from each other, but they connect by European influence through the exploitation of latex.
The many forms and outcomes from this work manifest the attempt of the artist to create an association between a common household plant, the origin of its name, and the source of rubber. As a ghostly connective tissue, the latex surrounds reconstructed history, old prints, live plants, and drawings, accepting the material's capacity to both erase and preserve the past.
Die besondere Aggressivität von hochkonzentrierten Magnesiumsulfatlösungen bei Einwirkung auf Beton ist seit vielen Jahrzehnten bekannt. Neben dem Sulfat greift zusätzlich auch das Magnesium den Zementstein an. Bei hohen Lösungskonzentrationen nimmt der Magnesiumangriff gegenüber dem Sulfatangriff sogar eine dominante Rolle ein. Magnesiumgehalte unter 300 mg/l im Grundwasser gelten allerdings bislang als nicht angreifend. In Auslagerungs- und Laborversuchen wurde jedoch festgestellt, dass auch bei praxisrelevanten Magnesium- (<300 mg/l) und Sulfatgehalten (1.500 mg/l) das Magnesium zu einer deutlichen Verschärfung des Sulfatangriffes bei niedrigen Temperaturen führte. Diese Verschärfung trat bei Mörteln und Betonen auf, bei denen der erhöhte Sulfatwiderstand durch einen teilweisen Zementersatz mit 20 % Flugasche zu einem CEM II/A-LL erreicht werden sollte, gemäß der Flugascheregelung nach EN 206-1/DIN 1045-2.
Bei einem teilweisen Zementersatz durch 30 % Flugasche konnte auch in magnesiumhaltigen Sulfatlösungen eine deutliche Verbesserung des Sulfatwiderstandes erreicht werden. Mörtel mit HS-Zement als Bindemittel wiesen keinerlei Schäden auf. Schadensverursachend war eine Kombination mehrerer Einflüsse. Zum einen wurde der Sulfatwiderstand des Zement-Flugasche-Systems durch die unzureichende Reaktion der Flugasche infolge der niedrigen Lagerungstemperatur geschwächt. Zum anderen konnte durch die Einwirkung des Magnesiums in der Randzone vermutlich eine Destabilisierung der C-S-H-Phasen erfolgen, wodurch die Thaumasitbildung an dieser Stelle forciert wurde. Zusätzlich wurde durch den Portlanditverbrauch und die pH-Wert-Absenkung in der Randzone die puzzolanische Reaktion der Flugasche behindert.
Der Nachbehandlung eines Fahrbahndeckenbetons kommt zum Erzielen eines hohen Frost-Tausalz-Widerstandes der fertigen Betondecke eine besondere Bedeutung zu. Bei der Waschbetonbauweise erfolgt die Nachbehandlung in mehreren Schritten. Eine erste Nachbehandlung gewährleistet den Verdunstungsschutz des Betons bis zum Zeitpunkt des Ausbürstens des verzögerten Oberflächenmörtels. Daran schließt sich die zweite Nachbehandlung an, in der Regel durch Aufsprühen eines flüssigen Nachbehandlungsmittels.
Der zweite Nachbehandlungsschritt ist entscheidend für den Frost-Tausalz-Widerstand der Betondecke. Im Rahmen eines Forschungsprojektes wurde daher untersucht, inwiefern durch eine Optimierung der zweiten Nachbehandlung der Frost-Tausalz-Widerstand von Waschbetonoberflächen erhöht werden kann, insbesondere bei Verwendung hüttensandhaltiger Zemente. Schon durch eine einmalige Nassnachbehandlung wurde eine deutlich höherer Widerstand der Waschbetons gegen Frost-Tausalz-Angriff erzielt.
Gemäß dem Regelwerk für Betonstraßen muss für zweischichtige Betonfahrbahndecken derselbe Zement in Ober- und Unterbeton verwendet werden. Weiterhin ist die Anrechnung von Flugasche auf den w/z-Wert nicht gestattet. Durch eine flexiblere Handhabung der Bindemittel könnten sich Vorteile für die Betonbauweise ergeben. So könnte z.B. der stärker durch Frost beanspruchte Oberbeton mit CEM I hergestellt werden, während Zemente mit höheren Hüttensandgehalten nur im Unterbeton angewendet werden. Im Unterbeton könnten dann Gesteinskörnungen eingesetzt werden, die in einer herkömmlichen CEM I-Rezeptur als AKR-kritisch eingestuft würden.
Anhand von AKR-Performance-Prüfungen konnte die hohe Wirksamkeit hüttensandhaltiger Zemente sowie auch von Flugasche auf die AKR-Verminderung aufgezeigt werden. Schon mit einem CEM II/B-S wurden AKR-kritische Rezepturen in den unkritischen Bereich verschoben. Der Frost-Tausalz-Widerstand der Betone wurde bei hohen Gehalten an Hüttensand bzw. Hüttensand + Flugasche verringert, bewegte sich aber in jedem Fall noch im günstigen Bereich. Um eine Beeinträchtigung der baupraktischen Umsetzbarkeit zu vermeiden, sollte sich die Festigkeitsentwicklung von Ober- und Unterbeton im jungen Alter nicht zu stark unterscheiden. Modellberechnungen zur Festlegung einer Mindestfestigkeit für die frühe Belastung sind derzeit noch in Bearbeitung.
The aim of this study was to investigate the optimization of the strength development of quaternary cements with 50 % clinker by a variation of the particle size distribution of the components GGBFS, fly ash and limestone powder.
By balancing the overall PSD of the cement by using unprocessed fly ash and coarse limestone powder in combination with a very fine GGBFS, the water demand of the resulting quaternary cements remained unaltered, while the compressive strength of the cements was increased significantly after 7d, 28 and 56d. As can be expected, the quaternary cement with 30 wt.% of the fine slag exhibited a stronger strength increase (about 18 % after 28 d) than the cements with only 20 wt.% slag (about 10% after 28d).
Für den Frost-Tausalz-Angriff auf Beton existiert eine Reihe von Schadenstheorien. Drei aktuelle Theorien nehmen für sich in Anspruch, den Schadensmechanismus und insbesondere den Einfluss niedrig konzentrierter Tausalzlösungen auf den Schädigungsgrad gut abbilden zu können. Die Glue Spall-Theorie sowie die Cryogenic Suction-Theorie bieten plausible Ansätze. In Untersuchungen konnten einige Modellvorstellungen bestätigt werden, insbesondere der Prozess des kryogenen Saugens. Ob dieser Vorgang oder die mechanische Glue Spall-Belastung tatsächlich schadensauslösend sind, kann anhand der Untersuchungen jedoch noch nicht zweifelsfrei bestätigt oder ausgeschlossen werden. Die Brine Rejection-Theorie zeigt wichtige Prozesse auf, die für die Schädigung bei einem Frost-Tausalz-Angriff relevant sein können. Als alleinstehendes Modell ist es eher nicht geeignet.
Ausgehend von der Bemerkung des Philosophen Jacques Derrida, dass Erbe immer auch eine Aufgabe sei, widmet sich der dritte Band der Schriftenreihe des Graduiertenkollegs „Identität und Erbe“ den sozialen und kulturellen Praktiken der Bezugnahme auf Vergangenheit(en) und Identität(en). Mit einem (kulturellen) Erbe soll und muss etwas getan werden, um es überhaupt hervorzubringen. Es konstituiert sich erst im Akt des (Nicht-)Erbens, das heißt im Wechselverhältnis mit den mit und an ihm ausgeführten Praktiken. Gleichwohl ermöglicht erst deren Verbindung mit den materiellen Überresten und Überlieferungen des Erbes eine Aneignung oder Ablehnung der Vergangenheit sowie die Fort- und Umschreibung eines bereits bestehenden Erbes. Diese Vorgänge sind nicht willkürlicher Natur: Die Möglichkeiten zur Interpretation und Deutung werden durch die sozialen, politischen, kulturellen, ökonomischen und technischen Bedingungen der Gegenwart sowie durch die Geschichte und Materialität des Erbes beschränkt, erweitert und gelenkt. Erbe und Erbeprozesse müssen deshalb notwendigerweise miteinander in Beziehung gesetzt werden.
Mit Beiträgen von Simone Bogner und Michael Karpf, Stefan Willer, Giorgia Aquilar, Jörg Springer, Bernd Euler-Rolle, Elizabeth Sikiaridi und Frans Vogelaar, Verena von Beckerath, Alexandra Klei, Oluwafunminiyi Raheem, Ronny Grundig, Özge Sezer, Anna Kutkina, Inge Manka, Karolina Hettchen und Monique Jüttner sowie Julian Blunk.
The reduction of the cement clinker content is an important prerequisite for the improvement of the CO2-footprint of concrete. Nevertheless, the durability of such concretes must be sufficient to guarantee a satisfactory service life of structures. Salt frost scaling resistance is a critical factor in this regard, as it is often diminished at increased clinker substitution rates. Furthermore, only insufficient long-term experience for such concretes exists. A high salt frost scaling resistance thus cannot be achieved by applying only descriptive criteria, such as the concrete composition. It is therefore to be expected, that in the long term a performance based service life prediction will replace the descriptive concept.
To achieve the important goal of clinker reduction for concretes also in cold and temperate climates it is important to understand the underlying mechanisms for salt frost scaling. However, conflicting damage theories dominate the current State of the Art. It was consequently derived as the goal of this thesis to evaluate existing damage theories and to examine them experimentally. It was found that only two theories have the potential to describe the salt frost attack satisfactorily – the glue spall theory and the cryogenic suction theory.
The glue spall theory attributes the surface scaling to the interaction of an external ice layer with the concrete surface. Only when moderate amounts of deicing salt are present in the test solution the resulting mechanical properties of the ice can cause scaling. However, the results in this thesis indicate that severe scaling also occurs at deicing salt levels, at which the ice is much too soft to damage concrete. Thus, the inability of the glue spall theory to account for all aspects of salt frost scaling was shown.
The cryogenic suction theory is based on the eutectic behavior of salt solutions, which consist of two phases – water ice and liquid brine – between the freezing point and the eutectic temperature. The liquid brine acts as an additional moisture reservoir, which facilitates the growth of ice lenses in the surface layer of the concrete. The experiments in this thesis confirmed, that the ice formation in hardened cement paste increases due to the suction of brine at sub-zero temperatures. The extent of additional ice formation was influenced mainly by the porosity and by the chloride binding capacity of the hardened cement paste.
Consequently, the cryogenic suction theory plausibly describes the actual generation of scaling, but it has to be expanded by some crucial aspects to represent the salt frost scaling attack completely. The most important aspect is the intensive saturation process, which is ascribed to the so-called micro ice lens pump. Therefore a combined damage theory was proposed, which considers multiple saturation processes. Important aspects of this combined theory were confirmed experimentally.
As a result, the combined damage theory constitutes a good basis to understand the salt frost scaling attack on concrete on a fundamental level. Furthermore, a new approach was identified, to account for the reduced salt frost scaling resistance of concretes with reduced clinker content.
Wer von Erbe im Zusammenhang mit Identität spricht, verspricht sich und Anderen »Kontinuität« und »Stabilität«. Das Versprechen hält indes nur so lange, wie sich Menschen auf die damit verbundenen Erzählungen einlassen. Da diese zunehmend hinterfragt werden und der Begriff »Identität« im politischen Raum zu einer umkämpften Kategorie avanciert ist, werden auch die lange gehegten, gewohnten »Konstruktionen« instabil. Dies zeigt sich insbesondere in Momenten des Konflikts, der übergriffigen Inanspruchnahme und des Verlusts. Der Titel »Instabile Konstruktionen« verweist zugleich auf die beiden Kernbereiche des Kollegs: einerseits auf Architektur und Denkmalpflege, in denen der Begriff Konstruktion sich auf bauliche Manifestationen bezieht, von denen eine gewisse Haltbarkeit und Dauerhaftigkeit erwartet wird und andererseits auf die Kultur- und Sozialwissenschaften, wo Konstruktion die soziale Herstellung symbolischer Sinnwelten meint. Ins Zentrum rückt so der Anspruch, die materielle Umwelt im Wechselverhältnis zu ihrer sozialen Gemachtheit zu verstehen.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
What you are about to read is the very last issue of the ZMK. Since our overall research enterprise, the IKKM, has to cease all of its activities due to the end of its twelve years’ funding by the German federal government, the ZMK will also come to an end. Its last topic, Schalten und Walten has also been the subject of the concluding biannual conference of the IKKM, and we hope it will be a fitting topic to resume the research of the IKKM on Operative Ontologies.
Although this final issue is in English, we decided to leave its title in German: Schalten und Walten. As it is the case for the name of the IKKM, (Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie), the term seems untranslatable to us, not only for the poetic reason of the rhyming sound of the words. Switching and Ruling might be accepted as English versions, but quite an unbridgeable difference remains. In German, Schalten und Walten is a rather common and quite widespread idiom that can be found in everyday life. Whoever, the idiom stipulates, is able to execute Schalten und Walten has the power to act, has freedom of decision and power of disposition.
Although both terms are mentioned together and belong together in the German expression Schalten und Walten, they are nevertheless complements to each other. They both refer to the exercise and existence of domination, disposal or power, but they nonetheless designate two quite different modes of being. Schalten is not so much sheer command over something, but government or management. It is linked to control, intervention and change, in short: it is operative and goes along with distinctive measures and cause-and-effect relations. The English equivalent switching reflects this more or less adequately.
Schwerpunkt Blockchain
(2019)
Neue Medien rufen regelmäßig neue Utopien auf den Plan, die sich untereinander stark ähneln können. Regelmäßig bekommen wir eröffnet, dass, von den Uninformierten noch unbemerkt, eine Medienrevolution im Gange sei, die das Potenzial habe, die Welt grundlegend zu verändern. Diese Erwartungen gelten meistens einem in jeder Hinsicht umwälzenden Zuwachs an Gleichheit und Freiheit Aller. Meistens enden sie jedoch dann in der Feststellung eines Zuwachses an Geld und Macht in den Händen Weniger. So war es beim Radio, beim Video, beim Internet, bei den »sozialen Medien«. Und so ist es auch heute wieder. Eine Medienrevolution finde statt, so hört und liest man, die sich nicht auf kalifornischen Theaterbühnen oder auf Konsumentenelektronik-Messen wie der IFA in Gestalt neuer Gadgets öffentlich präsentiert. Sie spielt sich jenseits der Terminals im unsichtbaren Reich der Vernetzung ab und betrifft subkutan die mediale Instituiertheit der Gesellschaft selbst: die Blockchain.
Schwerpunkt Ontography
(2019)
Research in cultural techniques and media philosophy owe their existence to the fading and passing, the becoming impossible, and finally even the ban on ontology. Just like media history and media theory, they even represent a form of processing of this ending of ontology and a reaction to it. The concept of »Being«, the singular subject of all ontology, taken as unchangeable and as residing somewhere behind or even above all its realizations, concretions and manifestations in the materially existing world, had already been strongly suspected by positivism, vitalism and phenomenology, but had not yet been stripped off. Existential philosophy then ventured further, until finally a number of diverse schools of thought like Foucault’s history of knowledge or Derrida’s deconstruction, Quine’s logic, Heinz von Foerster’s constructivism, Luhmann’s functionalism, or process philosophy in the aftermath of Whitehead could definitively reject ontology with highly effective—albeit strongly diverging—reasons and arguments. These theories and philosophical schools did not agree on anything but on the rejection of ontology. Accordingly, the »ontological difference«, which provided that one could not speak about »Being« in the same way as about an existing being, had to be reconsidered. One solution was to project the ontological difference back into the multitude and materiality of the existing and to provide it with a new language of description and to read it against the backdrop of new types of questions. The offer that media theory and history, the cultural techniques approach, and media philosophy were able to make—successfully—in this situation was essentially a reappraisal not only of technics (»Die Technik«) in the ontological sense, but of technologies and techniques, of practices and their aesthetics. To use Heideggers terms, the focus was now set on »switching« (»Schalten«) rather than on »ruling« (»Walten«). The ban on ontology was nonetheless fully respected, and in cultural and media studies the observation of techniques and technologies, means and processes of the incessant self-differentiation of anything that is ruled out the persistent stunning standstill vis-à-vis the great ontological difference of Being and the existing beings.
Am 22. Januar 2017 wurde die Beraterin des amerikanischen Präsidenten, Kellyanne Conway, in einem Meet the Press-Interview gefragt, warum der Pressesprecher des Präsidenten kurz zuvor eine »nachweisliche Lüge« bezüglich der Zahl der in Washington zur Amtseinführung Trumps zusammengekommenen Menschen geäußert habe. Conway antwortete: »Our press secretary, Sean Spicer, gave alternative facts […]«. Das war nicht nur eine Manifestation oder Überbietung von Orwellianischem »Newspeak«. Es war ein Moment, in dem sich ein Bruch mit dem in der westlichen Kultur bislang allgemein anerkannten Paradigma, worin die Faktizität von Daten – seien es Bilder, Zahlen, Aussagen – gründet, offen aussprach. Es war sozusagen ein ironischer Moment der Wahrheit – ironisch, weil dieser Moment einen Höhepunkt des »Post-Truth«-Zeitalters darstellte.
Doch welche Wahrheit? Dass es dazu unterschiedliche und zum Teil kontroverse Auffassungen gibt, zeigen die verschiedenen Deutungen und Instrumentalisierungen, die dieser Moment der Wahrheit in der Folge erfuhr. Der Debattenteil der letzten Ausgabe der Zeitschrift für Medien- und Kulturforschung hat bereits einen Teil dieser Kontroverse um die Deutung des Phänomens von »fake news« und »alternative facts« dokumentiert. Der Schwerpunkt der vorliegenden Ausgabe setzt diese Kontroverse fort, und zwar deswegen, weil die Kultur- und Medienwissenschaft in mehrfacher Weise vom Ereignis »alternativer Fakten« und den sich anschließenden Kontroversen um ihre Bewertung herausgefordert wird. Sehr schnell wurde nämlich klar, dass die Antwort auf die Frage, welche Wahrheit sich in jenem Moment kundtat, als die Welt aus dem (sich dabei merklich verziehenden) Munde von Kellyanne Conway vom Wunder der Existenz alternativer Fakten erfuhr, nicht einfach nur banal war. So banal wie die Tatsache, dass ein infantiler Narzissmus zur Richtschnur für die Konstruktion der offiziellen amerikanischen Regierungsversion von Wirklichkeit geworden ist, ein Narzissmus, der das, was ist (und wofür es zureichende Gründe gibt), zugunsten dessen verwirft, von dem er möchte, dass es stattdessen sei.
Focus Mediocene
(2018)
This issue, following an international conference held at the IKKM in September 2017, is devoted to what may very well be the broadest media-related topic possible, even if it is accessible only through exemplary and experimental approaches: Under the title of the »Mediocene«, it presents contributions which discuss the operations and functions that intertwine media and Planet Earth. The specific relation of media and Planet Earth likely found its most striking and iconic formula in the images of the earth from outer space in 1968/69, showing the earth—according to contemporaneous descriptions—in its brilliance and splendor as the »Blue Marble«, but also in its fragility and desperate loneliness against the black backdrop of the cosmic void. Not only the creation but also the incredible distribution of this image across the globe was already at the time clearly recognized as a media eff ect. In light of space fl ight and television technology, which had expanded the reach of observation, communication, and measurement beyond both the surface of the Earth and its atmosphere, it also became clearly evident that the Planet had been a product of the early telescope by the use of which Galileo found the visual proof for the Copernican world model. Nevertheless, the »Blue Marble« image of the planet conceives of Earth not only as a celestial body, but also as a global, ecological, and economic system. Satellite and spacecraft technology and imaging continue to move beyond Earth’s orbit even as they enable precise, small-scale procedures of navigation and observation on the surface of the planet itself. These instruments of satellite navigation aff ect practices like agriculture, urban planning, and political decision-making. Most recently, three-dimensional images featuring the planet’s surface (generated from space by Synthetic Aperture Radar) or pictures from space probes have been cir-culating on the Web, altering politico-geographical practices and popular and scientifi c knowledge of the cosmos. Today, media not only participate in the shaping of the planet, but also take place on a planetary scale. Communication systems have been installed that operate all over the globe.
Die vorliegende Ausgabe der Zeitschrift für Medien- und Kulturforschung verdankt sich einem Experiment. In Experimenten, wenigstens soweit es sich zunächst um künstlerische und philosophische Prozeduren handelt, geht es, frei nach Jean-François Lyotard, darum, herauszufinden, welchen Regeln die Verfahren selbst folgen, während man sie bereits anwendet, während man also danach sucht, welchen Regeln man folgt. In eben diesem Sinne bemüht sich das vorliegende Heft um eine Klärung des Verfahrens »operativer Ontologien«. Während in der Kunst das Werk selbst als eine dynamische Instanz der experimentellen Prozedur gelten kann, haben die Herausgeber hier jedoch einen etwas anderen Weg eingeschlagen, indem sie nämlich verschiedene Texte in einem experimentellen Bezugsrahmen angefragt – und wunderbarerweise auch erhalten haben. Wunderbarerweise deshalb, weil sowohl in Philosophie und Kunst als auch in den Wissenschaften jedes Experiment nicht nur mit der Freude am Aufbauen und Einstellen der Apparaturen, Instrumente und Dispositive, am Basteln also, sondern auch mit erheblicher Zumutung und vielleicht einem kleinen Wagnis verbunden ist. Zudem ist zum Zeitpunkt seiner Unternehmung über seinen Ausgang noch nicht das Geringste bekannt. Im vorliegenden Fall, denn die Veröffentlichung ist selbstverständlich das eigentliche Experiment, wissen wir alle also bis jetzt nichts über den Ausgang.
Schwerpunkt Inkarnieren
(2017)
Der Themenschwerpunkt des vorliegenden Heftes der Zeitschrift für Medien- und Kulturforschung wird bestritten von Autoren, die der DFG-Forschergruppe »Medien und Mimesis« angehören, die an der Bauhaus-Universität Weimar angesiedelt, aber zusätzlich über die Universitäten Basel, Bielefeld, Bochum, München und Zürich verteilt ist. Die Forschergruppe untersucht Mimesis als Kulturtechnik vor dem Hintergrund aktueller Entwicklungen in der Medienforschung, die Praktiken und Operationsketten als vorgängig gegenüber den aus ihnen hervorgehenden Subjekt-Objekt-Dichotomien bzw. Subjekt-Werkzeug-Artefakt-Kausalitäten ansehen. Die Auffassung von Mimesis als einer vielgestaltigen Kulturtechnik geht über die in den Kultur- und Literaturwissenschaften ebenso wie in der Philosophie dominierende ästhetische und epistemische Betrachtung der Mimesis hinaus und stellt das geschichtsphilosophische Selbstverständnis der Moderne als eine grundlegend a-mimetische kulturelle und soziale Formation infrage. Mimesis und imitatio werden nicht länger in die Perspektive einer zu ü berwindenden Vorgeschichte der Idee des schöpferischen Menschen und seiner Werkherrschaft gestellt (Blumenberg). Anstatt die Mimesis in einen Gegensatz zur modernen Technik und der auf ihr beruhenden Zivilisation zu manövrieren und das konstruktivistische Selbstverständnis der Neuzeit kulturell zu verallgemeinern und absolut zu setzen, gehen die Projekte der Forschergruppe auf unterschiedlichen Feldern den seinsverändernden, transformatorischen Wirkungen medial gekoppelter mimetischer Praktiken und Verhaltensweisen zwischen dem 15. und dem 21. Jahrhundert nach. ...
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.
Schwerpunkt Sendung
(2015)
Auch die Zeitschrift für Medien- und Kulturforschung erreicht ihre Leserinnen und Leser als Sendung, als Postgut auf dem Wege der Zustellung nämlich. Wer immer sie liest, hat also mit der Sendung zu tun. Allein das schon ist ein Grund, sich mit der Sendung zu befassen. Und ein gewichtiger Grund dazu: Phänomen und Begriff der Sendung haben, das leuchtet schon intuitiv jeder Postkundin, jedem Radiohörer, jedem Gottesdienstbesucher und jeder Goethe-Leserin ein, eine enorme medienwissenschaftliche Relevanz. Als empirischen, kulturtechnischen Sachverhalt kann man die Sendung – also etwa diese Ausgabe der ZMK – physisch in Händen halten (oder auch nicht, wenn die Postsache nicht ankommt), annehmen oder zurückweisen, man kann sie technisch, etwa als Druck- und Redaktionserzeugnis herstellen, sie aufgeben und abholen, verwalten und organisieren, sie bewirtschaften – aber die Sendung lässt sich auch fühlen, verspüren und bemerken, erfüllen und verfehlen, kann bewegen und berühren oder eben unberührt lassen. Ganz real affiziert und attachiert sie, richtet aus und sendet selbst. Als medienphilosophisches Konzept genommen, besitzt die Sendung folglich das Potential zur Entfaltung komplexer Grundannahmen der Medientheorie und zugleich zu ihrer reduzierenden Bündelung und Einfassung. Sie verbindet und durchkreuzt ganz grundsätzlich das begrifflich sorgsam Getrennte, zum Beispiel das Heilige und das Profane, das Materielle und das Immaterielle, das Aktive und das Passive. Sie ist darin ein genuin medienwissenschaftlicher Leitbegriff, an dem sich die gesamte Breite dessen, was Medium sein kann, entfalten lässt, von der Religion bis zum Massenmedium, von der Politik bis zum Postboten, von der Infrastruktur bis zur Entrückung. Sie erzeugt zudem in all ihrer Materialität mannigfaltige paradoxe und reflexive Verläufe – die Sendung überhaupt zu denken, heißt deshalb nicht zuletzt, selber senden und gesandt werden.
Schwerpunkt Textil
(2015)
Textil: Der Titel des Schwerpunkts der vorliegenden Ausgabe der ZMK kann ein Ding, ein Material oder eine Eigenschaft bezeichnen. Als Eigenschaftswort spezifiziert textil indes nicht nur bestimmte Künste näher (den Begriff der textilen Kunst gibt es spätestens seit Gottfried Semper) und umfasst so die Weberei, die Stickerei, das Flechten, Knoten, Stricken, Häkeln, Wirken und vieles andere mehr (Semper zufolge auch die Anfänge der Baukunst), sondern neuerdings auch Medien. Die Rede von den »textilen Medien« zielt offenbar auf einen anderen Aspekt des Medienbegriffs als denjenigen, der von der Trias »Speichern, Übertragen, Verarbeiten« gebildet wird, nämlich auf das Material, nicht auf die Funktion. Nun kann man einerseits diesen Medienbegriff einfach, wie etwa im Bereich der Kunstgeschichte üblich, im Sinne der Materialität eines Bildträgers verstehen. Andererseits jedoch lenkt die Rede von den »textilen Medien«, indem sie die Materialität anstelle der Funktionalität betont, den Fokus auf eine spezifische Medialität des Textilen und darüber hinaus auf eine Medialität des Materials überhaupt. Eben darin liegt der Grund für die seit einigen Jahren zu beobachtende enorme Konjunktur des Textilen in so unterschiedlichen Bereichen wie der Kunst, der Kunstwissenschaft oder der Technik- und Sozialanthropologie. In der Kunstöffentlichkeit belegen eine Reihe von Ausstellungen diese Konjunktur, wie zum Beispiel »Kunst & Textil« in Wolfsburg, »Textiles: Open Letter« in Mönchengladbach, »Decorum. Tapis et Tapisseries d’Artistes« in Paris, »Soft Pictures« in Turin oder »To Open Eyes. Kunst und Textil vom Bauhaus bis heute« in Bielefeld. ...
Schwerpunkt Synchronisation
(2014)
Nichts ist so aktuell wie die Gegenwart; gegenwärtig sein aber heißt gleichzeitig sein mit etwas anderem, und diese Gleichzeitigkeit muss immer eigens durch geeignete Operationen der Übertragung, der Überbrückung, der Abstimmung und ihre Werkzeuge hergestellt werden. So schlicht erklärt sich die grundlegende und aktuelle Relevanz des Themas der Synchronisierung ebenso wie seine kulturtechnische und medienphilosophische Ausformung. Die aktuelle medientheoretische und medienhistorische Aufmerksamkeit für die Verfertigung der Gegenwart (deren wichtigste Operation diejenige der Synchronisierung ist), wie sie sich auch im Jahresthema 2012/2013 der Forschungen am Internationalen Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) niedergeschlagen hat, reagiert auf eine spezifische zeitphilosophische Spannungslage, die sich im Anschluss an die strukturale und poststrukturale sowie die systemtheoretische Differenztheorie einerseits und an eher empirische, phänomenale, aber auch technikhistorisch und -theoretisch relevante Sachverhalte andererseits ergeben hat. Den ersten Pol dieser Spannung bildet die Dekonstruktion der Präsenz, etwa, im Sinne Jacques Derridas, der Gleichzeitigkeit von Stimme und Ohr beim Sprechen, oder, im Sinne Deborah Eschs, der Live-Übertragung des Fernsehens. Den anderen Pol jedoch bilden die dennoch sich behauptenden phänomenalen und funktionalen Gleichzeitigkeitserfahrungen und -effekte. Sie umfassen etwa das Miterleben des Spielzuges im Sport, wie Hans Ulrich Gumbrecht es gefasst hat, und zahlreiche andere ästhetische, insbesondere erhabene Erfahrungen. Am anderen Ende der Skala gehören aber auch Prozesse wie die technische Einsteuerung und Abstimmung von Taktfrequenzen in Regelkreisen und Übertragungszusammenhängen zu den gültigen Formen effektiver Gleichzeitigkeit. Auch Verdichtungsvorgänge wie die mehr oder weniger instantane, ereignisbezogene wie ereignisförmige Bildung und Auflösung von Publika sind derlei relevante Präsenzeffekte. Die grundlegende Einsicht in die Gemachtheit und folglich Dekonstruierbarkeit der Gegenwart durch Synchronisierungs- und Desynchronisierungsoperationen jedenfalls widerstreitet nach medienwissenschaftlicher Überzeugung nicht ihrer Wirklichkeit im Sinne der Wirksamkeit – der lateinischen »actualitas«, als deren deutschsprachige Entsprechung die Scholastik des Mittelalters bei Meister Eckhart den Begriff der »Wirklichkeit« erst einführte.
Focus Producing Places
(2014)
Producing places is a twofold topic. It can refer to places as sites that produce something, that are productive, that have operations unfold, or actions happen, or objects emerge. Or it can refer to the fabrication of places as specific entities themselves. With the extended availability and practicability of digital positioning, locating, and tracking systems, it has become evident that places are not just there, but that they are generated, that they are subject to mediatechnological operations and effects. Nonetheless, and at the same time, the aspect of places as being productive has also attracted considerable attention. Furthermore, in either perspective, a media-theoretical challenge has come up. It invests two different threads within the realm of conceptualizing not only space, but precisely place under conditions of media, both of them leading way back into the evolution of media societies and cultural technologies.
Die zunehmende und sich zunehmend ausfächernde Rezeption der Akteur-Netzwerk-Theorie (ANT) in der deutschsprachigen Medientheorie ist als eine der interessantesten Konjunkturen der kulturwissenschaftlichen Medienforschung in den letzten Jahren bezeichnet worden. Zweifellos hängt diese Faszination mit dem Umstand zusammen, dass der Ansatz der ANT der deutschsprachigen Medienforschung einen Ausweg verspricht aus einer Situation, die lange geprägt war vom Gegensatz zwischen Soziologie und Technikmaterialismus oder, mit anderen Worten, vom aufreibenden Kampf um die letztbegründende Instanz des Sozialen oder des Technischen. Da, anders als zum Beispiel in Frankreich und England, hierzulande die Geisteswissenschaften, insbesondere die Literaturwissenschaft, eine wichtige Rolle bei der Entstehung der Medienwissenschaft gespielt haben, konnte dieser noch heute Disziplinen und Forscher voneinander trennende Dissens auch die Gestalt eines Streits um die letztbegründende Instanz des Sinns oder des Nichtsinns, des Hermeneutischen oder des Nichthermeneutischen annehmen. Dabei ist die Frage, ob technische Objekte vollständig sozial konstruiert sind oder das Soziale eine Fiktion ist, die von Techniken produziert wird; oder ob dieser Gegensatz selbst nur ein konstruierter ist, durchaus eine Frage, die auch die ANT im Laufe ihrer ebenfalls durch Querelen gekennzeichneten Geschichte beschäftigt hat. Während die ANT der deutschsprachigen Medienwissenschaft also einerseits ein Versprechen zu machen scheint, so droht sie der kulturwissenschaftlichen Medienforschung andererseits mit dem Verlust ihres ›Markenzeichens‹: der emphatisch betonten empirisch-transzendentalen Sonderrolle der Medien. Daher sieht sich die medienwissenschaftliche Forschung, zumindest soweit sie einen humanwissenschaftlichen Hintergrund hat, der ANT gegenüber zu einer »Gretchenfrage« herausgefordert: Wie hältst du es mit den Medien? Die Antwort fällt, wie könnte es anders sein, zweideutig aus.
Mit dem Thema der Medienanthropologie kehrt eine Fragestellung in den Fokus der ZMK zurück, diesmal als ausdrückliche, die von Anfang an zu den Schwerpunkten ihres wissenschaftlichen Programms gehört hat. In ihrer ersten Ausgabe bereits hat die ZMK sich damit befasst, die philosophische Leitfrage nach dem Menschen medientheoretisch und kulturtechnisch neu zu grundieren. Eine solche Wendung ist daran erkennbar, dass sie von der Frage, was der Mensch sei, umstellt auf Fragen nach dem Werden und Gemachtwerden des Menschen, nach seiner Hominisierung und ihren Diskursen, ihren Verfahren, Werkzeugen und Orten in Raum und Zeit. Nicht so sehr was, sondern wo und wann, unter welchen Bedingungen und mithilfe welcher Instrumente und Operationen der Mensch sei, darum, so der Ausgangsgedanke, geht es der Medienanthropologie. Damals, in der ersten Ausgabe der ZMK, bestand die Leitidee darin, sich diesen Fragen zunächst von der Peripherie her zu nähern und die so verstandenen Bedingungen des Menschseins von der Gefährdung des Menschen, von einem exemplarischen Grenzzustand aus zu betrachten, in dem diese Bedingungen problematisch werden können, nämlich demjenigen der Angst. Heute, und mit der vorliegenden Ausgabe, wird ein anderer, zusätzlicher und zugleich weiter greifender Aspekt gesetzt. Denn das Feld der Medienanthropologie hat sich in den vergangenen Jahren ver-
ändert; die Debatten sind intensiviert und die Forschungen diversifiziert worden. In dieses Feld greift die ZMK nun mit einer dezidierten Position ein, die auf kontinuierliche Diskussionen und Entwicklungen innerhalb der Kulturtechnikforschung und der Medienphilosophie und auch zwischen ihnen aufbauen kann.
Schwerpunkt Kollektiv
(2012)
Die neuere und höchst produktive Konjunktur des »Kollektiv«-Begriffs in Soziologie und Kulturtheorie, wie sie sich insbesondere durch die Ent-faltung der Akteur-Netzwerk-Theorie herausgebildet hat, ist zunächst durch vier miteinander zusammenhängende Eigentümlichkeiten gekennzeichnet. Erstens bezeichnet das »Kollektiv« in diesem Sinne vor allem anderen eine Ansammlung von Entitäten zu einem als Ganzem operativen, möglicherweise sogar handlungs- und reflexionsfähigen Komplex. Die Operationen werden dabei erstens im »Kollektiv« und durch das »Kollektiv« ausgeführt, gleichzeitig jedoch sind sie es, die das »Kollektiv« überhaupt erst aufspannen und relationieren und so zusammenhalten und reproduzieren bzw. variieren. Das Besondere daran ist zweitens – und das unterscheidet den »Kollektiv«-Begriff etwa von demjenigen des Systems –, dass es keine Subsumption der beteiligten Entitäten unter das kollektive Gebilde gibt. Die Operationsfähigkeit und der Zusammenschluss führen weder zu einem Aufgehen des Einzelnen im Ganzen, noch zerfällt im Rückfall das Ganze in eine bloße Gesamtheit aufsummierbarer Teile und Effekte. Kurz: Das »Kollektiv« kann nicht über die Beziehung von Ganzem und Teil definiert und schon gar nicht nach einer dieser beiden Seiten hin aufgelöst werden. Drittens, und das ist der vermutlich plakativste Zug des neuen »Kollektiv«-Begriffs, umfasst das »Kollektiv« Entitäten völlig heterogener Art, genauer: Es bringt solche Gegebenheiten zusammen, die nach klassischer ontologischer Tradition verschiedenen Seinsbezirken zugerechnet worden wären. Das sind vor allem die berühmten menschlichen und nichtmenschlichen Akteure Bruno Latours, das sind also Personen und Artefakte, Kultur- und Naturdinge, Intelligibles und Sensibles, Reflexives und Irreflexives, Technisches und Ästhetisches, Bilder und Objekte oder sogar Materielles und Immaterielles wie Geister, Götter und Ahnen, so bei Descola oder Gell. Und viertens schließlich ist der »Kollektiv«-Begriff speziell ein Kontrastbegriff , der innerhalb der »neuen Soziologie« der Akteur-Netzwerk-Theorie an die Stelle des Gesellschaftsbegriff s treten soll, eben um dessen humanozentrische Prägung einerseits und seine subsumptive, generalisierende und anti-partikulare Tradition
andererseits abzustreifen.
Schwerpunkt Entwerfen
(2012)
Entwerfen ist ein äusserst unscharfer Begriff. Mit ihm kann je nach Kontext ebenso Zeichnen, Planen, Modellieren, Projektieren oder Darstellen gemeint sein wie Erfi nden, Entwickeln, Konzipieren, Komponieren und ähnliches. Wenn Architekten vom Entwurf reden, verwenden sie das Wort meist in einer Bedeutung, die auf den kunsttheoretischen Diskurs zurückgeht, der im Florenz des 16. Jahrhunderts entstanden ist: Entwurf als disegno. Dementsprechend konnte Entwerfen in der kunsthermeneutischen Rezeption schließlich mit dem ›künstlerischen Schaff ensprozess‹ selbst synonym werden. Im Entwerfen meint man der geistigen Vermögen und Prozesse im künstlerischen Subjekt habhaft zu werden.
An diese Tradition soll hier bewusst nicht angeknüpft werden. Um das Entwerfen als Kulturtechnik in seiner historischen Bedingtheit zu beschreiben, muss es aus dem anthropozentrischen Ursprung herausgerückt werden, an den es der florentinische kunsttheoretische Diskurs versetzt hat. Statt das Entwerfen als fundamentalen Akt künstlerischen Schaff ens zu begreifen und als anthropologische Konstante der Geschichte zu entziehen, wäre eben diese Konzeption als historisches Resultat von diskursiven, technischen und institutionellen Praktiken zu befragen.
Dieses Heft, das Beiträge zum Schwerpunktthema Medien des Rechts versammelt, ist kein Heft wie jedes andere. Es ist unserer Kollegin Cornelia Vismann gewidmet, die am 28. August 2010 viel zu früh gestorben ist. Cornelia Vismann war von 2008 bis zu ihrem Tod Professorin für Geschichte und Theorie der Kulturtechniken an der Bauhaus-Universität Weimar. Sie hat dieser Professur ihr eigenes Profil verliehen, indem sie zum einen die Geschichte und Theorie des Rechts als eine Theorie und Geschichte von Kulturtechniken reformulierte, zum anderen aber auch die unhintergehbare rechtliche Relevanz – die Recht setzende Gewalt – von Kulturtechniken betonte und gezielt herausarbeitete. Dadurch hat sie der Sache und der Erforschung der Kulturtechniken eine unerhörte Dringlichkeit gegeben, eine Dringlichkeit, die ihr Verhältnis zur wissenschaftlichen Forschung und Lehre überhaupt widerspiegelt.
Schwerpunkt Offene Objekte
(2011)
Die ›Zeitschrift für Medien- und Kulturforschung‹ arbeitet an einer Standortbestimmung der Medien- und Kulturwissenschaft; in thematischer, methodischer und struktureller Hinsicht sowie nicht zuletzt in wissenschaftsgeschichtlicher Perspektive. In ihren letzten beiden Ausgaben hat sie verstärkt und konzentriert programmatische Aspekte der Medienphilosophie und der Kulturtechnikforschung ausgearbeitet und vorgestellt. Damit hat sie ihre Aufmerksamkeit auf spezifische – und möglicherweise innovative – Felder und Ansätze innerhalb des weiteren Geschehens der Medien- und Kulturwissenschaft gelenkt und eine Paradigmendiskussion aufgenommen. ...
Schwerpunkt Mediephilosophie
(2010)
Die prominent und polemisch geäusserte Ansicht, bei der Medienphilosophie handele es sich um eine vorübergehende Angelegenheit, ist vermutlich sehr zutreff end. Medienphilosophie selbst hat nie etwas anderes behauptet. Und genau aus diesem Grund, also eben wegen ihrer Vorläufigkeit, ist Medienphilosophie so wichtig. Sie tritt vielleicht tatsächlich als neue, modische Unterdisziplin der Philosophie auf. Aber sie tut dies, weil sie eine sehr ernsthafte Herausforderung an die Philosophie darstellt. Wie und wann sie wieder vergeht, das hängt davon ab, was sie ausrichtet. Medienphilosophie ist nämlich in ihrem Selbstverständnis ein grundlegend operatives und operationales Unternehmen. Daher rührt ihre große Nähe zu und ihr vitales Interesse an den Kulturtechniken und ihrer Erforschung.
Sie interessiert sich für Eingriff e aller Art – und ist selbst einer. Sie hat – und zwar keineswegs nur metaphorisch – Anteil am materiellen Körper der Philosophie, für den Philosophie selbst, immer hart am Begriff , sich gar nicht interessiert und dies auch nicht tun muss. Zum materiellen Körper der Philosophie zählten bereits die schreibende Hand, vielleicht das vorrangige Medium des philosophischen Eingriffs, und ihr Werkzeug, das Schreibzeug, das sie führt. Als Medienphilosophie widmet sich die Philosophie den Gesten, die sie in der Welt ausführt, und den Operationen, die sie an den Dingen und mit ihrer Hilfe vornimmt.
Schwerpunkt Kulturtechnik
(2010)
Medientheorie und historische Medienwissenschaft sind seit geraumer Zeit dabei, einen Schritt zu tun, der sie hierzulande zumindest teilweise in historische und systematische Kulturtechnikforschung überführt. Die Möglichkeit existiert, dass die Medien als Referenz eines Wissenschaftsparadigmas, das gerade dabei ist, die Forschungs- und Lehrstrukturen dieses Landes zu erobern, sich bereits im Zustand bloßen Nachlebens befinden. Damit kommen mindestens jene Teile der Medienforschung zu sich, die seit der Institutionalisierung von Medienwissenschaft realisieren mussten, dass jene Medien, mit denen sie es seit den 1980er Jahren zu tun hatten, sich nur schwer in den Rahmen der Medien der Medienwissenschaft fügen wollen. Es scheint daher so, als ließe sich mit dem Begriff der Kulturtechniken etwas fassen, das schon seit den 80er Jahren eine Spezifik der entstehenden deutschen Medienwissenschaft gewesen ist, eine Spezifik, die sie den angloamerikanischen media studies ebenso entfremdete wie der Kommunikationswissenschaft oder gar der Soziologie, die, im Banne der Aufklärung und des Gesellschaftsbegriff s stehend, über Medien grundsätzlich nur unter dem Aspekt der Öff entlichkeit nachdenken wollte. Was sich in den 80er Jahren des letzten Jahrhunderts etwa unter dem Titel einer Diskurs- und Medienanalyse formierte, zielte nicht primär auf eine Medientheorie oder die Geschichte von Einzelmedien ab, die längst identitätsstiftend für je eigene Forschungsdisziplinen geworden waren (Fotografie, Film, Fernsehen, Rundfunk), sondern auf eine Geschichte der Literatur, des Geistes, der Seele und der Sinne, die man der Literaturwissenschaft, der Philosophie, der Psychologie und der Ästhetik wegzunehmen gedachte, um sie auf einem anderen Schauplatz aufzuführen: dem der Medien – und gegenwärtig der Kulturtechniken. Weil aber gar nicht die Medien im Fokus der Entdeckung standen, sondern eine Rekontextualisierung der traditionellen Gegenstände der Geisteswissenschaften, genauer eine »Austreibung des Geistes aus den Geisteswissenschaften« (Friedrich Kittler), kam von vornherein anderes in den Blick als diejenigen Medien, die die Publizistik- und Kommunikationswissenschaft, die Massenmedienforschung oder die Einzelmedienwissenschaften als ihre primären Untersuchungsfelder auswiesen.
Schwerpunkt Angst
(2009)
Nach einem Jahrhundert ihres relativ soliden, fraglosen Bestehens sind die modernen Geisteswissenschaften seit etwa 25 Jahren einer tiefgreifenden Herausforderung ausgesetzt. Diese Herausforderung ist so epochal wie die Entstehung der Geisteswissenschaften selbst. Sie wurde und wird weiterhin weder von den exaktwissenschaftlichen Fakultäten noch von den Ökonomisierungsanfällen der Politik vorgetragen, sondern vielmehr vom Aufkommen eines ganz neuen Wissenstyps aus dem Herzen der philosophischen Fächer selbst.
Die Herausbildung und anschließende Institutionalisierung dieses neuen Wissenstyps geschah zunächst disparat und ist heute bei weitem noch nicht abgeschlossen. Aber er hat sich unter verschiedenen Bezeichnungen und in verschiedenen Verfassungen doch inzwischen nachdrücklich etabliert. Seine gewiss wirksamste Form hat dieser neue Wissenstyp und hat diese Herausforderung unter der Bezeichnung der Medien- und Kulturwissenschaft erfahren. Medien- und Kulturwissenschaft muss sich heute, anders als vor gut zwanzig Jahren, kaum mehr eigens behaupten. Die Frage ist nur noch, ob sie sich innerhalb des Kanons der Fächer der philosophischen Fakultät als ein weiteres Paradigma der Geisteswissenschaften durchsetzt oder aber außerhalb Platz findet, als Kompensationsunternehmen.
Zugang zu gesunder und nachhaltiger Ernährung ist in Berlin nicht für alle Menschen eine Selbstverständlichkeit. Um Ernährung für alle gewährleisten zu können, braucht es einen Wandel des Ernährungssystems in Berlin, der eine ökologische, klima- und sozialgerechte Nahrungsproduktion und Verteilung für alle Menschen in der Stadt ermöglicht.
Einen Beitrag um die Ernährung in der Stadt gerechter und nachhaltiger zu gestalten kann ein sogenannter LebensMittelPunkt (LMP) leisten.
LebensMittelPunkte entstehen meist aus ehrenamtlichen Initiativen, können aber auch in Zusammenarbeit mit städtischen Verwaltungen etabliert werden. Eine Zusammenarbeit zwischen zivilgesellschaftlichen Organisationen und Verwaltungen kann dabei Potenziale und Ressourcen freisetzen.
Dieser Leitfaden soll ernährungspolitischen Initiativen und Vereinen aus der Zivilgesellschaft sowie kommunalen oder bezirklichen Verwaltungen in Berlin – und darüber hinaus – Empfehlungen geben, wie ein LebensMittelPunkt in einer gemeinsamen Kooperation aufgebaut werden kann.
For the safe and efficient operation of dams, frequent monitoring and maintenance are required. These are usually expensive, time consuming, and cumbersome. To alleviate these issues, we propose applying a wave-based scheme for the location and quantification of damages in dams.
To obtain high-resolution “interpretable” images of the damaged regions, we drew inspiration from non-linear full-multigrid methods for inverse problems and applied a new cyclic multi-stage full-waveform inversion (FWI) scheme. Our approach is less susceptible to the stability issues faced by the standard FWI scheme when dealing with ill-posed problems. In this paper, we first selected an optimal acquisition setup and then applied synthetic data to demonstrate the capability of our approach in identifying a series of anomalies in dams by a mixture of reflection and transmission tomography. The results had sufficient robustness, showing the prospects of application in the field of non-destructive testing of dams.
Encapsulation-based self-healing concrete (SHC) is the most promising technique for providing a self-healing mechanism to concrete. This is due to its capacity to heal fractures effectively without human interventions, extending the operational life and lowering maintenance costs. The healing mechanism is created by embedding capsules containing the healing agent inside the concrete. The healing agent will be released once the capsules are fractured and the healing occurs in the vicinity of the damaged part. The healing efficiency of the SHC is still not clear and depends on several factors; in the case of microcapsules SHC the fracture of microcapsules is the most important aspect to release the healing agents and hence heal the cracks. This study contributes to verifying the healing efficiency of SHC and the fracture mechanism of the microcapsules. Extended finite element method (XFEM) is a flexible, and powerful discrete crack method that allows crack propagation without the requirement for re-meshing and has been shown high accuracy for modeling fracture in concrete. In this thesis, a computational fracture modeling approach of Encapsulation-based SHC is proposed based on the XFEM and cohesive surface technique (CS) to study the healing efficiency and the potential of fracture and debonding of the microcapsules or the solidified healing agents from the concrete matrix as well. The concrete matrix and a microcapsule shell both are modeled by the XFEM and combined together by CS. The effects of the healed-crack length, the interfacial fracture properties, and microcapsule size on the load carrying capability and fracture pattern of the SHC have been studied. The obtained results are compared to those obtained from the zero thickness cohesive element approach to demonstrate the significant accuracy and the validity of the proposed simulation. The present fracture simulation is developed to study the influence of the capsular clustering on the fracture mechanism by varying the contact surface area of the CS between the microcapsule shell and the concrete matrix. The proposed fracture simulation is expanded to 3D simulations to validate the 2D computational simulations and to estimate the accuracy difference ratio between 2D and 3D simulations. In addition, a proposed design method is developed to design the size of the microcapsules consideration of a sufficient volume of healing agent to heal the expected crack width. This method is based on the configuration of the unit cell (UC), Representative Volume Element (RVE), Periodic Boundary Conditions (PBC), and associated them to the volume fraction (Vf) and the crack width as variables. The proposed microcapsule design is verified through computational fracture simulations.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridy- namic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dy- namic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification
will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three dis- tinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
A safe and economic structural design based on the semi-probabilistic concept requires statistically representative safety elements, such as characteristic values, design values, and partial safety factors. Regarding climate loads, the safety levels of current design codes strongly reflect experiences based on former measurements and investigations assuming stationary conditions, i.e. involving constant frequencies and intensities. However, due to climate change, occurrence of corresponding extreme weather events is expected to alter in the future influencing the reliability and safety of structures and their components. Based on established approaches, a systematically refined data-driven methodology for the determination of design parameters considering nonstationarity as well as standardized targets of structural reliability or safety, respectively, is therefore proposed. The presented procedure picks up fundamentals of European standardization and extends them with respect to nonstationarity by applying a shifting time window method. Taking projected snow loads into account, the application of the method is exemplarily demonstrated and various influencing parameters are discussed.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridynamic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dynamic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three distinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
Finite Element Simulations of dynamically excited structures are mainly influenced by the mass, stiffness, and damping properties of the system, as well as external loads. The prediction quality of dynamic simulations of vibration-sensitive components depends significantly on the use of appropriate damping models. Damping phenomena have a decisive influence on the vibration amplitude and the frequencies of the vibrating structure. However, developing realistic damping models is challenging due to the multiple sources that cause energy dissipation, such as material damping, different types of friction, or various interactions with the environment.
This thesis focuses on thermoelastic damping, which is the main cause of material damping in homogeneous materials. The effect is caused by temperature changes due to mechanical strains. In vibrating structures, temperature gradients arise in adjacent tension and compression areas. Depending on the vibration frequency, they result in heat flows, leading to increased entropy and the irreversible transformation of mechanical energy into thermal energy.
The central objective of this thesis is the development of efficient simulation methods to incorporate thermoelastic damping in finite element analyses based on modal superposition. The thermoelastic loss factor is derived from the structure's mechanical mode shapes and eigenfrequencies. In subsequent analyses that are performed in the time and frequency domain, it is applied as modal damping.
Two approaches are developed to determine the thermoelastic loss in thin-walled plate structures, as well as three-dimensional solid structures. The realistic representation of the dissipation effects is verified by comparing the simulation results with experimentally determined data. Therefore, an experimental setup is developed to measure material damping, excluding other sources of energy dissipation.
The three-dimensional solid approach is based on the determination of the generated entropy and therefore the generated heat per vibration cycle, which is a measure for thermoelastic loss in relation to the total strain energy. For thin plate structures, the amount of bending energy in a modal deformation is calculated and summarized in the so-called Modal Bending Factor (MBF). The highest amount of thermoelastic loss occurs in the state of pure bending. Therefore, the MBF enables a quantitative classification of the mode shapes concerning the thermoelastic damping potential.
The results of the developed simulations are in good agreement with the experimental results and are appropriate to predict thermoelastic loss factors. Both approaches are based on modal superposition with the advantage of a high computational efficiency. Overall, the modeling of thermoelastic damping represents an important component in a comprehensive damping model, which is necessary to perform realistic simulations of vibration processes.
The goal of architecture is changing in response to the expanding role of cities, rapid urbanization, and transformation under changing economic, environmental, social, and demographic factors. As cities increased in the early modern era, overcrowding, urbanization, and pollution conditions led reformers to consider the future shape of the cities. One of the most critical topics in contemporary architecture is the subject of the future concepts of living. In most cases, domed cities, as a future concept of living, are rarely considered, and they are used chiefly as “utopian” visions in the discourse of future ways of living. This paper highlights the reviews of domed cities to deepen the understanding of the idea in practice, like its approach in terms of architecture. The main aim of this paper is to provide a broad overview for domed cities in the face of pollution as one of the main concerns in many European cities. As a result, the significance of the reviews of the existing projects is focused on their conceptual quality. This review will pave the way for further studies in terms of future developments in the realm of domed cities. In this paper, the city of Celje, one of the most polluted cities in Slovenia, is taken as a case study for considering the concept of Dome incorporated due to the lack of accessible literature on the topic. This review’s primary contribution is to allow architects to explore a broad spectrum of innovation by comparing today’s achievable statuses against the possibilities generated by domed cities. As a result of this study, the concept of living under the Dome remains to be developed in theory and practice. The current challenging climatic situation will accelerate the evolution of these concepts, resulting in the formation of new typologies, which are a requirement for humanity.
Design-related reassessment of structures integrating Bayesian updating of model safety factors
(2022)
In the semi-probabilistic approach of structural design, the partial safety factors are defined by considering some degree of uncertainties to actions and resistance, associated with the parameters’ stochastic nature. However, uncertainties for individual structures can be better examined by incorporating measurement data provided by sensors from an installed health monitoring scheme. In this context, the current study proposes an approach to revise the partial safety factor for existing structures on the action side, γE by integrating Bayesian model updating. A simple numerical example of a beam-like structure with artificially generated measurement data is used such that the influence of different sensor setups and data uncertainties on revising the safety factors can be investigated. It is revealed that the health monitoring system can reassess the current capacity reserve of the structure by updating the design safety factors, resulting in a better life cycle assessment of structures. The outcome is furthermore verified by analysing a real life small railway steel bridge ensuring the applicability of the proposed method to practical applications.
Bolted connections are widely employed in structures like transmission poles, wind turbines, and television (TV) towers. The behaviour of bolted connections is often complex and plays a significant role in the overall dynamic characteristics of the structure. The goal of this work is to conduct a fatigue lifecycle assessment of such a bolted connection block of a 193 m tall TV tower, for which 205 days of real measurement data have been obtained from the installed monitoring devices. Based on the recorded data, the best-fit stochastic wind distribution for 50 years, the decisive wind action, and the locations to carry out the fatigue analysis have been decided. A 3D beam model of the entire tower is developed to extract the nodal forces corresponding to the connection block location under various mean wind speeds, which is later coupled with a detailed complex finite element model of the connection block, with over three million degrees of freedom, for acquiring stress histories on some pre-selected bolts. The random stress histories are analysed using the rainflow counting algorithm (RCA) and the damage is estimated using Palmgren-Miner's damage accumulation law. A modification is proposed to integrate the loading sequence effect into the RCA, which otherwise is ignored, and the differences between the two RCAs are investigated in terms of the accumulated damage.
Determining the earthquake hazard of any settlement is one of the primary studies for reducing earthquake damage. Therefore, earthquake hazard maps used for this purpose must be renewed over time. Turkey Earthquake Hazard Map has been used instead of Turkey Earthquake Zones Map since 2019. A probabilistic seismic hazard was performed by using these last two maps and different attenuation relationships for Bitlis Province (Eastern Turkey) were located in the Lake Van Basin, which has a high seismic risk. The earthquake parameters were determined by considering all districts and neighborhoods in the province. Probabilistic seismic hazard analyses were carried out for these settlements using seismic sources and four different attenuation relationships. The obtained values are compared with the design spectrum stated in the last two earthquake maps. Significant differences exist between the design spectrum obtained according to the different exceedance probabilities. In this study, adaptive pushover analyses of sample-reinforced concrete buildings were performed using the design ground motion level. Structural analyses were carried out using three different design spectra, as given in the last two seismic design codes and the mean spectrum obtained from attenuation relationships. Different design spectra significantly change the target displacements predicted for the performance levels of the buildings.
Material failure can be tackled by so-called nonlocal models, which introduce an intrinsic length scale into the formulation and, in the case of material failure, restore the well-posedness of the underlying boundary value problem or initial boundary value problem. Among nonlocal models, peridynamics (PD) has attracted a lot of attention as it allows the natural transition from continuum to discontinue and thus allows modeling of discrete cracks without the need to describe and track the crack topology, which has been a major obstacle in traditional discrete crack approaches. This is achieved by replacing the divergence of the Cauchy stress tensor through an integral over so-called bond forces, which account for the interaction of particles. A quasi-continuum approach is then used to calibrate the material parameters of the bond forces, i.e., equating the PD energy with the energy of a continuum. One major issue for the application of PD to general complex problems is that they are limited to fairly simple material behavior and pure mechanical problems based on explicit time integration. PD has been extended to other applications but losing simultaneously its simplicity and ease in modeling material failure. Furthermore, conventional PD suffers from instability and hourglass modes that require stabilization. It also requires the use of constant horizon sizes, which drastically reduces its computational efficiency. The latter issue was resolved by the so-called dual-horizon peridynamics (DH-PD) formulation and the introduction of the duality of horizons.
Within the nonlocal operator method (NOM), the concept of nonlocality is further extended and can be considered a generalization of DH-PD. Combined with the energy functionals of various physical models, the nonlocal forms based on the dual-support concept can be derived. In addition, the variation of the energy functional allows implicit formulations of the nonlocal theory. While traditional integral equations are formulated in an integral domain, the dual-support approaches are based on dual integral domains. One prominent feature of NOM is its compatibility with variational and weighted residual methods. The NOM yields a direct numerical implementation based on the weighted residual method for many physical problems without the need for shape functions. Only the definition of the energy or boundary value problem is needed to drastically facilitate the implementation. The nonlocal operator plays an equivalent role to the derivatives of the shape functions in meshless methods and finite element methods (FEM). Based on the variational principle, the residual and the tangent stiffness matrix can be obtained with ease by a series of matrix multiplications. In addition, NOM can be used to derive many nonlocal models in strong form.
The principal contributions of this dissertation are the implementation and application of NOM, and also the development of approaches for dealing with fractures within the NOM, mostly for dynamic fractures. The primary coverage and results of the dissertation are as follows:
-The first/higher-order implicit NOM and explicit NOM, including a detailed description of the implementation, are presented. The NOM is based on so-called support, dual-support, nonlocal operators, and an operate energy functional ensuring stability. The nonlocal operator is a generalization of the conventional differential operators. Combining with the method of weighted residuals and variational principles, NOM establishes the residual and tangent stiffness matrix of operate energy functional through some simple matrix without the need of shape functions as in other classical computational methods such as FEM. NOM only requires the definition of the energy drastically simplifying its implementation. For the sake of conciseness, the implementation in this chapter is focused on linear elastic solids only, though the NOM can handle more complex nonlinear problems. An explicit nonlocal operator method for the dynamic analysis of elasticity solid problems is also presented. The explicit NOM avoids the calculation of the tangent stiffness matrix as in the implicit NOM model. The explicit scheme comprises the Verlet-velocity algorithm. The NOM can be very flexible and efficient for solving partial differential equations (PDEs). It's also quite easy for readers to use the NOM and extend it to solve other complicated physical phenomena described by one or a set of PDEs. Several numerical examples are presented to show the capabilities of this method.
-A nonlocal operator method for the dynamic analysis of (thin) Kirchhoff plates is proposed. The nonlocal Hessian operator is derived from a second-order Taylor series expansion. NOM is higher-order continuous, which is exploited for thin plate analysis that requires $C^1$ continuity. The nonlocal dynamic governing formulation and operator energy functional for Kirchhoff plates are derived from a variational principle. The Verlet-velocity algorithm is used for time discretization. After confirming the accuracy of the nonlocal Hessian operator, several numerical examples are simulated by the nonlocal dynamic Kirchhoff plate formulation.
-A nonlocal fracture modeling is developed and applied to the simulation of quasi-static and dynamic fractures using the NOM. The phase field's nonlocal weak and associated strong forms are derived from a variational principle. The NOM requires only the definition of energy. We present both a nonlocal implicit phase field model and a nonlocal explicit phase field model for fracture; the first approach is better suited for quasi-static fracture problems, while the key application of the latter one is dynamic fracture. To demonstrate the performance of the underlying approach, several benchmark examples for quasi-static and dynamic fracture are solved.
Der vorliegende Handlungsleitfaden hilft zivilgesellschaftlichen Organisationen und staatlichen Einrichtungen bei der Installation eines anonymen Behandlungs- oder Krankenschein für Menschen ohne Krankenversicherung. Dabei bündelt sich hier der Erfahrungsschatz verschiedener Initiativen aus dem gesamten Bundesgebiet.
The floods in 2002 and 2013, as well as the recent flood of 2021, caused billions Euros worth of property damage in Germany. The aim of the project Innovative Vulnerability and Risk Assessment of Urban Areas against Flood Events (INNOVARU) involved the development of a practicable flood damage model that enables realistic damage statements for the residential building stock. In addition to the determination of local flood risks, it also takes into account the vulnerability of individual buildings and allows for the prognosis of structural damage. In this paper, we discuss an improved method for the prognosis of structural damage due to flood impact. Detailed correlations between inundation level and flow velocities depending on the vulnerability of the building types, as well as the number of storeys, are considered. Because reliable damage data from events with high flow velocities were not available, an innovative approach was adopted to cover a wide range of flow velocities. The proposed approach combines comprehensive damage data collected after the 2002 flood in Germany with damage data of the 2011 Tohoku earthquake tsunami in Japan. The application of the developed methods enables a reliable reinterpretation of the structural damage caused by the August flood of 2002 in six study areas in the Free State of Saxony.
The Gated Community (GC) phenomenon in Latin American cities has become an inherent element of their urban development, despite academical debate, their approach thrives within the housing market; not surprisingly, as some of the premises on which GCs are based, namely safety, control and supervision intersperse seamlessly with the insecure conditions of the contexts from which they arise. The current security crisis in Mexico, triggered in 2006 by the so-called war on drugs, has reached its peak with the highest insecurity rates in decades, representing a unique chance to study these interactions. Although the leading term of this research, Urban Agoraphobia, implies a causal dichotomy between the rise in the sense of fear amongst citizens and housing confinement as lineal consequence, I acknowledge that GCs represent a complex phenomenon, a hub of diverse factors and multidimensional processes held on four fundamental levels: global, social, individual and state-related. The focus of this dissertation is set on the individual plane and contributes, from the analysis of the GC’s resident’s perspective, experiences and perceptions, to a debate that has usually been limited to the scrutiny of other drivers, disregarding the role of dweller’s underlying fears, motivations and concerns. Assuming that the current ruling security model in Mexico tends to empower its commodification rather than its collective quality, this research draws upon the use of a methodological triangulation, along conceptual and contextual analyses, to test the hypothesis that insecurity plays an increasingly major role, leading citizens into the belief that acquiring a household in a controlled and surveilled community represents a counterweight against the feared environment of the open city. The focus of the analysis lies on the internal hatch of community ties as potential palliative for the provision of a sense of security, aiming to transcend the unidimensional discourse of GCs as defined mainly by their defensive apparatus. Residents’ perspectives acquired through ethnographical analyses may provide the chance to gain an essential view into a phenomenon that further consolidates without a critical study of its actual implications, not only for Mexican cities, but also for the Latin American and global contexts.
This report details the development of Horoskopos, a virtual planetarium for astrology. This project was an attempt to develop a learning tool for studying astrological concepts as connected to observational astronomy. The premise that astrology and observational astronomy were once inseparable from each other in ancient times guided the conceptualization of this tool as an interactive planetarium. The main references were existing software and applications for visualization in astrology and astronomy. Professional astrology teachers were consulted in order to understand better the state of astrological teaching and learning, as well as existing tools and practice. Horoskopos was built using the Unity3D development interface, which is based on the C# programming language. It also relied on the Swiss Ephemeris coding interface from Astrodienst. The development process was experimental and many of the needed skills were developed as needed. Usability tests were performed as new features were added to the interface. The final version of Horoskopos is fully usable, with many interactive visualization features and a defined visual identity. It was validated together with professional astrologers for its effectiveness in concept and visualization.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
In this work, the degradation performance for the photocatalytic oxidation of eight micropollutants (amisulpride, benzotriazole, candesartan, carbamazepine, diclofenac, gabapentin, methlybenzotriazole, and metoprolol) within real secondary effluent was investigated using three different reactor designs. For all reactor types, the influence of irradiation power on its reaction rate and energetic efficiency was investigated. Flat cell and batch reactor showed almost similar substance specific degradation behavior. Within the immersion rotary body reactor, benzotriazole and methylbenzotriazole showed a significantly lower degradation affinity. The flat cell reactor achieved the highest mean degradation rate, with half time values ranging from 5 to 64 min with a mean of 18 min, due to its high catalysts surface to hydraulic volume ratio. The EE/O values were calculated for all micro-pollutants as well as the mean degradation rate constant of each experimental step. The lowest substance specific energy per order (EE/O) values of 5 kWh/m3 were measured for benzotriazole within the batch reactor. The batch reactor also reached the lowest mean values (11.8–15.9 kWh/m3) followed by the flat cell reactor (21.0–37.0 kWh/m3) and immersion rotary body reactor (23.9–41.0 kWh/m3). Catalyst arrangement and irradiation power were identified as major influences on the energetic performance of the reactors. Low radiation intensities as well as the use of submerged catalyst arrangement allowed a reduction in energy demand by a factor of 3–4. A treatment according to existing treatment goals of wastewater treatment plants (80% total degradation) was achieved using the batch reactor with a calculated energy demand of 7000 Wh/m3.
The current thesis presents research about new methods of citizen participation based on digital technologies. The focus on the research lies on decentralized methods of participation where citizens take the role of co-creators. The research project first conducted a review of the literature on citizen participation, its origins and the different paradigms that have emerged over the years. The literature review also looked at the influence of technologies on participation processes and the theoretical frameworks that have emerged to understand the introduction of technologies in the context of urban development. The literature review generated the conceptual basis for the further development of the thesis.
The research begins with a survey of technology enabled participation applications that examined the roles and structures emerging due to the introduction of technology. The results showed that cities use technology mostly to control and monitor urban infrastructure and are rather reluctant to give citizens the role of co-creators. Based on these findings, three case studies were developed. Digital tools for citizen participation were conceived and introduced for each case study. The adoption and reaction of the citizens were observed using three data collection methods.
The results of the case studies showed consistently that previous participation and engagement with informal citizen participation are a determinining factor in the potential adoption of digital tools for decentralized engagement. Based on these results, the case studies proposed methods and frameworks that can be used for the conception and introduction of technologies for decentralized citizen participation.
The Finite Element Method (FEM) is widely used in engineering for solving Partial Differential Equations (PDEs) over complex geometries. To this end, it is required to provide the FEM software with a geometric model that is typically constructed in a Computer-Aided Design (CAD) software. However, FEM and CAD use different approaches for the mathematical description of the geometry. Thus, it is required to generate a mesh, which is suitable for FEM, based on the CAD model. Nonetheless, this procedure is not a trivial task and it can be time consuming. This issue becomes more significant for solving shape and topology optimization problems, which consist in evolving the geometry iteratively. Therefore, the computational cost associated to the mesh generation process is increased exponentially for this type of applications.
The main goal of this work is to investigate the integration of CAD and CAE in shape and topology optimization. To this end, numerical tools that close the gap between design and analysis are presented. The specific objectives of this work are listed below:
• Automatize the sensitivity analysis in an isogeometric framework for applications in shape optimization. Applications for linear elasticity are considered.
• A methodology is developed for providing a direct link between the CAD model and the analysis mesh. In consequence, the sensitivity analysis can be performed in terms of the design variables located in the design model.
• The last objective is to develop an isogeometric method for shape and topological optimization. This method should take advantage of using Non-Uniform Rational B-Splines (NURBS) with higher continuity as basis functions.
Isogeometric Analysis (IGA) is a framework designed to integrate the design and analysis in engineering problems. The fundamental idea of IGA is to use the same basis functions for modeling the geometry, usually NURBS, for the approximation of the solution fields. The advantage of integrating design and analysis is two-fold. First, the analysis stage is more accurate since the system of PDEs is not solved using an approximated geometry, but the exact CAD model. Moreover, providing a direct link between the design and analysis discretizations makes possible the implementation of efficient sensitivity analysis methods. Second, the computational time is significantly reduced because the mesh generation process can be avoided.
Sensitivity analysis is essential for solving optimization problems when gradient-based optimization algorithms are employed. Automatic differentiation can compute exact gradients, automatically by tracking the algebraic operations performed on the design variables. For the automation of the sensitivity analysis, an isogeometric framework is used. Here, the analysis mesh is obtained after carrying out successive refinements, while retaining the coarse geometry for the domain design. An automatic differentiation (AD) toolbox is used to perform the sensitivity analysis. The AD toolbox takes the code for computing the objective and constraint functions as input. Then, using a source code transformation approach, it outputs a code for computing the objective and constraint functions, and their sensitivities as well. The sensitivities obtained from the sensitivity propagation method are compared with analytical sensitivities, which are computed using a full isogeometric approach.
The computational efficiency of AD is comparable to that of analytical sensitivities. However, the memory requirements are larger for AD. Therefore, AD is preferable if the memory requirements are satisfied. Automatic sensitivity analysis demonstrates its practicality since it simplifies the work of engineers and designers.
Complex geometries with sharp edges and/or holes cannot easily be described with NURBS. One solution is the use of unstructured meshes. Simplex-elements (triangles and tetrahedra for two and three dimensions respectively) are particularly useful since they can automatically parameterize a wide variety of domains. In this regard, unstructured Bézier elements, commonly used in CAD, can be employed for the exact modelling of CAD boundary representations. In two dimensions, the domain enclosed by NURBS curves is parameterized with Bézier triangles. To describe exactly the boundary of a two-dimensional CAD model, the continuity of a NURBS boundary representation is reduced to C^0. Then, the control points are used to generate a triangulation such that the boundary of the domain is identical to the initial CAD boundary representation. Thus, a direct link between the design and analysis discretizations is provided and the sensitivities can be propagated to the design domain.
In three dimensions, the initial CAD boundary representation is given as a collection of NURBS surfaces that enclose a volume. Using a mesh generator (Gmsh), a tetrahedral mesh is obtained. The original surface is reconstructed by modifying the location of the control points of the tetrahedral mesh using Bézier tetrahedral elements and a point inversion algorithm. This method offers the possibility of computing the sensitivity analysis using the analysis mesh. Then, the sensitivities can be propagated into the design discretization. To reuse the mesh originally generated, a moving Bézier tetrahedral mesh approach was implemented.
A gradient-based optimization algorithm is employed together with a sensitivity propagation procedure for the shape optimization cases. The proposed shape optimization approaches are used to solve some standard benchmark problems in structural mechanics. The results obtained show that the proposed approach can compute accurate gradients and evolve the geometry towards optimal solutions. In three dimensions, the moving mesh approach results in faster convergence in terms of computational time and avoids remeshing at each optimization step.
For considering topological changes in a CAD-based framework, an isogeometric phase-field based shape and topology optimization is developed. In this case, the diffuse interface of a phase-field variable over a design domain implicitly describes the boundaries of the geometry. The design variables are the local values of the phase-field variable. The descent direction to minimize the objective function is found by using the sensitivities of the objective function with respect to the design variables. The evolution of the phase-field is determined by solving the time dependent Allen-Cahn equation.
Especially for topology optimization problems that require C^1 continuity, such as for flexoelectric structures, the isogeometric phase field method is of great advantage. NURBS can achieve the desired continuity more efficiently than the traditional employed functions. The robustness of the method is demonstrated when applied to different geometries, boundary conditions, and material configurations. The applications illustrate that compared to piezoelectricity, the electrical performance of flexoelectric microbeams is larger under bending. In contrast, the electrical power for a structure under compression becomes larger with piezoelectricity.
One of the most important renewable energy technologies used nowadays are wind power turbines. In this paper, we are interested in identifying the operating status of wind turbines, especially rotor blades, by means of multiphysical models. It is a state-of-the-art technology to test mechanical structures with ultrasonic-based methods. However, due to the density and the required high resolution, the testing is performed with high-frequency waves, which cannot penetrate the structure in depth. Therefore, there is a need to adopt techniques in the fields of multiphysical model-based inversion schemes or data-driven structural health monitoring. Before investing effort in the development of such approaches, further insights and approaches are necessary to make the techniques applicable to structures such as wind power plants (blades). Among the expected developments, further accelerations of the so-called “forward codes” for a more efficient implementation of the wave equation could be envisaged. Here, we employ electromagnetic waves for the early detection of cracks. Because in many practical situations, it is not possible to apply techniques from tomography (characterized by multiple sources and sensor pairs), we focus here on the question of whether the existence of cracks can be determined by using only one source for the sent waves.
Object-Oriented Damage Information Modeling Concepts and Implementation for Bridge Inspection
(2022)
Bridges are designed to last for more than 50 years and consume up to 50% of their life-cycle costs during their operation phase. Several inspections and assessment actions are executed during this period. Bridge and damage information must be gathered, digitized, and exchanged between different stakeholders. Currently, the inspection and assessment practices rely on paper-based data collection and exchange, which is time-consuming and error-prone, and leads to loss of information. Storing and exchanging damage and building information in a digital format may lower costs and errors during inspection and assessment and support future needs, for example, immediate simulations regarding performance assessment, automated maintenance planning, and mixed reality inspections. This study focused on the concept for modeling damage information to support bridge reviews and structural analysis. Starting from the definition of multiple use cases and related requirements, the data model for damage information is defined independently from the subsequent implementation. In the next step, the implementation via an established standard is explained. Functional tests aim to identify problems in the concept and implementation. To show the capability of the final model, two example use cases are illustrated: the inspection review of the entire bridge and a finite-element analysis of a single component. Main results are the definition of necessary damage data, an object-oriented damage model, which supports multiple use cases, and the implementation of the model in a standard. Furthermore, the tests have shown that the standard is suitable to deliver damage information; however, several software programs lack proper implementation of the standard.
Reine Calciumsulfatbindemittel weisen eine hohe Löslichkeit auf. Feuchteinwirkung führt zudem zu starken Festigkeitsverlusten. Aus diesem Grund werden diese Bindemittel ausschließlich für Baustoffe und -produkte im Innenbereich ohne permanenten Feuchtebeanspruchung eingesetzt. Eine Möglichkeit, die Feuchtebeständigkeit zu erhöhen, ist die Beimischung puzzolanischer und zementärer Komponenten. Diese Mischsysteme werden Gips-Zement-Puzzolan-Bindemittel (kurz: GZPB) genannt.
Mischungen aus Calciumsulfaten und Portlandzementen allein sind aufgrund der treibenden Ettringitbildung nicht raumbeständig. Durch die Zugabe von puzzolanischen Stoffen können aber Bedingungen im hydratisierenden System geschaffen werden, welche eine rissfreie Erhärtung ermöglichen. Hierfür ist eine exakte Rezeptierung der GZPB notwendig, um die GZPB-typischen, ettringitbedingten Dehnungen zeitlich zu begrenzen. Insbesondere bei alumosilikatischen Puzzolanen treten während der Hydratation gegenüber rein silikatischen Puzzolanen deutlich höhere Expansionen auf, wodurch die Gefahr einer potenziellen Rissbildung steigt. Für die Erstellung geeigneter GZPB-Zusammensetzungen bedarf es daher einer Methodik, um raumbeständig erhärtende Systeme sicher von destruktiven Mischungen unterscheiden zu können.
Sowohl für die Rezeptierung als auch für die Anwendung der GZPB existieren in Deutschland keinerlei Normen. Darüber hinaus sind die Hydratationsvorgänge sowie die entstehenden Produkte nicht konsistent beschrieben. Auch auf die Besonderheiten der GZPB mit alumosilikatischen Puzzolanen wird in der Literatur nur unzureichend eingegangen.
Ziel war es daher, ein grundlegendes Verständnis der Hydratation sowie eine sichere Methodik zur Rezeptierung raumbeständig und rissfrei erhärtender GZPB, insbesondere in Hinblick auf die Verwendung alumosilikatischer Puzzolane, zu erarbeiten. Darüber hinaus sollte systematisch der Einfluss der Einzelkomponenten auf Hydratation und Eigenschaften dieser Bindemittelsysteme untersucht werden. Dies soll ermöglichen, die GZPB für ein breites Anwendungsspektrum als Bindemittel zu etablieren, und somit vorteilhafte Eigenschaften der Calciumsulfate (geringe Schwindneigung, geringe CO2-Emission etc.) mit der Leistungs-fähigkeit von Zementen (Wasserbeständigkeit, Festigkeit, Dauerhaftigkeit etc.) zu verbinden.
Als Ausgangsstoffe der Untersuchungen zu den GZPB wurden Stuckgips und Alpha-Halbhydrat als Calciumsulfatbindemittel in unterschiedlichen Anteilen im GZPB verwendet. Die Puzzolan-Zement-Verhältnisse wurden ebenfalls variiert. Als Puzzolan kam für den Großteil der Untersuchungen ein alumosilikatisches Metakaolin zum Einsatz. Als kalkspendende Komponente diente ein reiner Portlandzement.
Das Untersuchungsprogramm gliederte sich in 4 Teile. Zuerst wurde anhand von CaO- und pH-Wert-Messungen in Suspensionen sowie dem Längenänderungsverhalten von Bindemittelleimen verschiedener Zusammensetzungen eine Vorauswahl geeigneter GZPB-Rezepturen ermittelt. Danach erfolgten, ebenfalls an Bindemittelleimen, Untersuchungen zu den Eigenschaften der als geeignet eingeschätzten GZPB-Mischungen. Hierzu zählten Langzeitbetrachtungen zur rissfreien Erhärtung bei unterschiedlichen Umgebungsbedingungen sowie die Festigkeitsentwicklung im trockenen und feuchten Zustand. Im nächsten Schritt wurde anhand zweier exemplarischer GZPB-Zusammensetzungen (mit silikatischen und alumosilikatischen Puzzolan) die prinzipiell mögliche Phasenzusammensetzung unter Variation des Puzzolan-Zement-Verhältnisses (P/Z-Verhältnis) und des Calciumsulfatanteils im thermodynamischen Gleichgewichtszustand berechnet. Hier wurde im Besonderen auf Unterschiede der silikatischen und alumosilikatischen Puzzolane eingegangen. Im letzten Teil der Untersuchungen wurden die Hydratationskinetik der GZPB sowie die Gefügeentwicklung näher betrachtet. Hierfür wurden die Porenlösungen chemisch analysiert und Sättigungsindizes berechnet, sowie elektronenmikropische, porosimetrische und röntgenografische Untersuchungen durchgeführt. Abschließend wurden die Ergebnisse gesamtheitlich interpretiert, da die Ergebnisse der einzelnen Untersuchungsprogramme miteinander in Wechselwirkung stehen.
Als hauptsächliche Hydratationsprodukte wurden Calciumsulfat-Dihydrat, Ettringit und
C-(A)-S-H-Phasen ermittelt, deren Anteile im GZPB neben dem Calciumsulfatanteil und dem Puzzolan-Zement-Verhältnis auch deutlich vom Wasserangebot und der Gefügeentwicklung abhängen. Bei Verwendung von alumosilikatischen Puzzolans kommt es wahrscheinlich zur teilweisen Substitution des Siliciums durch Aluminium in den C-S-H-Phasen. Dies erscheint aufgrund des Nachweises der für diese Phasen typischen, folienartigen Morphologie wahrscheinlich. Portlandit wurde in raumbeständigen GZPB-Systemen nur zu sehr frühen Zeitpunkten in geringen Mengen gefunden.
In den Untersuchungen konnte ein Teil der in der Literatur beschriebenen, prinzipiellen Hydratationsabläufe bestätigt werden. Bei Verwendung von Halbhydrat als Calciumsulfatkomponente entsteht zuerst Dihydrat und bildet die Primärstruktur der GZPB. In dieses existierende Grundgefüge kristallisieren dann das Ettringit und die C-(A)-S-H-Phasen. In den GZPB sorgen entgegen der Beschreibungen in der Literatur nicht ausschließlich die
C-(A)-S-H-Phasen zur Verbesserung der Feuchtebeständigkeit und der Erhöhung des Festigkeitsniveaus, sondern auch das Ettringit. Beide Phasen überwachsen im zeitlichen Verlauf der Hydratation die Dihydratkristalle in der Matrix und hüllen diese – je nach Calciumsulfatanteil im GZPB – teilweise oder vollständig ein. Diese Umhüllung sowie die starke Gefügeverdichtung durch die C-(A)-S-H-Phasen und das Ettringit bedingen, dass ein lösender Angriff durch Wasser erschwert oder gar verhindert wird. Gleichzeitig wird die Gleitfähigkeit an den Kontaktstellen der Dihydratkristalle verringert.
Eine rissfreie und raumbeständige Erhärtung ist für die gefahrlose Anwendung eines GZPB-Systems essentiell. Hierfür ist die Kinetik der Ettringitbildung von elementarer Bedeutung. Die gebildete Ettringitmenge spielt nur eine untergeordnete Rolle. Selbst ausgeprägte, ettringitbedingte Dehnungen und hohe sich bildende Mengen führen zu frühen Zeitpunkten, wenn die Dihydratkristalle noch leicht gegeneinander verschiebbar sind, zu keinen Schäden. Bleibt die Übersättigung bezüglich Ettringit und somit auch der Kristallisationsdruck allerdings über einen langen Zeitraum hoch, genügen bereits geringe Ettringitmengen, um das sich stetig verfestigende Gefüge stark zu schädigen.
Die für die raumbeständige Erhärtung der GZPB notwendige, schnelle Abnahme der Ettringitübersättigung wird hauptsächlich durch die Reaktivität des Puzzolans beeinflusst. Die puzzolanische Reaktion führt zur Bindung des aus dem Zement stammenden Calciumhydroxid durch die Bildung von C-(A)-S-H-Phasen und Ettringit. Hierdurch sinkt die Calcium- und Hydroxidionenkonzentration in der Porenlösung im Verlauf der Hydratation, wodurch auch die Übersättigung bezüglich Ettringit abnimmt. Je höher die Reaktivität des Puzzolans ist, desto schneller sinkt der Sättigungsindex des Ettringits und somit auch der Kristallisationsdruck. Nach Unterschreiten eines noch näher zu klärendem Grenzwert der Übersättigung stagnieren die Dehnungen. Das Ettringit kristallisiert bzw. wächst nun bevorzugt in den Poren ohne eine weitere, äußere Volumenzunahme zu verursachen.
Um eine schadensfreie Erhärtung des GZPB zu gewährleisten, muss gerade in der frühen Phase der Hydratation ein ausreichendes Wasserangebot gewährleistet werden, so dass die Ettringitbildung möglichst vollständig ablaufen kann. Andernfalls kann es bei einer Wiederbefeuchtung zur Reaktivierung der Ettringitbildung kommen, was im eingebauten Zustand Schäden verursachen kann. Die Gewährleistung eines ausreichenden Wasserangebots ist im GZPB-System nicht unproblematisch. In Abhängigkeit der GZPB-Zusammensetzung können sich große Ettringitmengen bilden, die einen sehr hohen Wasserbedarf aufweisen. Deshalb kann es, je nach verwendeten Wasser-Bindemittel-Wert, im Bindemittelleim zu einem Wassermangel kommen, welcher die weitere Hydratation verlangsamt bzw. komplett verhindert. Zudem können GZPB-Systeme teils sehr dichte Gefüge ausbilden, wodurch der Wassertransport zum Reaktionsort des Ettringits zusätzlich behindert wird.
Die Konzeption raumbeständiger GZPB-Systeme muss anhand mehrerer aufeinander aufbauender Untersuchungen erfolgen. Zur Vorauswahl geeigneter Puzzolan-Zementverhältnisse eignen sich die Messungen der CaO-Konzentration und des pH-Wertes in Suspensionen. Als alleinige Beurteilungsgrundlage reicht dies allerdings nicht aus. Zusätzlich muss das Längenänderungs-verhalten beurteilt werden. Raumbeständige Mischungen mit alumosilikatischen Puzzolanen zeigen zu frühen Zeitpunkten starke Dehnungen, welche dann abrupt stagnieren. Stetige – auch geringe – Dehnungen weisen auf eine destruktive Zusammensetzung hin.
Mit diesem mehrstufigen Vorgehen können raumbeständige, stabile GZPB-Systeme konzipiert werden, so dass die Zielstellung der Arbeit erreicht wurde und ein sicherer praktischer Einsatz dieser Bindemittelart gewährleistet werden kann.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
In this thesis, a new approach is developed for applications of shape optimization on the time harmonic wave propagation (Helmholtz equation) for acoustic problems. This approach is introduced for different dimensional problems: 2D, 3D axi-symmetric and fully 3D problems. The boundary element method (BEM) is coupled with the isogeometric analysis (IGA) forming the so-called (IGABEM) which speeds up meshing and gives higher accuracy in comparison with standard BEM. BEM is superior for handling unbounded domains by modeling only the inner boundaries and avoiding the truncation error, present in the finite element method (FEM) since BEM solutions satisfy the Sommerfeld radiation condition automatically. Moreover, BEM reduces the space dimension by one from a volumetric three-dimensional problem to a surface two-dimensional problem, or from a surface two-dimensional problem to a perimeter one-dimensional problem. Non-uniform rational B-splines basis functions (NURBS) are used in an isogeometric setting to describe both the CAD geometries and the physical fields.
IGABEM is coupled with one of the gradient-free optimization methods, the Particle Swarm Optimization (PSO) for structural shape optimization problems. PSO is a straightforward method since it does not require any sensitivity analysis but it has some trade-offs with regard to the computational cost. Coupling IGA with optimization problems enables the NURBS basis functions to represent the three models: shape design, analysis and optimization models, by a definition of a set of control points to be the control variables and the optimization parameters as well which enables an easy transition between the three models.
Acoustic shape optimization for various frequencies in different mediums is performed with PSO and the results are compared with the benchmark solutions from the literature for different dimensional problems proving the efficiency of the proposed approach with the following remarks:
- In 2D problems, two BEM methods are used: the conventional isogeometric boundary element method (IGABEM) and the eXtended IGABEM (XIBEM) enriched with the partition-of-unity expansion using a set of plane waves, where the results are generally in good agreement with the linterature with some computation advantage to XIBEM which allows coarser meshes.
-In 3D axi-symmetric problems, the three-dimensional problem is simplified in BEM from a surface integral to a combination of two 1D integrals. The first is the line integral similar to a two-dimensional BEM problem. The second integral is performed over the angle of revolution. The discretization is applied only to the former integration. This leads to significant computational savings and, consequently, better treatment for higher frequencies over the full three-dimensional models.
- In fully 3D problems, a detailed comparison between two BEM methods: the conventional boundary integral equation (CBIE) and Burton-Miller (BM) is provided including the computational cost. The proposed models are enhanced with a modified collocation scheme with offsets to Greville abscissae to avoid placing collocation points at the corners. Placing collocation points on smooth surface enables accurate evaluation of normals for BM formulation in addition to straightforward prediction of jump-terms and avoids singularities in $\mathcal{O} (1/r)$ integrals eliminating the need for polar integration. Furthermore, no additional special treatment is required for the hyper-singular integral while collocating on highly distorted elements, such as those containing sphere poles. The obtained results indicate that, CBIE with PSO is a feasible alternative (except for a small number of fictitious frequencies) which is easier to implement. Furthermore, BM presents an outstanding treatment of the complicated geometry of mufflers with internal extended inlet/outlet tube as an interior 3D Helmholtz acoustic problem instead of using mixed or dual BEM.
Quantification of cracks in concrete thin sections considering current methods of image analysis
(2022)
Image analysis is used in this work to quantify cracks in concrete thin sections via modern image processing. Thin sections were impregnated with a yellow epoxy resin, to increase the contrast between voids and other phases of the concrete. By the means of different steps of pre-processing, machine learning and python scripts, cracks can be quantified in an area of up to 40 cm2. As a result, the crack area, lengths and widths were estimated automatically within a single workflow. Crack patterns caused by freeze-thaw damages were investigated. To compare the inner degradation of the investigated thin sections, the crack density was used. Cracks in the thin sections were measured manually in two different ways for validation of the automatic determined results. On the one hand, the presented work shows that the width of cracks can be determined pixelwise, thus providing the plot of a width distribution. On the other hand, the automatically measured crack length differs in comparison to the manually measured ones.