Refine
Document Type
- Article (996)
- Conference Proceeding (972)
- Doctoral Thesis (489)
- Master's Thesis (143)
- Part of a Book (49)
- Book (43)
- Report (43)
- Periodical (26)
- Preprint (26)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (486)
- Institut für Strukturmechanik (ISM) (455)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (200)
- Professur Baubetrieb und Bauverfahren (150)
- Institut für Europäische Urbanistik (70)
- Professur Bauphysik (52)
- Professur Stochastik und Optimierung (47)
- Graduiertenkolleg 1462 (43)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Angewandte Mathematik (443)
- Bauhaus-Kolloquium (442)
- Strukturmechanik (300)
- Computerunterstütztes Verfahren (291)
- Architektur (246)
- Architektur <Informatik> (203)
- CAD (185)
- Angewandte Informatik (156)
- Bauhaus (125)
Due to the significant number of immigrants in Europe, especially Germany, integration is an ongoing subject of debate. Since the 1970s, with the emergence of the discussions on ‘place,’ it has also been realized that the immigrant experience is associated with location. Nevertheless, due to the challenges in capturing the place and migration relevance, there is a gap in understanding the role of the migrant’s geography of experiences and its outcomes (Phillips & Robinson, 2015).
This research aims to investigate the extent to which both the process of objective integration and the socio-spatial practices of high-skilled Iranian immigrants in Berlin outline and influence their sense of belonging to Berlin as the new “home.” The embedded mixed-method design had employed for this study. The quantitative analysis through Pearson’s correlation technique measured the strength of the association between Iranians’ settlement distribution and the characteristics of Berlins’ districts. The quantitative analysis provides contextual data to get a greater level of understanding of the case study’s interaction with place. The units of place intend to demonstrate the case study’s presence and possible interaction with places around their settlement location that relatively shapes their perception. The qualitative analysis comprises ethnographic fieldwork and semi-structured in-depth interviews with a homogeneous sample of Iranian immigrants in Berlin that provide data on individual and ethnic behaviors and trajectories and analyze the complex interactions between the immigrant’s experience and the role of place.
This research uncovers that Iranian highly skilled immigrants are successful in integrating objectively; However, in regards to their state of belonging, it illustrated the following: The role of socio-ethnic culture of the case study in denotation of home and belonging; Iranian high-skilled immigrants’ efforts towards reaching a level of upward mobility overshadow their attempt to shape social and spatial interaction with Berliners and Berlin itself, which manifests both in their perception and use of urban space; and finally, the identification practice and the boundary-making as an act of reassurance and self-protection against the generalization of adjacent nationalities, demonstrated in the intersection of demographical settlement distribution of Iranians in Berlin and the ethnic diversity, impact the sense of belonging and place-making.
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
Der Erfahrung auf der Spur
(2023)
Dieselbe Zeit, derselbe Raum - zwei, grundverschiedene Regisseure und damit Erfahrungswelten. Aleksandr Rastorguevs und Sergei Loznitsas Dokumentarfilme der 90er und 2000er Jahre sind politische, poetische, punktgenaue Interventionen in die Gegenwart der „kleinen Menschen“. Das Buch widmet sich dokumentarfilmischen Meisterwerken, die methodisch Verdrängtes und Übersehenes, planmäßig Vergessenes sichtbar machen – nach dem Krieg ist vor dem Krieg. Ästhetik in ihrer sozial-, geschichts- und kulturwissenschaftlichen Relevanz.
Im post- und kontrafaktischen Zeitalter des allgegenwärtigen medialen Überflusses, inmitten der Fernseh-, YouTube- und virtuellen Realität, erfüllen, begründen, ermöglichen oder schlichtweg erkämpfen die Filme und ihre Autoren verloren gegangene Räume für Widersprüche, Fragen, die mal in ihrer Ambivalenz, mal in ihrer spröden Eindeutigkeit ihren Aussagewert haben. Wider die marginale Rezeption rückt die Publikation sie in den Raum der interdisziplinären wissenschaftlichen Forschung und stellt sie als gleichwertige Formen der Wissens- und Erfahrungsproduktion vor.
Bei all ihrer Unterschiedlichkeit, katapultieren die Filme den Zuschauer in ebenjene bekannte, aber nicht erkannte, weil nicht gesehene, übersehene, nicht wahrgenommene Hyperrealität ihrer Alltagswirklichkeit. Weder der Autor noch das Werk noch der Zuschauer sind aus dem jeweiligen historischen oder soziopolitischen Diktum herauslösbar oder gar gänzlich frei.
Experimental Validation of Dynamic Response of Small-Scale Metaconcrete Beams at Resonance Vibration
(2023)
Structures and their components experience substantially large vibration amplitudes at resonance, which can cause their failure. The scope of this study is the utilization of silicone-coated steel balls in concrete as damping aggregates to suppress the resonance vibration. The heavy steel cores oscillate with a frequency close to the resonance frequency of the structure. Due to the phase difference between the vibrations of the cores and the structure, the cores counteract the vibration of the structure. The core-coating inclusions are randomly distributed in concrete similar to standard aggregates. This mixture is referred to as metaconcrete. The main goal of this work is to validate the ability of the inclusions to suppress mechanical vibration through laboratory experiments. For this purpose, two small-scale metaconcrete beams were cast and tested. In a free vibration test, the metaconcrete beams exhibited a larger damping ratio compared to a similar beam cast from conventional concrete. The vibration amplitudes of the metaconcrete beams at resonance were measured with a frequency sweep test. In comparison with the conventional concrete beam, both metaconcrete beams demonstrated smaller vibration amplitudes. Both experiments verified an improvement in the dynamic response of the metaconcrete beams at resonance vibration.
As machine vision-based inspection methods in the field of Structural Health Monitoring (SHM) continue to advance, the need for integrating resulting inspection and maintenance data into a centralised building information model for structures notably grows. Consequently, the modelling of found damages based on those images in a streamlined automated manner becomes increasingly important, not just for saving time and money spent on updating the model to include the latest information gathered through each inspection, but also to easily visualise them, provide all stakeholders involved with a comprehensive digital representation containing all the necessary information to fully understand the structure’s current condition, keep track of any progressing deterioration, estimate the reduced load bearing capacity of the damaged element in the model or simulate the propagation of cracks to make well-informed decisions interactively and facilitate maintenance actions that optimally extend the service life of the structure. Though significant progress has been recently made in information modelling of damages, the current devised methods for the geometrical modelling approach are cumbersome and time consuming to implement in a full-scale model. For crack damages, an approach for a feasible automated image-based modelling is proposed utilising neural networks, classical computer vision and computational geometry techniques with the aim of creating valid shapes to be introduced into the information model, including related semantic properties and attributes from inspection data (e.g., width, depth, length, date, etc.). The creation of such models opens the door for further possible uses ranging from more accurate structural analysis possibilities to simulation of damage propagation in model elements, estimating deterioration rates and allows for better documentation, data sharing, and realistic visualisation of damages in a 3D model.
Anti-Gewalttrainings, Gewaltwissen und die institutionelle Erzeugung gewaltbefreiter Subjekte
(2023)
Dieser Beitrag fragt danach, wie Wissen über Gewalt in Anti-Gewalttrainings produziert, vermittelt und sozial wirkmächtig wird. Auf Basis des kommunikativen Konstruktivismus werden diese Kurse als gewaltbezogene Institutionen begriffen, in denen eine Wissensordnung der Gewalt stabilisiert wird. Sie sollen Abweichungen von institutionalisierten Wirklichkeitsvorstellungen in Bezug auf Gewalt entgegenwirken. Dabei lassen sie sich als Selbsttechniken begreifen, durch welche die Kursteilnehmer*innen eine spezifische Subjektposition einüben, nämlich die des gewaltbefreiten Subjekts. Vor diesem Hintergrund wird anschließend zwischen konditionalen und konzessiven Anti-Gewalttrainings unterschieden. Erstere wenden sich an Personen, die tatsächlich von der institutionalisierten Wirklichkeitsvorstellung abgewichen sind und somit gesellschaftlich als Gewalttäter*innen eingestuft werden, während Letztere auf eine Klientel zielen, die potenziell von den gängigen Normen abweichen könnte, obwohl noch keine Gewalt aufgetreten sein muss. Abschließend wird gezeigt, dass den Kursleiter*innen eine wichtige Rolle im Subjektivierungsprozess und der Wissenskommunikation über Gewalt zukommt. Neben Wissen über Gewalt werden durch sie auch Wertbindungen, Legitimationen und Weltbilder vermittelt.
When predicting sound pressure levels induced by structure-borne sound sources and describing the sound propagation path through the building structure as exactly as possible, it is necessary to characterize the vibration behavior of the structure-borne sound sources. In this investigation, the characterization of structure-borne sound sources was performed using the two-stage method (TSM) described in EN 15657. Four different structure-borne sound sources were characterized and subsequently installed in a lightweight test stand. The resulting sound pressure levels in an adjacent receiving room were measured. In the second step, sound pressure levels were predicted according to EN 12354-5 based on the parameters of the structure-borne sound sources. Subsequently, the predicted and the measured sound pressure levels were compared to obtain reliable statements on the achievable accuracy when using source quantities determined by TSM with this prediction method.
This study deals with design for AI/ML systems, more precisely in the industrial AI context based on case studies from the factory automation field. It therefore touches on core concepts from Human-Centered-Design (HCD), User Experience (UX) and Human Computer Interaction (HCI) on one hand, as well as concepts from Artificial Intelligence (AI), Machine Learning (ML) and the impact of technology on the other. The case studies the research is based on are within the industrial AI domain. However, the final outcomes, the findings, solutions, artifacts and so forth, should be transferable to a wider spectrum of domains. The study’s aim is to examine the role of designers in the age of AI and the factors which are relevant, based on the hypothesis that current AI/ML development lacks the human perspective, which means that there are pitfalls and challenges that design can help resolve. The initial literature review revealed that AI/ML are perceived as a new design material that calls for a new design paradigm. Additional research based on qualitative case study research was conducted to gain an overview of the relevant issues and challenges. From this, 17 themes emerged, which together with explorative expert interviews and a structured literature review, were further analyzed to produce the relevant HCD, UX and HCI themes. It became clear that designers need new processes, methods, and tools in the age of AI/ML in combination with not only design, but also data science and business expertise, which is why the proposed solution in this PhD features process modules for design, data science and business collaboration. There are seven process modules and their related activities and dependencies that serve as guidelines for practitioners who want to design intelligence. A unified framework for collecting use case exemplars was created, based on a workshop with different practitioners and researchers from the area of AI/ML to support and enrich the process modules with concrete projects examples.
Anhand der städtebaulichen und sozialen Transformation des östlichen Gründerzeitgebietes von Leipzig wird die Rolle von migrantischen Hausbesitzenden und in der Bausanierung Tätigen im Aufwertungsprozess untersucht. Der Zugang zum Gegenstand verbindet Fragen der Stadtsoziologie und der Denkmalforschung. Im sozialen Feld der Stadterneuerung wird die Revitalisierung des ehemals von Leerstand und Rückbau betroffenen Baubestandes ausgehandelt. Die Positionen der Akteur:innen im Feld werden durch ihre Ausstattung mit ökonomischem, aber auch sozialem und kulturellem Kapital bestimmt. Angehörige der Planungs- und Denkmalbehörden verfügen über institutionalisiertes Kulturkapital und stehen damit Kleineigentümer:innen, häufig Autodidakt:innen, gegenüber. Baudenkmale können über ihre Funktion als Geldanlage und Wohnraum hinaus Status repräsentieren und symbolisch angeeignet werden. Denkmalschutz dient dem öffentlichen Interesse am Erhalt historischer Bausubstanz. Bei Sanierungen bestehen die Herausforderungen der Vereinbarkeit von Konservierung und Modernisierung, der Finanzierbarkeit für Eigentümer:innen und der Sozialverträglichkeit für Bewohnende. Eine Darstellung der historischen Entwicklung des Leipziger Ostens zu Beginn der Analyse veranschaulicht die Abhängigkeit kultureller, sozialer und ökonomischer Werte des Baubestandes vom jeweiligen gesellschaftlichen Kontext. Planerische Konzepte für das Gebiet zeigen, dass eine sozioökonomische Stabilisierung und Imageverbesserung erreicht werden sollte durch das Aufgreifen von Potentialen, wie den denkmalgeschützten Bauten, dem zuziehenden alternativen Milieu und migrantischer Ökonomie. Es wird deutlich, dass nach einer initialen Ansässigkeit von Pionier:innen die öffentlichen Infrastrukturmaßnahmen und Denkmalausweisungen eine Inwertsetzung v. a. durch externe Anlegende vorbereiteten. Darauf aufbauend wurden anhand einer qualitativen Befragung die Erfahrungen von städtischen Mitarbeitenden, Fachleuten und im Quartier Engagierten denen von lokalen migrantischen Hausbesitzenden und im Bereich Sanierung Tätigen gegenübergestellt. Migrant:innengruppen haben den Stadtraum in einer Phase vorherrschender Abwanderung durch die Eröffnung von Geschäften und Institutionen sowie den Erwerb von Immobilien für sich erschlossen. Strukturelle Benachteiligungen, wie Diskriminierung auf dem Arbeitsmarkt, ihre Ansässigkeit im sozial stigmatisierten Gebiet sowie geringes ökonomisches Kapital versuchten sie durch den Einsatz von sozialem Kapital auszugleichen. Sanierungen erfolgten mit hoher Eigenleistung und Rückgriff auf private Netzwerke. Die Analyse des Erneuerungsprozesses im Leipziger Osten zeigt, dass in einer initialen Phase Pionier:innen von Planenden und der Denkmalpflege als essentiell für die Entwicklung angesehen wurden. Günstige Instandsetzungen durch Kleineigentümer:innen wurden akzeptiert, um Gebäude vor weiterem Verfall zu bewahren. Mit der zunehmenden Forderung nach Verwendung hochwertiger Materialen werden die Sanierungsleistungen nach ästhetischen und letztlich ökonomischen Kriterien bewertet. Gegenüber sozialen Folgen einer Aufwertung von Bausubstanz lässt sich eine unkritische Haltung der Denkmalpflege erkennen. Bei der Vermarktung der Bestände durch professionelle Investierende findet die Sozialgeschichte des Stadtteils wenig Berücksichtigung, positiv besetzte Merkmale des Quartiers, wie Multikulturalität werden selektiv aufgegriffen. Der Anteil migrantischer Akteur:innen an der Entwicklung wird durch die Öffentlichkeit unzureichend anerkannt. Auch die Wertschätzung von Planenden und im Quartier Engagierten erfolgt v. a. anhand des ökonomischen Status. Hohe Erwartungen an die Geschäftsstruktur und die Erscheinung des Straßenbildes können nicht erfüllt werden. Migrantische Hausbesitzende und im Bereich Sanierung Tätige benötigen für die Auseinandersetzung mit der Denkmalpflege kulturelles Kapital. Sie erkennen die Bedeutung des historischen Baubestandes für die Stadt und die Arbeit der Institution an, kritisieren jedoch Sanierungsauflagen bzw. Mitarbeitende der Denkmalpflege und können sich z. T. gegen diese behaupten. Lokale migrantische Kleineigentümer:innen leisten durch ihre Quartiersbindung einen Beitrag zur ökonomischen und sozialen Stabilisierung. Mit ihrer Aufstiegsorientierung fördern sie in der Vermietungspraxis jedoch nur bedingt die Integration anderer Migrant:innen und grenzen sich von statusniedrigen Gruppen im Quartier ab. Migrantische Hausbesitzende und Unternehmende nehmen sich selbst als erfolgreiche Vorreitende in einer heterogener werdenden ostdeutschen Stadtgesellschaft wahr. Sie erkannten frühzeitig das Entwicklungspotential und gehören zu den Initiierenden und Profitierenden der Inwertsetzung.
This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith.
The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers.
The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications.
The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study.
Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts.
Dieser Handlungsleitfaden möchte die gemeinwohlorientierte Vergabe von Räumen und Flächen an zivilgesellschaftliche Gruppen stärken. Er ist als Inspirationssammlung zu verstehen, die den Weg zu neuen Kooperationen zwischen öffentlichen und zivilgesellschaftlichen Akteuren erleichtern soll. Wissenswertesund inspirierende Beispiele bieten eine Starthilfe, um nicht nur einzelne stadträumliche Experimente zu wagen, sondern die gemeinwohlorientierte Flächen- und Raumvergabe an zivilgesellschaftliche Gruppen kommunal zu verankern. Denn öffentliche Liegenschaften sind nach vielen Jahren der Privatisierung eine rare Ressource, die umso mehr dem Gemeinwohl dienen sollte.
Structures under wind action can exhibit various aeroelastic interaction phenomena, which can lead to destructive and catastrophic events. Such unstable interaction can be beneficially used for small-scale aeroelastic energy harvesting. Proper understanding and prediction of fluid−structure interactions (FSI) phenomena are therefore crucial in many engineering fields. This research intends to develop coupled FSI models to extend the applicability of Vortex Particle Methods (VPM) for numerically analysing the complex FSI of thin-walled flexible structures under steady and fluctuating incoming flows. In this context, the flow around deforming thin bodies is analysed using the two-dimensional and pseudo-three-dimensional implementations of VPM. The structural behaviour is modelled and analysed using the Finite Element Method. The partitioned coupling approach is considered because of the flexibility of using different mathematical procedures for solving fluid and solid mechanics. The developed coupled models are validated with several benchmark FSI problems in the literature. Finally, the models are applied to several fundamental and application field of FSI problems of different thin-walled flexible structures irrespective of their size.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
Using computational fluid dynamics (CFD), this study investigates airflow through a façade greening system equipped with photovoltaic modules. ANSYS Fluent was used to perform steady-state simulations with two-dimensional models. The characteristics of airflow through the vegetation were considered by applying user defined functions (UDF) to the vegetation areas; these UDFs were validated for three k-ε models. The impact of the surroundings roughness was explored using different roughness length values z0 and using geometrical roughness modeling. Results indicated that compared to an air velocity of about 0.60 m/s at the bare façade, velocities within the greening system varied around 0.15 m/s to 0.50 m/s.
Search engines are very good at answering queries that look for facts. Still, information needs that concern forming opinions on a controversial topic or making a decision remain a challenge for search engines. Since they are optimized to retrieve satisfying answers, search engines might emphasize a specific stance on a controversial topic in their ranking, amplifying bias in society in an undesired way. Argument retrieval systems support users in forming opinions about controversial topics by retrieving arguments for a given query. In this thesis, we address challenges in argument retrieval systems that concern integrating them in search engines, developing generalizable argument mining approaches, and enabling frame-guided delivery of arguments.
Adapting argument retrieval systems to search engines should start by identifying and analyzing information needs that look for arguments. To identify questions that look for arguments we develop a two-step annotation scheme that first identifies whether the context of a question is controversial, and if so, assigns it one of several question types: factual, method, and argumentative. Using this annotation scheme, we create a question dataset from the logs of a major search engine and use it to analyze the characteristics of argumentative questions. The analysis shows that the proportion of argumentative questions on controversial topics is substantial and that they mainly ask for reasons and predictions. The dataset is further used to develop a classifier to uniquely map questions to the question types, reaching a convincing F1-score of 0.78.
While the web offers an invaluable source of argumentative content to respond to argumentative questions, it is characterized by multiple genres (e.g., news articles and social fora). Exploiting the web as a source of arguments relies on developing argument mining approaches that generalize over genre. To this end, we approach the problem of how to extract argument units in a genre-robust way. Our experiments on argument unit segmentation show that transfer across genres is rather hard to achieve using existing sequence-to-sequence models.
Another property of text which argument mining approaches should generalize over is topic. Since new topics appear daily on which argument mining approaches are not trained, argument mining approaches should be developed in a topic-generalizable way. Towards this goal, we analyze the coverage of 31 argument corpora across topics using three topic ontologies. The analysis shows that the topics covered by existing argument corpora are biased toward a small subset of easily accessible controversial topics, hinting at the inability of existing approaches to generalize across topics. In addition to corpus construction standards, fostering topic generalizability requires a careful formulation of argument mining tasks. Same side stance classification is a reformulation of stance classification that makes it less dependent on the topic. First experiments on this task show promising results in generalizing across topics.
To be effective at persuading their audience, users of an argument retrieval system should select arguments from the retrieved results based on what frame they emphasize of a controversial topic. An open challenge is to develop an approach to identify the frames of an argument. To this end, we define a frame as a subset of arguments that share an aspect. We operationalize this model via an approach that identifies and removes the topic of arguments before clustering them into frames. We evaluate the approach on a dataset that covers 12,326 frames and show that identifying the topic of an argument and removing it helps to identify its frames.
Für die einen also „Bausünde“, für die anderen ein erhaltenswertes Bauwerk – wie geht man damit um? Für wen gilt wann etwas als „Bausünde“ und wann als erhaltenswert, welche Ziele werden damit verfolgt und Konzepte aufgezeigt? Inwieweit spielen beispielsweise Aspekte wie Ästhetik, Funktionalität oder der allgemeine gesellschaftliche Kontext bzw. Wandel sowie das jeweils aktuelle und bauzeitliche planerische Leitbild bzw. Verständnis eine Rolle bei der Verwendung des Begriffs und den Umgang für konkrete Bauwerke? Und inwieweit steht der Erhaltungswert bzw. eine Denkmalwürdigkeit damit im Verhältnis und wie kann damit planerisch umgegangen werden?
Der Diskussion über den Umgang mit verschmähten Bauwerken will sich die vorliegende Abschlussarbeit nähern. Als Bauwerke werden hierbei sowohl Gebäude und Plätze als auch zur Erinnerung gesetzte Objekte wie Statuen verstanden.
Teilhabe an Gesundheitsversorgung von aufenthaltsrechtlich illegalisierten Menschen in Deutschland
(2022)
Die Gesundheitsversorgung in Deutschland ist seit den Bismarckschen Sozialreformen ein zunehmend institutionalisierter Teil der staatlichen Daseinsvorsorge im wohlfahrtsstaatlichen Gefüge. Institutionalisiert ist die Gesundheitsversorgung in korporatistischer Logik, das heißt in kooperativen Beziehungen zum privatwirtschaftlichen und zivilgesellschaftlichen Sektor und mit Befugnissen der Selbstverwaltung. Zudem fußt das Gesundheitssystem auf einem Versicherungssystem mit lohnabhängigen Abgaben. Institutionalisiert ist die staatliche Daseinsvorsorge jedoch auch in seinen Ausschlüssen. So werden Menschen ohne Bürgerrechte von vielen sozialen Rechten, wie von der Gesundheitsversorgung, ausgeschlossen, obwohl dieser Ausschluss im Widerspruch zu anderen konstitutiven Elementen des Nationalstaats steht.
In diesem Working Paper werden die grundlegende Strukturen des deutschen Gesundheitssystems und darin innewohnende Funktionslogiken der Produktion von Teilhabe dargestellt. Abschließend werden in Anlehnung an Kronauer die verschiedenen Dimensionen von Teilhabe an Gesundheitsversorgung in ihrer Produktions- und Ausschlusslogik im Wohlfahrtsregime dargelegt dabei auf die Gruppe der aufenthaltsrechtlich Illegalisierten fokussiert, denen gesellschaftliche Teilhabe in vielen Lebensbereichen, wie auch stark im Gesundheitsbereich, untersagt wird. Gleichzeitig soll dargestellt werden, wie zivilgesellschaftliche Akteur*innen auch gegen staatliche Vorgaben oder Anreize, Teilhabe (wieder-)herstellen.
Ernährung bestimmt unser tägliches Leben. Sie erfüllt in erster Linie die physiologische Notwendigkeit unseren Körper am Leben zu halten und ist gleichzeitig Alltagspraxis, durch welche gesamtgesellschaftliche Strukturen sichtbar werden. Innerhalb dieser Alltagspraxen erfüllt Ernährung vor allem eine wichtige Funktion in der Herstellung gesellschaftlicher Teilhabe oder kann strukturelle Ausschlüsse und soziale Ungleichheit bedingen. Dem Wohlfahrtsregime kommt somit eine wichtige Aufgabe in der Grundversorgung der Bevölkerung zu und muss innerhalb der Daseinsvorsorge auf Ausschlüsse von ernährungsbezogener Teilhabe einzelner Bevölkerungsschichten eingehen und sozialer Ungleichheit entgegenwirken. In diesem Working Paper soll der Fragestellung nachgegangen werden, inwiefern Teilhabe bzw. strukturelle Ausschlüsse von Ernährung innerhalb des bundesdeutschen Wohlfahrtsregimes hergestellt werden und durch welche politischen Praktiken und Forderungen aus der Zivilgesellschaft bzw. sozialen Bewegungen ernährungsvermittelte Teilhabe (wieder) hergestellt wird.
Identification of modal parameters of a space frame structure is a complex assignment due to a large number of degrees of freedom, close natural frequencies, and different vibrating mechanisms. Research has been carried out on the modal identification of rather simple truss structures. So far, less attention has been given to complex three-dimensional truss structures. This work develops a vibration-based methodology for determining modal information of three-dimensional space truss structures. The method uses a relatively complex space truss structure for its verification. Numerical modelling of the system gives modal information about the expected vibration behaviour. The identification process involves closely spaced modes that are characterised by local and global vibration mechanisms. To distinguish between local and global vibrations of the system, modal strain energies are used as an indicator. The experimental validation, which incorporated a modal analysis employing the stochastic subspace identification method, has confirmed that considering relatively high model orders is required to identify specific mode shapes. Especially in the case of the determination of local deformation modes of space truss members, higher model orders have to be taken into account than in the modal identification of most other types of structures.
In this paper we propose a novel and efficient rasterization-based approach for direct rendering of isosurfaces. Our method exploits the capabilities of task and mesh shader pipelines to identify subvolumes containing potentially visible isosurface geometry, and to efficiently extract primitives which are consumed on the fly by the rasterizer. As a result, our approach requires little preprocessing and negligible additional memory. Direct isosurface rasterization is competitive in terms of rendering performance when compared with ray-marching-based approaches, and significantly outperforms them for increasing resolution in most situations. Since our approach is entirely rasterization based, it affords straightforward integration into existing rendering pipelines, while allowing the use of modern graphics hardware features, such as multi-view stereo for efficient rendering of stereoscopic image pairs for geometry-bound applications. Direct isosurface rasterization is suitable for applications where isosurface geometry is highly variable, such as interactive analysis scenarios for static and dynamic data sets that require frequent isovalue adjustment.
Die folgende Studie misst in wirtschaftlicher Hinsicht den sozialen Wert und die Sozialrendite, die auf einem Teil des Fabrikgeländes von Can Batlló von 2011 bis heute entstanden sind. Um die Beiträge der Nachbarschaftsgemeinschaft in wirtschaftlicher Hinsicht zu messen, wurde eine doppelte Schätzmethode angewandt. Zum einen wurden die Beiträge der ehrenamtlichen Personen von Can Batlló in den Bereichen Verwaltung und Unterhaltung, Reinigung, Bau und Durchführung von Aktivitäten quantifiziert und bewertet. Zum anderen wurde der Wert von Can Batlló berechnet, indem ein Vergleich mit den Kosten angestellt wurde, die entstanden wären, wenn der Bau von Räumen und die Erbringung von Dienstleistungen auf Basis der Referenzpreise der jeweiligen Dienstleistung durch die Stadt erfolgt wären. Diese wirtschaftliche Bewertung der Sozialrendite wird durch die Gemeinwohlbilanz ergänzt, die von der Organisation erstellt wird.
Städten kam bei demokratischen Innovationsprozessen immer eine zentrale Rolle zu. Die öffentlichen Verwaltungen der großen Städte stellten Regeln für die Einführung und Ausweitung der bürgerschaftlichen Partizipation auf und reagierten damit auf Erfahrungen und Forderungen, die von der schöpferischen politischen Kraft der sozialen und urbanen Bewegungen getragen wurden. Die Geschichte Barcelonas ist dafür ein typisches Beispiel.
Dank dieser sozialen Errungenschaften können wir von einer Reihe von Gütern und Dienstleistungen profitieren, die lokale Wohlfahrtssysteme ausmachen. Die Stadtverwal-tungen übernehmen die Aufgabe, Ressourcen und Dienstleistungen bereitzustellen, die nicht nur mit Wohlfahrt und Gesundheit in Verbindung stehen, sondern auch mit der Sorge um Umfeld und Umwelt, mit der Förderung von Maßnahmen in Bereichen wie Bildung, Kultur, Kunst oder Sport sowie mit der Dynamisierung von Wirtschaft und Gesellschaft. Ob zuständig oder nicht, die Kommunen müssen auf die Forderungen der Bürger*innen reagieren, sind sie doch die Verwaltungen, die den alltäglichen Problemen und Bedürfnissen am nächsten stehen. Daher liegt es weniger im Belieben der Stadtverwaltungen, ob sie notwendige Innova¬tionen anstoßen, sondern diese sind vielmehr Teil ihres Aufgabenbereichs.
Um den Bedürfnissen der Bürger*innen seitens der öffentlichen Verwaltung gerecht zu werden, kam in den meisten Fällen eine von zwei Methoden zur Anwendung: die direkte Verwaltung durch die Behörden oder die indirekte Verwaltung mit dem privaten Sektor. Mit dem Anbruch einer neuen Zeit, in der alternative Methoden an Bedeutung gewonnen haben, wächst das Interesse an Modellen öffentlich-zivilgesellschaftlicher Zusammenarbeit. Hauptziel dieser Modelle ist es, Verwaltungen und Bürgerschaft eine Zusammenarbeit im gemeinsamen und allgemeinen Interesse zu ermöglichen, indem Projekte unterstützt werden, die Zugang, Nähe und Partizipation in sich vereinen. Vor diesem Hintergrund bietet die Verwaltung öffent¬licher Ressourcen Möglichkeiten zur Entwicklung neuer Formen kollektiver Intelligenz, mit ge¬meinsamer Verantwortung und Synergie zwischen Institution und Bürgerschaft, sodass die Städte zu wahrhaft kooperativen Plattformen für öffentliche Innovationen werden.
In diesem Dokument gehen wir den gesamten Fragebogen für die vollständige Gemeinwohlbilanz (kurz GB, katalanisch Balanç Comunitari bzw. BC) Frage für Frage durch und erklären, was mit jeder einzelnen Frage gemeint ist und welche Informationen anzugeben sind. Es wird daher sehr empfohlen, vor dem Ausfüllen des Fragebogens in der App einen Blick auf den gesamten Fragenkatalog zu werfen, weil dies die Erhebung der Daten und die Verteilung der Aufgaben auf die verschiedenen mit der Erstellung der GB befassten Personen erleichtert. Die GB ist ein Selbstevaluierungstool, mit dem Organisationen ihre Tätigkeit unter Umwelt-, Sozial- und Governance-Aspekten bewerten können.
Urban Heat Transition in Berlin: Corporate Strategies, Political Conflicts, and Just Solutions
(2023)
In the field of urban climate policy, heat production and demand are key sectors for achieving a sustainable city. Heat production has to shift from fossil to renewable energies, and the heat demand of most buildings has to be reduced significantly via building retrofits. However, analyses of heat transition still lack its contextualization within entangled urban politico-economic processes and materialities and require critical socio-theoretical examination. Asking about the embeddedness of heat transition within social relations and its implications for social justice issues, this article discusses the challenges and opportunities of heat transition, taking Berlin as an example. It uses an urban political ecology perspective to analyze the materialities of Berlin’s heating-housing nexus, its politico-economic context, implications for relations of inequality and power, and its contested strategies. The empirical analysis identifies major disputes about the future trajectory of heat production and about the distribution of retrofit costs. Using our conceptual approach, we discuss these empirical findings against the idea of a more just heat transition. For this purpose, we discuss three policy proposals regarding cost distribution, urban heat planning, and remunicipalization of heat utilities. We argue that this conceptual approach provides huge benefits for debates around heat transition and, more generally, energy justice and just transitions.
Urban heritage is at the core of the process of many changes observable in the cities today. The pace of urban change in heritage contexts, however, differs widely across the globe. In some areas, it goes slowly, in others it is astonishingly rapid. In some cases, change is coupled with risks of erosion of heritage and urban areas of value and in others change is synonymous with prosperity and positive impacts. Change in urban heritage areas is not only confined to the physical and tangible aspects, but needs to be regarded as mirroring changes related socio-political practices, economic implications, and cultural impacts. In this regard, the present thematic issue looks at various patterns of the interrelationship between heritage and urban change from both the physical and the non-physical perspectives. This editorial presents the topic of urban heritage and patterns of physical and non-physical transformation in urban heritage contexts and introduces the thematic issue “Urban Heritage and Patterns of Change: Spatial Practices of Physical and Non-Physical Transformation.”
Beyond metropolitan areas, many peripheral regions and their cities in Europe have, in manifold ways, been significantly shaped by industrialisation. In the context of the relocation of industrial production to other countries over the last decades, the question has been raised as to the role this heritage can play in futural regional development as well as the potential local identification with this history. Hence, this article seeks to analyse the perception of the industrial heritage in the Vogtland region, located alongside the border of three German federal states and the Czech Republic. It inquires as to the perception of the industrial heritage by the local population and related potential future narrations. Based on spontaneous and explorative interviews with local people as an empirical base, a discrepancy between the perception of the tangible and intangible dimensions of the industrial heritage can be observed. On the one hand, the tangible heritage like older factories and production complexes are seen as a functional legacy and an “eyesore” narrative is attributed to them. On the other hand, people often reference the personal and familial connection to the industry and highlight its importance for the historical development and the wealth of the region. But these positive associations are mainly limited to the intangible dimension and are disconnected from the material artefacts of industrial production.
Patterns of Detachment: Spatial Transformations of the Phosphate Industry in el-Quseir, Egypt
(2023)
The establishment of phosphate mines and processing plants by Italian entrepreneurs in el-Quseir in 1912 revitalized a town that had faced a steady decline after the opening of the Suez Canal and re-linked it to the world economy. To this day, the now defunct industrial site occupies a large section of physical el-Quseir and plays a key role in its identity. In this article, we explore the impact of the company’s successive industrialization and deindustrialization based on archival research, interviews, and mapping. By tracing physical changes on-site and in the city of el-Quseir from the founding of its phosphate industry until today, as well as the historical and current interactions of citizens with the industrial facilities, we hope to better understand the “cluster value” of the industrial plant in quotidian life and the effect of the vacuum left behind after the termination of production. As machinery and buildings are slowly eroding in the absence of expressed interest by the former Italian and current Egyptian owners, we aim to discuss the relationship between the citizens and their el-Quseir phosphate plant as a crucial element of its heritage value at the local level.
Care of ageing adults has become a dominant field of application for assistive robot technologies, promising support for ageing adults residing in care homes and staff, in dealing with practical routine tasks and providing social and emotional relieve. A time consuming and human intensive necessity is the maintenance of high hygiene quality in care homes. Robotic vacuum cleaners have been proven effective for doing the job elsewhere, but—in the context of care homes—are counterproductive for residents’ well-being and do not get accepted. This is because people with dementia manifest their agency in more implicit and emotional ways, while making sense of the world around them. Starting from these premises, we explored how a zoomorphic designed vacuum cleaner could better accommodate the sensemaking of people with dementia. Our design reconceptualises robotic vacuum cleaners as a cat-like robot, referring to a playful behaviour and appearance to communicate a non-threatening and familiar role model. Data from an observational study shows that residents responded positively to our prototype, as most of them engaged playfully with it as if it was a pet or a cat-like toy, for example luring it with gestures. Some residents simply ignored the robot, indicating that it was not perceived as frightening or annoying. The level of activity influenced reactions; residents ignored our prototype if busy with other occupations, which proves that it did not cause significant disturbance. We further report results from focus group sessions with formal and informal caregivers who discussed a video prototype of our robot. Caregivers encouraged us to enhance the animal like characteristics (in behaviour and materiality) even further to result in richer interactions and provoke haptic pleasure but also pointed out that residents should not mistake the robot for a real cat.
Die Corona-Krise stellt das städtische Zusammenleben auf eine harte Probe. Nicht nur sozialer Austausch, Kultur und Verkehr, sondern auch die kommunale Demokratie ist massiv beeinflusst. Wer kann in der Krise noch mitsprechen? Und wie verändert sie das Zusammenspiel von Verwaltung, Politik und Zivilgesellschaft? Die Beiträger*innen untersuchen anhand von Fallstudien die Auswirkungen der Krise auf die kommunale Beteiligungskultur. Sie fragen mit interdisziplinärem Blick nach der kommunalen Krisenbewältigung und erfolgreichen Governance-Strukturen im Kontext multipler Krisen. Ihr Ansatz der kritischen Urbanistik versteht sich dabei als Einladung zur Reflexion, Debatte und alternativen Praxis.
The characteristic values of climatic actions in current structural design codes are based on a specified probability of exceedance during the design working life of a structure. These values are traditionally determined from the past observation data under a stationary climate assumption. However, this assumption becomes invalid in the context of climate change, where the frequency and intensity of climatic extremes varies with respect to time. This paper presents a methodology to calculate the non-stationary characteristic values using state of the art climate model projections. The non-stationary characteristic values are calculated in compliance with the requirements of structural design codes by forming quasi-stationary windows of the entire bias-corrected climate model data. Three approaches for the calculation of non-stationary characteristic values considering the design working life of a structure are compared and their consequences on exceedance probability are discussed.
Research into bio-based epoxy resins has intensified in recent decades. Here, it is of great importance to use raw materials whose use does not compete with food production. In addition, the performance of the newly developed materials should be comparable to that of conventional products. Possible starting materials are lignin degradation products, such as vanillin and syringaldehyde, for which new synthesis routes to the desired products must be found and their properties determined. In this article, the first synthesis of two amine hardeners, starting with vanillin and syringaldehyde, using the Smiles rearrangement reaction is reported. The amine hardeners were mixed with bisphenol A diglycidyl ether, and the curing was compared to isophorone diamine, 4-4′-diaminodiphenyl sulfone, and 4-Aminonbenzylamine by means of differential scanning calorimetry. It was found that the two amines prepared are cold-curing. As TG-MS studies showed, the thermal stability of at least one of the polymers prepared with the potentially bio-based amines is comparable to that of the polymer prepared with isophorone diamine, and similar degradation products are formed during pyrolysis.
As an optimization that starts from a randomly selected structure generally does not guarantee reasonable optimality, the use of a systemic approach, named the ground structure, is widely accepted in steel-made truss and frame structural design. However, in the case of reinforced concrete (RC) structural optimization, because of the orthogonal orientation of structural members, randomly chosen or architect-sketched framing is used. Such a one-time fixed layout trend, in addition to its lack of a systemic approach, does not necessarily guarantee optimality. In this study, an approach for generating a candidate ground structure to be used for cost or weight minimization of 3D RC building structures with included slabs is developed. A multiobjective function at the floor optimization stage and a single objective function at the frame optimization stage are considered. A particle swarm optimization (PSO) method is employed for selecting the optimal ground structure. This method enables generating a simple, yet potential, real-world representation of topologically preoptimized ground structure while both structural and main architectural requirements are considered. This is supported by a case study for different floor domain sizes.
We present a physics-informed deep learning model for the transient heat transfer analysis of three-dimensional functionally graded materials (FGMs) employing a Runge–Kutta discrete time scheme. Firstly, the governing equation, associated boundary conditions and the initial condition for transient heat transfer analysis of FGMs with exponential material variations are presented. Then, the deep collocation method with the Runge–Kutta integration scheme for transient analysis is introduced. The prior physics that helps to generalize the physics-informed deep learning model is introduced by constraining the temperature variable with discrete time schemes and initial/boundary conditions. Further the fitted activation functions suitable for dynamic analysis are presented. Finally, we validate our approach through several numerical examples on FGMs with irregular shapes and a variety of boundary conditions. From numerical experiments, the predicted results with PIDL demonstrate well agreement with analytical solutions and other numerical methods in predicting of both temperature and flux distributions and can be adaptive to transient analysis of FGMs with different shapes, which can be the promising surrogate model in transient dynamic analysis.
Nonlocal theories concern the interaction of objects, which are separated in space. Classical examples are Coulomb’s law or Newton’s law of universal gravitation. They had signficiant impact in physics and engineering. One classical application in mechanics is the failure of quasi-brittle materials. While local models lead to an ill-posed boundary value problem and associated mesh dependent results, nonlocal models guarantee the well-posedness and are furthermore relatively easy to implement into commercial computational software.
This paper presents initial findings from the empirical analysis of community based social enterprise (SE) and non-profit organisation (NPO) ecosystems in Johannesburg. SEs and NPOs are widely recognised as contributors to the resilience of marginalised urban communities. However, the connection between these organisations , urban governance, and community resilience has not yet been sufficiently understood , particularly in African urban contexts. The 'Resilient Urban Communities' project focuses on Johannesburg as a case study to shed light on this under-researched topic. The key to exploring it is understanding SEs and NPOs as providers of public services, job creators, and promoters of good governance, all of which contribute to community resilience. Using this premise as a starting point, this paper investigates ecosystem conditions with a particular focus on state-civil society partnerships. Empirical data was generated through semi-struc-tured interviews and analysed with a grounded theory approach. Preliminary results of this ongoing research reveal that urban geography is a relevant ecosystem factor for SEs and NPOs from marginalised communities. We also suggest that co-production could be an opportunity for growth within the investigated state-civil society partnership.
Real-world labs hold the potential to catalyse rapid urban transformations through real-world experimentation. Characterised by a rather radical, responsive, and location-specific nature, real-world labs face constraints in the scaling of experimental knowledge. To make a significant contribution to urban transformation, the produced knowledge must go beyond the level of a building, street, or small district where real-world experiments are conducted. Thus, a conflict arises between experimental boundaries and the stimulation of broader implications. The challenges of scaling experimental knowledge have been recognised as a problem, but remain largely unexplained. Based on this, the article will discuss the applicability of the “typology of amplification processes” by Lam et al. (2020) to explore and evaluate the potential of scaling experimental knowledge from real-world labs. The application of the typology is exemplified in the case of the Bauhaus.MobilityLab. The Bauhaus.MobilityLab takes a unique approach by testing and developing cross-sectoral mobility, energy, and logistics solutions with a distinct focus on scaling knowledge and innovation. For this case study, different qualitative research techniques are combined according to “within-method triangulation” and synthesised in a strengths, weaknesses, opportunities, and threats (SWOT) analysis. The analysis of the Bauhaus.MobilityLab proves that the “typology of amplification processes” is useful as a systematic approach to identifying and evaluating the potential of scaling experimental knowledge.
Experimental testing of nailed connections taken from old roof trusses is presented in this paper. To enable the further use and preservation of nailed roof trusses, it is important to understand how the nail corrosion and aging processes of steel and wood affect the load-bearing capacity and deformation behaviour of such structures. The hypothesis was investigated whether corroded nails allow an increase in load-bearing capacity. Several old and new joints were tested in a first test series, and the results were very promising regarding the initial assumption. However, more tests must be carried out to verify the results.
This paper presents the development of an assessment scheme for a visual qualitative evaluation of nailed connections in existing structures, such as board trusses. In terms of further use and preservation, a quick visual inspection will help to evaluate the quality of a structure regarding its load-bearing capacity and deformation behaviour. Tests of old and new nailed joints in combination with a rating scheme point out the correlation between the load-bearing capacity and condition of a joint. Old joints of comparatively good condition tend to exhibit better results than those of poor condition. Moreover, aged joints are generally more load-bearing than newly assembled ones.
Dieser Handlungsleitfaden möchte die Zusammenarbeit zwischen zivilgesellschaftlichen Akteuren und öffentlichen Verwaltungen erleichtern. Er enthält allerdings kein Patentrezept, mit dem eine solche Zusammenarbeit gebacken werden kann, sondern vor allem Anstöße, was es dabei alles zu bedenken gilt. Denn Ko-Produktionsprozesse, bei denen zivilgesellschaftliche Gruppen und Verwaltungen gemeinsam an der Umsetzung von Dienstleistungen und Infrastrukturen der Daseinsvorsorge arbeiten, sind komplexe und noch recht unerprobte Prozesse.
Die Diskussionen in der Politik und in der Gesellschaft über Klimawandel, globale Erwärmung oder Nachhaltigkeit, die schon noch länger anhält, werden nie ein Ende finden, solange die Probleme, auf denen sie basiert, unlösbar bleiben. Vorgeschlagene Lösungen werden meist nicht richtig umgesetzt. Im Zusammenhang mit dieser Problematik steigt aber das Verantwortungsgefühl für bessere Zukunftsstrategien immer mehr. Die in den letzten Jahren vorgekommenen Umweltkatastrophen, wie im Golf von Mexiko (April 2010) oder im Fukushima (März 2011) die noch aktuell sind, zeigen, dass der Primärenergieeinsatz oder die Transportproblematik nicht mehr nur die Sorge der Entwicklungsländer, sondern auch der Industrieländer ist. Die Bauwelt mit ihrem erheblichen Energiebedarf spielt bei der Festlegung der Zukunftsstrategien eine große Rolle.
Vor allem sind die Forschungen nach umweltfreundlichen Materialien, der Recyclebarkeit der eingesetzten Baumaterialien oder dem vernünftigen Nutzen der Naturressourcen die wichtigsten Schwerpunkte. In dieser Hinsicht bringt Lehm als Baumaterial viele Vorteile mit sich. Bei einem Artikel sagt der Lehmbauexperte Martin Rauch: “In heutiger Zeit und einem Kulturkreis, in dem Baugrund und Arbeitszeit unsere großen Kosten verursachen, findet der tradierte Lehmbau mit dem verbundenen großen Aufwand an menschlicher Arbeitszeit nur schwer seinen Platz. Über die Art der Bauweise wird auch die Entscheidung gefällt, wie und wo die Wertschöpfung erfolgt und ob der Einsatz des Budgets einen gesellschaftlichen Nutzen mit sich bringt. Im Vergleich zu einem Sichtbetonhaus können bei einem Stampflehmhaus 40% der Primärenergie ein gespart und dafür mehr lokale Arbeitsressourcen gebunden werden. Davon profitieren vor allem die lokalen Handwerker und mittelständischen Betriebe” Anatolien ist der Ort, wo man immer noch die tiefsten Wurzeln der Baukultur menschlicher Geschichte findet. Diese Baukultur, die in den vergangenen Jahrzehnten fast verlorengegangen ist, ist die Lehmbaukultur. In dieser Hinsicht beabsichtigt dieser Entwurf die Würde des Lehms in Anatolien wieder herzustellen und dadurch dessen Glaubwürdigkeit zurückzubringen.
One of the main criteria determining the thermal comfort of occupants is the air temperature. To monitor this parameter, a thermostat is traditionally mounted in the indoor environment for instance in office rooms in the workplaces, or directly on the radiator or in another location in a room. One of the drawbacks of this conventional method is the measurement at a certain location instead of the temperature distribution in the entire room including the occupant zone. As a result, the climatic conditions measured at the thermostat point may differ from those at the user's location. This not only negatively impacts the thermal comfort assessment but also leads to a waste of energy due to unnecessary heating and cooling. Moreover, for measuring the distribution of the air temperature under laboratory conditions, multiple thermal sensors should be installed in the area under investigation. This requires high effort in both installation and expense.
To overcome the shortcomings of traditional sensors, Acoustic travel-time TOMography (ATOM) offers an alternative based on measuring the transmission sound velocity signals. The basis of the ATOM technique is the first-order dependency of the sound velocity on the medium's temperature. The average sound velocity, along the propagation paths, can be determined by travel-times estimation of a defined acoustic signal between transducers. After the travel-times collection, the room is divided into several volumetric grid cells, i.e. voxels, whose sizes are defined depending on the dimension of the room and the number of sound paths. Accordingly, the spatial air temperature in each voxel can be determined using a suitable tomographic algorithm. Recent studies indicate that despite the great potential of this technique to detect room climate, few experiments have been conducted.
This thesis aims to develop the ATOM technique for indoor climatic applications while coupling the analysis methods of tomography and room acoustics. The method developed in this thesis uses high-energy early reflections in addition to the direct paths between transducers for travel time estimation. In this way, reflections can provide multiple sound paths that allow the room coverage to be maintained even when a few or even only one transmitter and receiver are used.
In the development of the ATOM measurement system, several approaches have been employed, including the development of numerical methods and simulations and conducting experimental measurements, each of which has contributed to the improvement of the system's accuracy. In order to effectively separate the early reflections and ensure adequate coverage of the room with sound paths, a numerical method was developed based on the optimization of the coordinates of the sound transducers in the test room. The validation of the optimal positioning method shows that the reconstructed temperatures were significantly improved by placing the transducers at the optimal coordinates derived from the developed numerical method. The other numerical method developed is related to the selection of the travel times of the early reflections. Accordingly, the detection of the travel times has been improved by adjusting the lengths of the multiple analysis time-windows according to the individual travel times in the reflectogram of the room impulse response. This can reduce the probability of trapping faulty travel times in the analysis time-windows.
The simulation model used in this thesis is based on the image source model (ISM) method for simulating the theoretical travel times of early reflection sound paths. The simulation model was developed to simulate the theoretical travel times up to third-order reflections.
The empirical measurements were carried out in the climate lab of the Chair of Building Physics under different boundary conditions, i.e., combinations of different room air temperatures under both steady-state and transient conditions, and different measurement setups. With the measurements under controllable conditions in the climate lab, the validity of the developed numerical methods was confirmed.
In this thesis, the performance of the ATOM measurement system was evaluated using two measurement setups. The setup for the initial investigations consists of an omnidirectional receiver and a near omnidirectional sound source, keeping the number of transducers as few as possible. This has led to accurately identify the sources of error that could occur in each part of the measuring system. The second measurement setup consists of two directional sound sources and one omnidirectional receiver. This arrangement of transducers allowed a higher number of well-detected travel times for tomography reconstruction, a better travel time estimation due to the directivity of the sound source, and better space utilization. Furthermore, this new measurement setup was tested to determine an optimal selection of the excitation signal. The results showed that for the utilized setup, a linear chirp signal with a frequency range of 200 - 4000 Hz and a signal duration of t = 1 s represents an optimal selection with respect to the reliability of the measured travel times and higher signal-to-noise ratio (SNR).
To evaluate the performance of the measuring setups, the ATOM temperatures were always compared with the temperatures of high-resolution NTC thermistors with an accuracy of ±0.2 K. The entire measurement program, including acoustic measurements, simulation, signal processing, and visualization of measurement results are performed in MATLAB software.
In addition, to reduce the uncertainty of the positioning of the transducers, the acoustic centre of the loudspeaker was determined experimentally for three types of excitation signals, namely MLS (maximum length sequence) signals with different lengths and duration, linear and logarithmic chirp signals with different defined frequency ranges. For this purpose, the climate lab was converted into a fully anechoic chamber by attaching absorption panels to the entire surfaces of the room. The measurement results indicated that the measurement of the acoustic centre of the sound source significantly reduces the displacement error of the transducer position.
Moreover, to measure the air temperature in an occupied room, an algorithm was developed that can convert distorted signals into pure reference signals using an adaptive filter. The measurement results confirm the validity of the approach for a temperature interval of 4 K inside the climate lab.
Accordingly, the accuracy of the reconstructed temperatures indicated that ATOM is very suitable for measuring the air temperature distribution in rooms.
Antimicrobial resistances (AMR) are ranked among the top ten threats to public health and societal development worldwide. Toilet wastewater contained in domestic wastewater is a significant source of AMR entering the aquatic environment. The current commonly implemented combined sewer systems at times cause overflows during rain events, resulting in the discharge of untreated wastewater into the aquatic environment, thus promoting AMR. In this short research article, we describe an approach to transform combined sewer systems into source separation-modified combined sewer systems that separately treat toilet wastewater. We employ simulations for demonstrating that source separation-modified combined sewer systems reduce the emission of AMR- causing substances by up to 11.5 logarithm levels. Thus, source separation- modified combined sewer systems are amongst the most effective means of combating AMR.
KEYWORDS
Die vorliegende Studie geht der Fragestellung nach, wie sich eine anbieterübergreifende, abonnementbasierte Plattform für den digitalen Journalismus, also eine Art Spotify im Journalismus, auf die Umsätze der Anbieter journalistischer Inhalte und die Abonnements im Digitaljournalismus in Deutschland auswirken würde. Auf Basis drei sich ergänzender Schätzmethoden für Zahlungsbereitschaft, die in zwei Repräsentativbefragungen der deutschen Online-Bevölkerung mit insgesamt 8.000 Teilnehmenden angewandt wurden, gelangt das Whitepaper zu den folgenden Schlüsselbefunden.
Resonance vibration of structures is an unpleasant incident that can be conventionally avoided by using a Tuned Mass Damper (TMD). The scope of this paper contains the utilization of engineered inclusions in concrete as damping aggregates to suppress resonance vibration similar to a TMD. The inclusions are composed of a stainless-steel core with a spherical shape coated with silicone. This configuration has been the subject of several studies and it is best known as Metaconcrete. This paper presents the procedure of a free vibration test conducted with two small-scaled concrete beams. The beams exhibited a higher damping ratio after the core-coating element was secured to them. Subsequently, two meso-models of small-scaled beams were created: one representing conventional concrete and the other representing concrete with the core-coating inclusions. The frequency response curves of the models were obtained. The change in the response peak verified the ability of the inclusions to suppress the resonance vibration. This study concludes that the core-coating inclusions can be utilized in concrete as damping aggregates.
Open Innovation in kleinen und mittleren Unternehmen (KMU) hat sich stark ausdifferenziert. Dabei zeigt die Empirie, dass KMU unterschiedliche Wege in der offenen Entwicklung von Innovationen begehen. Um die bestehende Literatur zu erweitern, wurden mit dieser Dissertation die Ziele verfolgt 1) offene Innovationsaktivitäten in KMU aus einer Prozessperspektive aufzudecken und genau zu beschreiben und 2) zu erklären, warum sich die Öffnung von Innovationsprozessen in KMU unterscheidet. Dafür wurde auf eine multiple Fallstudienanalyse zurückgegriffen. Untersuchungsobjekte waren kleine etablierte High-Tech Unternehmen aus den neuen Bundesländern. Die Ergebnisse zeigen sechs Prozessmodelle der offenen Innovationsentwicklung, beschrieben als Open Innovation Muster. Deskriptionen dieser Muster unter Berücksichtigung von formenden Innovationsaktivitäten, ausgetauschtem Wissen, beteiligten externen Akteuren und Gründen für und gegen Open Innovation vermitteln ein über den bisherigen Forschungsstand hinausgehendes Verständnis von Open Innovation in KMU. Zudem zeigen die Ergebnisse, dass die Entrepreneurial Orientation erklärt, warum KMU bei der Ausgestaltung von offenen Innovationsprozessen unterschiedlich vorgehen. In der Dissertation wird detailliert dargelegt, welche Open Innovation Muster sich anhand der Entrepreneurial Orientation von KMU (nicht-entrepreneurial bis entrepreneurial) zeigen. Die Ergebnisse liefern sowohl wissenschaftliche Implikationen, als auch Handlungsempfehlungen für die Unternehmenspraxis.
In this work, practice-based research is conducted to rethink the understanding of aesthetics, especially in relation to current media art. Granted, we live in times when technologies merge with living organisms, but we also live in times that provide unlimited resources of knowledge and maker tools. I raise the question: In what way does the hybridization of living organisms and non-living technologies affect art audiences in the culture that may be defined as Maker culture? My hypothesis is that active participation of an audience in an artwork is inevitable for experiencing the artwork itself, while also suggesting that the impact of the umwelt changes the perception of an artwork. I emphasize artistic projects that unfold through mutual interaction among diverse peers, including humans, non-human organisms, and machines. In my thesis, I pursue collaborative scenarios that lead to the realization of artistic ideas: (1) the development of ideas by others influenced by me and (2) the materialization of my own ideas influenced by others. By developing the scenarios of collaborative work as an artistic experience, I conclude that the role of an artist in Maker culture is to mediate different types of knowledge and different positions, whereas the role of the audience is to actively engage in the artwork itself. At the same time, aesthetics as experience is triggered by the other, including living and non-living actors. It is intended that the developed methodologies could be further adapted in artistic practices, philosophy, anthropology, and environmental studies.
Die Form der Datenbank
(2023)
Datenbanken sind heute die wichtigste Technik zur Organisation und Verarbeitung von Daten. Wie wurden sie zu einer der allgegenwärtigsten und gleichzeitig unsichtbarsten Praxis, die menschliche Zusammenarbeit ermöglicht? Diese Studie beginnt mit einer historiographischen Erkundung der zentralen medialen Konzepte von Datenbanken und mündet in das praxeologische Konzept der "Daten als Formation", kurz: In-Formation.
Der erste Hauptteil befasst sich mit der Formatierung von Daten durch die Verarbeitung strukturierter Daten mittels relationaler Algebra. Es wird erarbeitet, auf welche Weise Struktur neues Wissen schafft. Im zweiten Teil wird erörtert, wie Datenbanken durch den diagrammatisch-epistemischen Raum der Tabelle operationalisiert werden. Drittens untersucht die Studie Transaktionen als Erklärungen dafür, wie Daten und reale Handlungen koordiniert und synchronisiert werden können.
Im zweiten Hauptteil wird untersucht, wie relationale Datenbanken zunehmend zum Zentrum von Softwareanwendungen und Infrastrukturen wurden, wobei der Schwerpunkt auf wirtschaftlichen Praktiken liegt. In einem vergleichenden Ansatz wird anhand von Fallstudien in der DDR der 1970er bis 1990er Jahren die Frage gestellt, ob es eine „sozialistische“ Datenbankmanagement-Software gegeben hat. Dabei werden die „westlichen“ Produktionsdatenbanken BOMP, COPICS und MAPICS (IBM) sowie R2 (SAP) im Zusammenspiel mit den ostdeutschen Sachgebietsorientierten Programmiersystemen (SOPS) von Robotron diskutiert. Schließlich untersucht dieser Teil, wie die DDR ihr eigenes relationales Datenbankmanagementsystem, DABA 1600, entwickelte und dabei „westliche“ Technologie neu interpretierte.
Das abschließende Kapitel fasst die Konzepte der relationalen Datenbanken als heute wichtigsten Datenorganisationstechnik zusammen. Es erörtert, inwiefern es möglich ist, die historiographische Erzählung über die Entstehung von Datenbankmanagementsystemen und ihre Folgen für die Geschichte der Informatik zu dezentrieren. Es schließt mit der Erkenntnis, dass östliche und westliche Medien der Kooperation sich in Form und Funktion erstaunlich ähnlich sind, beide wurzeln in den tiefen Genealogien von organisatorischen und wissensbildenden Datenpraktiken.
Neben dieser medienwissenschaftlichen Arbeit besteht die Dissertation aus einem künstlerischen Teil, der dokumentiert wird: Anhand einer Reihe von Vlogs erkundet die fiktionale Figur „Data Proxy“ aktuelle Datenökologien.
Due to the development of new technologies and materials, optimized bridge design has recently gained more attention. The aim is to reduce the bridge components materials and the CO2 emission from the cement manufacturing process. Thus, most long-span bridges are designed to be with high flexibility, low structural damping, and longer and slender spans. Such designs lead, however, to aeroelastic challenges. Moreover, the consideration of both the structural and aeroelastic behavior in bridges leads to contradictory solutions as the structural constraints lead to deck prototypes with high depth which provide high inertia to material volume ratios. On the other hand, considering solely the aerodynamic requirements, slender airfoil-shaped bridge box girders are recommended since they prevent vortex shedding and exhibit minimum drag. Within this framework comes this study which provides approaches to find optimal bridge deck cross-sections while considering the aerodynamic effects. Shape optimization of deck cross-section is usually formulated to minimize the amount of material by finding adequate parameters such as the depth, the height, and the thickness and while ensuring the overall stability of the structure by the application of some constraints. Codes and studies have been implemented to analyze the wind phenomena and the structural responses towards bridge deck cross-sections where simplifications have been adopted due to the complexity and the uniqueness of such components besides the difficulty of obtaining a final model of the aerodynamic behavior. In this thesis, two main perspectives have been studied; the first is fully deterministic and presents a novel framework on generating optimal aerodynamic shapes for streamlined and trapezoidal cross-sections based on the meta-modeling approach. Single and multi-objective optimizations were both carried out and a Pareto Front is generated. The performance of the optimal designs is checked afterwards. In the second part, a new strategy based on Reliability-Based Design Optimization (RBDO) to mitigate the vortex-induced vibration (VIV) on the Trans-Tokyo Bay bridge is proposed. Small changes in the leading and trailing edges are presented and uncertainties are considered in the structural system. Probabilistic constraints based on polynomial regression are evaluated and the problem is solved while applying the Reliability Index Approach (RIA) and the Performance Measure Approach (PMA). The results obtained in the first part showed that the aspect ratio has a significant effect on the aerodynamic behavior where deeper cross-sections have lower resistance against flutter and should be avoided. In the second part, the adopted RBDO approach succeeded to mitigate the VIV, and it is proven that designs with narrow or prolonged bottom-base length and featuring an abrupt surface change in the leading and trailing edges can lead to high vertical vibration amplitude. It is expected that this research will help engineers with the selections of the adequate deck cross-section layout, and encourage researchers to apply concepts of optimization regarding this field and develop the presented approaches for further studies.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
The artistic research work is concerned with webs of transnational artistic solidarity, especially those ingrained in the Nonaligned Movement (NAM), which embraced differences and united them in a common anti-imperialist and anti-colonial fight. Taking the museum as an artefact of historically situated solidarity, the project examines the instruments of transnational art solidarity for conceiving, developing and implementing decolonial cultural practices today. The main research question regards thinking about whether and how the emancipatory potential of the transnational art solidarity can be extracted, recuperated and translated when dealing with present issues of cultural decolonisation. Three museums founded on the bases of international solidarity and donations of artworks form the case study. Consequently, the research findings are systematised in three discourses: The Autonomous Museum; The Decolonial Museum; and The Museum in Exile.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Modell bedarfsorientierter Leistungserbringung im FM auf Grundlage von Sensortechnologien und BIM
(2023)
Während der Digitalisierung im Bauwesen insbesondere im Bereich der Planungs- und Errichtungsphase von Bauwerken immer größere Aufmerksamkeit zuteilwird, ist das digitale Potenzial im Facility Management weit weniger ausgeschöpft, als dies möglich wäre. Vor dem Hintergrund, dass die Bewirtschaftung von Gebäuden jedoch einen wesentlichen Kostenanteil im Lebenszyklus darstellt, ist eine Fokussierung auf digitale Prozesse im Gebäudebetrieb erforderlich. Im Facility Management werden Dienstleistungen häufig verrichtungsorientiert, d. h. nach statischen Intervallen, oder bedarfsorientiert erbracht. Beide Arten der Leistungserbringung weisen Defizite auf, beispielweise weil Tätigkeiten auf Basis definierter Intervalle erbracht werden, ohne dass eine Notwendigkeit besteht oder weil bestehende Bedarfe mangels Möglichkeiten der Bedarfsermittlung nicht identifiziert werden. Speziell die Definition und Ermittlung eines Bedarfs zur Leistungserbringung ist häufig subjektiv geprägt. Auch sind Dienstleister oft nicht in frühen Phasen der Gebäudeplanung involviert und erhalten für ihre Dienstleistungen notwendige Daten und Informationen erst kurz vor Inbetriebnahme des zu betreibenden Gebäudes.
Aktuelle Ansätze des Building Information Modeling (BIM) und die zunehmende Verfügbarkeit von Sensortechnologien in Gebäuden bieten Chancen, die o. g. Defizite zu beheben.
In der vorliegenden Arbeit werden deshalb Datenmodelle und Methoden entwickelt, die mithilfe von BIM-basierten Datenbankstrukturen sowie Auswertungs- und Entscheidungsmethodiken Dienstleistungen der Gebäudebewirtschaftung objektiviert und automatisiert auslösen können. Der Fokus der Arbeit liegt dabei auf dem Facility Service der Reinigungs- und Pflegedienste des infrastrukturellen Facility Managements.
Eine umfangreiche Recherche etablierter Normen und Standards sowie öffentlich zugänglicher Leistungsausschreibungen bilden die Grundlage der Definition erforderlicher Informationen zur Leistungserbringung. Die identifizierten statischen Gebäude- und Prozessinformationen werden in einem relationalen Datenbankmodell strukturiert, das nach einer Darstellung von Messgrößen und der Beschreibung des Vorgehens zur Auswahl geeigneter Sensoren für die Erfassung von Bedarfen, um Sensorinformationen erweitert wird. Um Messwerte verschiedener und bereits in Gebäuden existenten Sensoren für die Leistungsauslösung verwenden zu können, erfolgt die Implementierung einer Normierungsmethodik in das Datenbankmodell. Auf diese Weise kann der Bedarf zur Leistungserbringung ausgehend von Grenzwerten ermitteln werden. Auch sind Verknüpfungsmethoden zur Kombination verschiedener Anwendungen in dem Datenbankmodell integriert. Zusätzlich zur direkten Auslösung erforderlicher Aktivitäten ermöglicht das entwickelte Modell eine opportune Auslösung von Leistungen, d. h. eine Leistungserbringung vor dem eigentlich bestehenden Bedarf. Auf diese Weise können tätigkeitsähnliche oder räumlich nah beieinander liegende Tätigkeiten sinnvoll vorzeitig erbracht werden, um für den Dienstleister eine Wegstreckeneinsparung zu ermöglichen. Die Arbeit beschreibt zudem die für die Auswertung, Entscheidungsfindung und Auftragsüberwachung benötigen Algorithmen.
Die Validierung des entwickelten Modells bedarfsorientierter Leistungserbringung erfolgt in einer relationalen Datenbank und zeigt simulativ für unterschiedliche Szenarien des Gebäudebetriebs, dass Bedarfsermittlungen auf Grundlage von Sensortechnologien erfolgen und Leistungen opportun ausgelöst, beauftragt und dokumentiert werden können.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
Physical exercise demonstrates a special case of aerosol emission due to its associated elevated breathing rate. This can lead to a faster spread of airborne viruses and respiratory diseases. Therefore, this study investigates cross-infection risk during training. Twelve human subjects exercised on a cycle ergometer under three mask scenarios: no mask, surgical mask, and FFP2 mask. The emitted aerosols were measured in a grey room with a measurement setup equipped with an optical particle sensor. The spread of expired air was qualitatively and quantitatively assessed using schlieren imaging. Moreover, user satisfaction surveys were conducted to evaluate the comfort of wearing face masks during training. The results indicated that both surgical and FFP2 masks significantly reduced particles emission with a reduction efficiency of 87.1% and 91.3% of all particle sizes, respectively. However, compared to surgical masks, FFP2 masks provided a nearly tenfold greater reduction of the particle size range with long residence time in the air (0.3–0.5 μm). Furthermore, the investigated masks reduced exhalation spreading distances to less than 0.15 m and 0.1 m in the case of the surgical mask and FFP2 mask, respectively. User satisfaction solely differed with respect to perceived dyspnea between no mask and FFP2 mask conditions.
The present article aims to provide an overview of the consequences of dynamic soil-structure interaction (SSI) on building structures and the available modelling techniques to resolve SSI problems. The role of SSI has been traditionally considered beneficial to the response of structures. However, contemporary studies and evidence from past earthquakes showed detrimental effects of SSI in certain conditions. An overview of the related investigations and findings is presented and discussed in this article. Additionally, the main approaches to evaluate seismic soil-structure interaction problems with the commonly used modelling techniques and computational methods are highlighted. The strength, limitations, and application cases of each model are also discussed and compared. Moreover, the role of SSI in various design codes and global guidelines is summarized. Finally, the advancements and recent findings on the SSI effects on the seismic response of buildings with different structural systems and foundation types are presented. In addition, with the aim of helping new researchers to improve previous findings, the research gaps and future research tendencies in the SSI field are pointed out.
Vertical green system for gray water treatment: Analysis of the VertiKKA-module in a field test
(2022)
This work presents a modular Vertical Green System (VGS) for gray water treatment, developed at the Bauhaus-Universität Weimar. The concept was transformed into a field study with four modules built and tested with synthetic gray water. Each module set contains a small and larger module with the same treatment substrate and was fed hourly. A combination of lightweight structural material and biochar of agricultural residues and wood chips was used as the treatment substrate. In this article, we present the first 18 weeks of operation. Regarding the treatment efficiency, the parameters chemical oxygen demand (COD), total phosphorous (TP), ortho-phosphate (ortho-P), total bound nitrogen (TNb), ammonium nitrogen (NH4-N), and nitrate nitrogen (NO3-N) were analyzed and are presented in this work. The results of the modules with agricultural residues are promising. Up to 92% COD reduction is stated in the data. The phosphate and nitrogen fractions are reduced significantly in these modules. By contrast, the modules with wood chips reduce only 67% of the incoming COD and respectively less regarding phosphates and the nitrogen fraction.
This article aims to develop a social theory of violence that emphasizes the role of the third party as well as the communication between the involved subjects. For this Teresa Koloma Beck’s essay ‘The Eye of the Beholder: Violence as a Social Process’ is taken as a starting point, which adopts a social-constructivist perspective. On the one hand, the basic concepts and the benefits of this approach are presented. On the other hand, social-theoretical problems of this approach are revealed. These deficits are counteracted by expanding Koloma Beck’s approach with a communicative-constructivist framework. Thus, the role of communicative action and the ‘objectification of violence’ is emphasized. These aspects impact the perception, judgement and (de-)legitimation of violence phenomena and the emergence of a ‘knowledge of violence’. Communicative actions and objectifications form a key to understanding violent interactions and the link between the micro and macro levels. Finally, the methodological consequences for the research of violence and Communicative Constructivism are discussed. Furthermore, possible research fields are outlined, which open up by looking at communicative action and the objectifications within the ‘triads of violence’.
Zu den diversen Unternehmungen sozialbewegter „Gegenwissenschaft“, die um 1980 auf der Bildfläche der BRD erschienen, zählte der 1982 gegründete Berliner Wissenschaftsladen e. V., kurz WILAB – eine Art „alternatives“ Spin-off der Technischen Universität Berlin. Der vorliegende Beitrag situiert die Ausgründung des „Ladens“ im Kontext zeitgenössischer Fortschritte der (regionalen) Forschungs- und Technologiepolitik. Gezeigt wird, wie der deindustrialisierenden Inselstadt, qua „innovationspolitischer“ Gegensteuerung, dabei sogar eine gewisse Vorreiterrolle zukam: über die Stadtgrenzen hinaus sichtbare Neuerungen wie die Gründermesse BIG TECH oder das 1983 eröffnete Berliner Innovations- und Gründerzentrum (BIG), der erste „Incubator“ [sic] der BRD, etwa gingen auf das Konto der 1977/78 lancierten Technologie-Transferstelle der TU Berlin, TU-transfer.
Anders gesagt: tendenziell bekam man es hier nun mit Verhältnissen zu tun, die immer weniger mit den Träumen einer „kritischen“, nicht-fremdbestimmten (Gegen‑)Wissenschaft kompatibel waren. Latent konträr zur historiographischen Prominenz des wissenschaftskritischen Zeitgeists fristeten „alternativen“ Zielsetzungen verpflichtete Unternehmungen wie „WILAB“ ein relativ marginalisiertes Nischendasein. Dennoch wirft das am WILAB verfolgte, so gesehen wenig aussichtsreiche Anliegen, eine andere, nämlich „humanere“ Informationstechnologie in die Wege zu leiten, ein instruktives Licht auf die Aufbrüche „unternehmerischer“ Wissenschaft in der BRD um 1980.
This paper outlines an important step in characterizing a novel field of robotic construction research where a cable-driven parallel robot is used to extrude cementitious material in three-dimensional space, and thus offering a comprehensive new approach to computational design and construction, and to robotic fabrication at larger scales. Developed by the Faculty of Art and Design at Bauhaus-University Weimar (Germany), the faculty of Architecture at the University of Applied Sciences Dortmund (Germany) and the Chair of Mechatronics at the University of Duisburg-Essen (Germany), this approach offers unique advantages over existing additive manufacturing methods: the system is easily transportable and scalable, it does not require additional formwork or scaffolding, and it offers digital integration and informational oversight across the entire design and building process. This paper considers 1) key research components of cable robotic 3D-printing (such as computational design, material exploration, and robotic control), and 2) the integration of these parameters into a unified design and building process. The demonstration of the approach at full-scale is of particular concern.
Plastic structural analysis may be applied without any difficulty and with little effort for structural member verifications with regard to lateral torsional buckling of doubly symmetric rolled I sections. Suchlike analyses can be performed based on the plastic zone theory, specifically using finite beam elements with seven degrees of freedom and 2nd order theory considering material nonlinearity. The existing Eurocode enables these approaches and the coming-up generation will provide corresponding regulations in EN 1993-1-14. The investigations allow the determination of computationally accurate limit loads, which are determined in the present paper for selected structural systems with different sets of parameters, such as length, steel grade and cross section types. The results are compared to approximations gained by more sophisticated FEM analyses (commercial software Ansys Workbench applying solid elements) for reasons of verification/validation. In this course, differences in the results of the numerical models are addressed and discussed. In addition, results are compared to resistances obtained by common design regulations based on reduction factors χlt including regulations of EN 1993-1-1 (including German National Annex) as well as prEN 1993-1-1: 2020-08 (proposed new Eurocode generation). Concluding, correlations of results and their advantages as well as disadvantages are discussed.
Immanuel Kant’s thought is a central historical and theoretical reference in Hans Blumenberg’s metaphorological project. This is demonstrated by the fact that in the Paradigms the author outlines the concept of absolute metaphor by explicitly referring to §59 of the Critique of the Power of Judgment and recognizing in the Kantian symbol a model for his own metaphorics. However, Kant’s name also appears in the chapter on the metaphor of the “terra incognita” that not only did he theorize the presence of symbolic hypotyposis in our language [...] but also made extensive use of metaphors linked to “determinate historical experiences”. In particular: geographical metaphors. In my essay, I would like to start from the analysis of Kant’s geographical metaphors in order to try to rethink Blumenberg’s archaeological method as an archaeology of media that grounds the study of metaphors in the materiality of communication and the combination of tools, agents and media.
Subscription-based news platforms (such as “Apple News+” or “Readly”) that bundle content from different publishers into one comprehensive package and offer it to media users at a fixed monthly rate are a new way of accessing and consuming digital journalism. These services have received little attention in journalism studies, although they differ greatly from traditional media products and distribution channels. This article empirically investigates the perception of journalism platforms based on eight qualitative focus group discussions with 55 German news consumers.
Results show that the central characteristics these platforms should fulfill in order to attract users are strikingly similar to the characteristics of media platforms from the music and video industries, in particular regarding price points, contract features, and modes of usage. Against this background, the potential and perspectives of a subscription-based news platform for journalism’s societal role are discussed.
Audiovisuelles Cut-Up
(2023)
Diese Forschungsarbeit bezeichnet und analysiert ein ästhetisches Phänomen audiovisueller Arbeiten mit sehr schnellen Schnitten. Der Begriff „Audiovisuelles Cut-Up“ wird vorgeschlagen um dieses Phänomen zu bezeichnen. Verschiedenste audiovisuelle Arbeiten aus unterschiedlichen Kontexten werden analysiert, welche das formale Kriterium von extrem kurzen Einstellungen erfüllen – einschließlich der eigenen Forschungsbeiträge des Autors. Die Werkzeuge und Technologien, welche die neuartige Ästhetik ermöglichten werden vorgestellt. Oftmals wurden diese von den Künstlern selbst geschaffen, da fertige Lösungen nicht verfügbar waren. Audiovisuelle Cut-Ups werden nach Kontext und Medium systematisiert und verortet. Es schließen sich Beobachtungen an, in wie fern Audio und Video sich in ihrem Charakter unterscheiden, was die kleinste wahrnehmbare Einheit ist und welche Rolle Latenzen und Antizipation bei der Wahrnehmung von audiovisuellen Medien spielen.
Drei Hauptthesen werden Aufgestellt: 1. Audiovisuelles Cut-Up hat die Kraft winzige, vormals überdeckte Details deutlich zu machen. Damit kann es das Quellmaterial verdichten aber auch den Inhalt manipulieren. 2. Technische Entwicklungen haben das audiovisuelle Cut-Up hervorgerufen. 3. Heute ist die Ästhetik als ein Stilmittel im Werkzeugkasten audiovisueller Gestaltung etabliert.
Aktuell findet aufgrund gesellschaftspolitischer Forderungen in vielen Industriezweigen ein Umdenken in Richtung Effizienz und Ökologie aber auch Digitalisierung und Industrie 4.0 statt. In dieser Hinsicht steht die Bauindustrie, im Vergleich zu Industrien wie IT, Automobil- oder Maschinenbau, noch am Anfang.
Dabei sind die Potentiale zur Einsparung und Optimierung gerade in der Bauindustrie aufgrund der großen Mengen an zu verarbeiteten Materialien besonders hoch. Die internationale Ressourcen- und Klimadebatte führt verstärkt dazu, dass auch in der Zement- und Betonherstellung neue Konzepte erstellt und geprüft werden. Einerseits erfolgt intensive Forschung und Entwicklung im Bereich alternativer, klimafreundlicher Zemente. Andererseits werden auch auf Seiten der Betonherstellung innovative materialsparende Konzepte geprüft, wie die aktuelle Entwicklung von 3D-Druck mit Beton zeigt.
Aufgrund der hohen Anforderungen an Konstruktion, Qualität und Langlebigkeit von Bauwerken, besitzen Betonfertigteile oftmals Vorteile gegenüber Ortbeton. Die hohe Oberflächenqualität und Dauerhaftigkeit aber auch die Gleichmäßigkeit und witterungsunabhängige Herstellung sind Merkmale, die im Zusammenhang mit Betonfertigteilen immer wieder erwähnt werden. Dabei ist es essenziell, dass auch der Betonherstellungsprozess im Fertigteilwerk kritisch hinterfragt wird, damit eine effizientere und nachhaltigere Produktion von Betonfertigteilen möglich wird.
Bei der Herstellung von Betonteilen im Fertigteilwerk liegt ein besonderer Fokus auf der Optimierung der Frühfestigkeitsentwicklung. Hohe Frühfestigkeiten sind Voraussetzung für einen hochfrequenten Schalungszyklus, was Arbeiten im 2- bzw. 3-Schichtbetrieb ermöglicht. Oft werden zur Sicherstellung hoher Frühfestigkeiten hochreaktive Zemente in Kombination mit hohen Zementgehalten im Beton und/oder einer Wärmebehandlung eingesetzt. Unter dieser Prämisse ist eine ökologisch nachhaltige Betonproduktion mit verminderter CO2 Bilanz nicht möglich.
In der vorliegenden Arbeit wird ein neues Verfahren zur Beschleunigung von Beton eingeführt. Hierbei werden die Bestandteile Zement und Wasser (Zementsuspension) mit Ultraschall vorbehandelt. Ausgangspunkt der Arbeit sind vorangegangene Untersuchungen zum Einfluss von Ultraschall auf die Hydration von Zement bzw. dessen Hauptbestandteil Tricalciumsilikat (C3S), die im Rahmen dieser Arbeit weiter vertieft werden. Darüber hinaus wird die Produktion von Beton mit Ultraschall im Technikumsmaßstab betrachtet. Die so erlangten Erfahrungen dienten dazu, das Ultraschall-Betonmischsystem weiterzuentwickeln und erstmalig zur industriellen Betonproduktion zu nutzen.
In der vorliegenden Arbeit werden die Auswirkungen von Ultraschall auf die Hydratation von C3S zunächst weitergehend und grundlegend untersucht. Dies erfolgte mittels Messung der elektrischen Leitfähigkeit, Analyse der Ionenkonzentration (ICP-OES), Thermoanalyse, Messung der BET-Oberfläche sowie einer optischen Auswertung mittels Rasterelektronenmikroskopie (REM). Der Fokus liegt auf den ersten Stunden der Hydratation, also der Zeit, die durch die Ultraschallbehandlung am stärksten beeinflusst wird.
In den Untersuchungen zeigt sich, dass die Beschleunigungswirkung von Ultraschall in verdünnten C3S Suspensionen (w/f-Wert = 50) stark von der Portlanditkonzentration der Lösung abhängt. Je niedriger die Portlanditkonzentration, desto größer ist die Beschleunigung. Ergänzende Untersuchungen der Ionenkonzentration der Lösung sowie Untersuchungen am hydratisierten C3S zeigen, dass unmittelbar nach der Beschallung (nach ca. 15 Minuten Hydratation) erste Hydratphasen vorliegen. Die durch Ultraschall initiiere Beschleunigung ist in den ersten 24 Stunden am stärksten und klingt dann sukzessive ab. Die Untersuchungen schließen mit Experimenten an C3S-Pasten (w/f-Wert = 0,50), die die Beobachtungen an den verdünnten Suspensionen bestätigen und infolge der Beschallung ein früheres Auftreten und einen größeren Anteil an C-S-H Phasen zeigen. Es wird gefolgert, dass die unmittelbar infolge von Ultraschall erzeugten C-S-H Phasen als Kristallisationskeim während der folgenden Reaktion dienen und daher Ultraschall als in-situ Keimbildungstechnik angesehen werden kann. Optisch zeigt sich, dass die C-S-H Phasen der beschallten Pasten nicht nur viel früher auftreten, sondern kleiner sind und fein verteilt über die Oberfläche des C3S vorliegen. Auch dieser Effekt wird als vorteilhaft für den sich anschließenden regulären Strukturaufbau angesehen.
Im nächsten Schritt wird daher der Untersuchungsfokus vom Modellsystem mit C3S auf Portlandzement erweitert. Hierbei wird der Frage nachgegangen, wie sich eine Änderung der Zusammensetzung der Zementsuspension (w/z-Wert, Fließmittelmenge) beziehungsweise eine Änderung des Ultraschallenergieeintrag auf die Fließeigenschaften und das Erhärtungsverhalten auswirken.
Um den Einfluss verschiedener Faktoren gleichzeitig zu betrachten, werden mit Hilfe von statistischen Versuchsplänen Modelle erstellt, die das Verhalten der einzelnen Faktoren beschreiben. Zur Beschreibung der Fließeigenschaften wurde das Setzfließ- und Ausbreitmaß von Zementsuspensionen herangezogen. Die Beschleunigung der Erhärtung wurde mit Hilfe der Ermittlung des Zeitpunkts des normalen Erstarrens der Zementsuspension bestimmt.
Die Ergebnisse dieser Untersuchungen zeigen deutlich, dass die Fließeigenschaften und der Erstarrungsbeginn nicht linear mit steigendem Ultraschall-Energieeintrag verändert werden. Es zeigt sich, dass es besonders bei den Verarbeitungseigenschaften der Portlandzementsuspensionen zur Ausbildung eines spezifischen Energieeintrages kommt, bis zu welchem das Setzfließ- und das Ausbreitmaß erhöht werden. Bei Überschreiten dieses Punktes, der als kritischer Energieeintrag definiert wurde, nimmt das Setzfließ- und Ausbreitmaß wieder ab. Das Auftreten dieses Punktes ist im besonderen Maße abhängig vom w/z-Wert. Mit sinkendem w/z-Wert wird der Energieeintrag, der eine Verbesserung der Fließeigenschaften hervorruft, reduziert. Bei sehr niedrigen w/z-Werten (< 0,35), kann keine Verbesserung mehr beobachtet werden.
Wird Fließmittel vor der Beschallung zur Zementsuspension zugegeben, können die Eigenschaften der Zementsuspension maßgeblich beeinflusst werden. In beschallten Suspensionen mit Fließmittel, konnte in Abhängigkeit des Energieeintrages die fließmittelbedingte Verzögerung des Erstarrungsbeginns deutlich reduziert werden. Weiterhin zeigt sich, dass der Energieeintrag, der notwendig ist um den Erstarrungsbeginn um einen festen Betrag zu reduzieren, bei Suspensionen mit Fließmittel deutlich reduziert ist.
Auf Grundlage der Beobachtungen an Zementsuspensionen wird der Einfluss von Ultraschall in einen dispergierenden und einen beschleunigenden Effekt unterteilt. Bei hohen w/z-Werten dominiert der dispergierende Einfluss von Ultraschall und der Erstarrungsbeginn wird moderat verkürzt. Bei niedrigeren w/z-Werten der Zementsuspension, dominiert der beschleunigende Effekt wobei kein oder sogar ein negativer Einfluss auf die Verarbeitungseigenschaften beobachtet werden kann.
Im nächsten Schritt werden die Untersuchungen auf den Betonmaßstab mit Hilfe einer Technikumsanlage erweitert und der Einfluss eines zweistufigen Mischens (also dem Herstellen einer Zementsuspension im ersten Schritt und dem darauffolgenden Vermischen mit der Gesteinskörnung im zweiten Schritt) mit Ultraschall auf die Frisch- und Festbetoneigenschaften betrachtet. Durch die Anlagentechnik, die mit der Beschallung größerer Mengen Zementsuspension einhergeht, kommen weitere Einflussfaktoren auf die Zementsuspension hinzu (z. B. Pumpgeschwindigkeit, Temperatur, Druck). Im Rahmen der Untersuchungen wurde eine Betonrezeptur mit und ohne Ultraschall hergestellt und die Frisch- und Festbetoneigenschaften verglichen. Darüber hinaus wurde ein umfangreiches Untersuchungsprogramm zur Ermittlung wesentlicher Dauerhaftigkeitsparameter durchgeführt. Aufbauend auf den Erfahrungen mit der Technikumsanlage wurde das Ultraschall-Vormischsystem in mehreren Stufen weiterentwickelt und abschließend in einem Betonwerk zur Betonproduktion verwendet.
Die Untersuchungen am Beton zeigen eine deutliche Steigerung der Frühdruckfestigkeiten des Portlandzementbetons. Hierbei kann die zum Entschalen von Betonbauteilen notwendige Druckfestigkeit von 15 MPa deutlich früher erreicht werden. Das Ausbreitmaß der Betone (w/z-Wert = 0,47) wird infolge der Beschallung leicht reduziert, was sich mit den Ergebnissen aus den Untersuchungen an reinen Zementsuspensionen deckt. Bei Applikation eines Überdruckes in der Beschallkammer oder einer Kühlung der Suspension während der Beschallung, kann das Ausbreitmaß leicht gesteigert werden. Allerdings werden die hohen Frühdruckfestigkeiten der ungekühlten beziehungsweise drucklosen Variante nicht mehr erreicht.
In den Untersuchungen kann gezeigt werden, dass das Potential durch die Ultraschall-Beschleunigung genutzt werden kann, um entweder die Festigkeitsklasse des Zementes leitungsneutral zu reduzieren (von CEM I 52,5 R auf CEM I 42,5 R) oder eine 4-stündige Wärmebehandlung vollständig zu substituieren. Die Dauerhaftigkeit der Betone wird dabei nicht negativ beeinflusst. In den Untersuchungen zum Sulfat-, Karbonatisierung-, Chlorideindring- oder Frost/Tauwiderstand kann weder ein positiver noch ein negativer Einfluss durch die Beschallung abgeleitet werden. Ebenso kann in einer Untersuchung zur Alkali-Kieselsäure-Reaktion kein negativer Einfluss durch die Ultraschallbehandlung beobachtet werden.
In den darauf aufbauenden Untersuchungen wird die Anlagentechnik weiterentwickelt, um die Ultraschallbehandlung stärker an eine reale Betonproduktion anzupassen. In der ersten Iterationsstufe wird das in den Betonuntersuchungen verwendete Anlagenkonzept 1 modifiziert (von der In-line-Beschallung zur Batch-Beschallung) und als Analgenkonzept 2 für weitere Untersuchungen genutzt. Hierbei wird eine neue Betonrezeptur mit höherem w/z-Wert (0,52) verwendet, wobei die Druckfestigkeiten ebenfalls deutlich gesteigert werden können. Im Gegensatz zum ersten Beton, wird das Ausbreitmaß dieser Betonzusammensetzung gesteigert, was zur Reduktion von Fließmittel genutzt wird. Dies deckt sich ebenfalls mit den Beobachtungen an reinen Portlandzementsuspensionen, wo eine deutliche Verbesserung der Fließfähigkeit bei höheren w/z-Werten beschrieben wird.
Für diese Betonrezeptur wird ein Vergleich mit einem kommerziell erhältlichen Erhärtungsbeschleuniger (synthetische C-S-H-Keime) angestellt. Hierbei zeigt sich, dass die Beschleunigungswirkung beider Technologien vergleichbar ist. Eine Kombination beider Technologien führt zu einer weiteren deutlichen Steigerung der Frühfestigkeiten, so dass hier von einem synergistischen Effekt ausgegangen werden kann.
In der letzten Iterationsstufe, dem Anlagenkonzept 3, wird beschrieben, wie das Mischsystem im Rahmen einer universitären Ausgründung signifikant weiterentwickelt wird und erstmals in einem Betonwerk zur Betonproduktion verwendet wird. Bei den Überlegungen zur Weiterentwicklung des Ultraschall-Mischsystems wird der Fokus auf die Praktikabilität gelegt und gezeigt, dass das ultraschallgestütze Mischsystem die Druckfestigkeitsentwicklung auch im Werksmaßstab deutlich beschleunigen kann. Damit ist die Voraussetzung für eine ökologisch nachhaltige Optimierung eines Fertigteilbetons unter realen Produktionsbedingungen geschaffen worden.
In kalten und gemäßigten Klimazonen kann Beton einem kombinierten Frost-Tausalz-Angriff ausgesetzt sein, der zu Schäden in Form von Abwitterungen führen kann. Daher wurden zahlreiche Prüfverfahren entwickelt, um die Widerstandsfähigkeit von Betonzusammensetzungen gegen diese Art des Angriffs zu bestimmen. Diese Tests simulieren in der Regel einen starken Angriff mit hohen Sättigungsgraden, wie z. B. bei Betonfahrbahnen. Es gibt nur sehr wenige Ansätze für die Prüfung des Widerstands von Betonen, die nur einem mittleren Sättigungsgrad ausgesetzt sind, da solche Betonelemente in der Regel keine nennenswerten Abwitterungen aufweisen. Die zunehmende Verwendung von klinkereffizienten Zementen könnte sich jedoch in gewissem Maße auf den Frost-Tausalz-Widerstand solcher Betonelemente auswirken. Um eine angemessene Dauerhaftigkeit zu gewährleisten ist es daher wünschenswert, ihre Leistungsfähigkeit in einem tatsächlichen Prüfverfahren zu ermitteln, anstatt sich auf Erfahrungswerte zu verlassen. Daher wurden Ansätze für abgeschwächte Prüfverfahren entwickelt, die auf dem Slab-Test bzw. dem CDF-Test beruhen.
In der vorliegenden Studie wurde der Einfluss der Klinkerzusammensetzung sowie der Sulfatträgerart auf die Leistungsfähigkeit eines Spritzzementes untersucht. Um eine Untersulfatisierung im System mit einen Aluminiumsulfat / -hydroxid Beschleuniger zu vermeiden, sollte ein anhydritbasierter Sulfatträger eingesetzt werden. Dies führt zu einer besseren Festigkeitsentwicklung im jungen Alter.
Die Tragfähigkeit von Nägeln und Nagelverbindungen im Holzbau war lange Zeit ausschließlich über Tabellen, die auf experimentellen Untersuchungen basierten, geregelt. In den letzten 100 Jahren untersuchten unterschiedliche Forscher das Last-Verformungsverhalten dieser Verbindungen und entwickelten Modelle, mit denen auf Grundlage von analytischen Gleichungen die Tragfähigkeit und das Verformungsverhalten von Nägeln berechnet werden kann. Die zunächst in Not- und Sparkonstruktion eingesetzten Nägel werden heutzutage vor allem bei Tafelelementen verwendet. Im Bestand finden sich aber auch zahlreiche, teils weit gespannte Fachwerkkonstruktionen. In dem folgenden Beitrag werden die Erforschung und Entwicklung der Tragfähigkeit sowie des Verformungsverhaltens von genagelten Verbindungen detailliert und strukturiert erläutert. Die zugehörigen Meilensteine werden genauer betrachtet. Über unterschiedliche Methoden für die Bestimmung der Tragfähigkeit sowie mechanische Phänomene, die erst nach und nach entdeckt wurden, können in der aktuellen Normung sehr individuelle Verbindungen nachgewiesen und deren Verhalten beschrieben werden. Tabellen und Grafiken verdeutlichen die einzelnen Meilensteine der geschichtlichen Entwicklung und vergleichen konkret die normativen Regelungen seit Beginn der Einführung des Nagels in den Ingenieurholzbau in Deutschland. Hierbei kann gezeigt werden, dass einige Definitionen seit 1933 bis heute noch ihre Gültigkeit behalten.
Der Nagel als tragendes Holzverbindungsmittel ist heute gut bekannt. Doch noch vor 100 Jahren war das anders: sein statisch konstruktiver Gebrauch war verboten. Das änderte sich mit Beginn dessen Erforschung Ende der 1920er Jahre. Seit 1933 ist der Nagel Bestandteil der deutschen Regelwerke und findet seitdem breite Verwendung. Über weite Teile des 20. Jahrhunderts diente er in Not- und Sparkonstruktionen wie Brett- und Bohlenbindern als hocheffizientes Verbindungsmittel der Wahl. Diese materialsparenden Tragwerke waren bei der periodisch im-mer wiederkehrenden Ressourcenknappheit sehr gefragt und sind ein wichtiger Bestandteil der Konstruktionsgeschichte des Holzbaus. In dem folgenden Beitrag wird die Erforschung des Na-geltragverhaltens und die einhergehende fortlaufende Normierung behandelt. Die Errungen-schaften einzelner Forschungsvorhaben werden vorgestellt. Anhand eines Zeitstrahls werden Zusammenhänge zwischen Forschung und Normung gezeigt. Tabellen und Grafiken verdeutli-chen die Änderungen innerhalb der Normen von der ersten DIN 1052 im Jahr 1933 über die erste eigenständige Holzbaunorm in der DDR, der TGL 112-0730, aus 1963 bis zur DIN 1052- 1988. Dabei wird immer Bezug zum derzeitigen Entwurf des Eurocode 5 genommen. Allgemein zeigt sich, dass ein Großteil der heutigen Kenntnisse immer noch auf die Grundlagenforschung der 1930er Jahre zurückgeht.
Materialsparende Holzkonstruktionen, die insbesondere während der Kriegs- und Nachkriegszeit im 20. Jahrhundert entwickelt und optimiert wurden, erlangen aktuell aus konstruktionshistorischer Sicht, aber auch aus ökonomischer Sicht erneut Interesse. Der vorliegende Beitrag gibt einen Überblick angefangen von den ersten Konstruktionen Ende der 1920er Jahre bis hin zu Typenbindern der DDR, die noch bis 1990 über Landwirtschaftsbauten errichtet wurden und heute oft als Tragkonstruktionen für Photovoltaikanlagen weiterverwendet werden. Der Fokus liegt auf der chronologischen Vorstellung ausgewählter Konstruktionsweisen für Hallen- und Hausdächer unterschieden nach Fachwerk- und Vollwandbindern. Sowohl die verantwortlichen Ingenieure und deren Herkunft, sowie wesentliche Anwendungsfelder und Beispielbauten kommen in der Überblicksdarstellung zur Sprache. Eine wesentliche Erkenntnis ist die im Betrachtungszeitraum 1930 bis 1990 zu verzeichnende Reduzierung einer Vielzahl genagelter Spar- hin zu Typenkonstruktionen, die im wesentlichen äußerst materialeffiziente Fachwerkbinder für Satteldächer hervorbrachte.
Inhaltlich beschäftigt sich die Arbeit, die im Rahmen des Promotionsstudiengangs Kunst und Gestaltung an der Bauhaus-Universität entstand, mit der Erforschung sozio-interaktiver Potentiale der Videotelefonie im Kontext von Nähe und Verbundenheit mit Fokus auf Eigenbild, Embodiment sowie den Rederechtswechsel.
Die Videotelefonie als Kommunikationsform hat sich – und darauf deuten die Erfahrungen der Co- vid-19-Pandemie hin – im lebensweltlichen Alltag der Menschen etabliert und wird dort in naher Zukunft nicht mehr wegzudenken sein. Auf Basis ihrer Möglichkeiten und Errungenschaften ist es inzwischen Realität und Lebenswirklichkeit, dass die Kommunikation sowohl im privaten als auch im geschäftlichen Kontext mittels verschiedenster Kanäle stattfindet. Der Videotelefonie kommt hierbei als solche nicht nur eine tragende Funktion, sondern auch eine herausragende Rolle bei der vermeintlichen Reproduktion der Face-to-Face-Kommunikation im digitalen Raum zu und wird wie selbstverständlich zum zwischenmenschlichen Austausch genutzt. Just an diesem Punkt knüpft die Forschungsarbeit an. Zentral stand dabei das Vorhaben einer dezidierte Untersuchung des Forschungsgegenstandes Videotelefonie, sowohl aus Kultur- als auch Technikhistorischer, aber auch Medien-, Wahrnehmungs- wie Kommunikations- theoretischer Perspektive, indem analytische und phänosemiotische Perspektiven miteinander in Beziehung gesetzt werden (z.B. Wahrnehmungsbedingungen, Interaktionsmerkmale, realisierte Kommunikationsprozesse etc.). Damit verbundenes, wünschenswertes Ziel war es, eine möglichst zeitgemäße wie relevante Forschungsfrage zu adressieren, die neben den kulturellen Technisierungs- und Mediatisierungstendenzen in institutionellen und privaten Milieus ebenfalls eine conditio sine qua non der pandemischen (Massen-)Kommunikation entwirft.
Die Arbeit ist damit vor allem im Bereich des Produkt- und Interactiondesigns zu verorten. Darüber hinaus hatte sie das Ziel der Darlegung und Begründung der Videotelefonie als eigenständige Kommunikationsform, welche durch eigene, kommunikative Besonderheiten, die sich in ihrer jeweiligen Ingebrauchnahme sowie durch spezielle Wahrnehmungsbedingungen äußern, und die die Videotelefonie als »Rederechtswechselmedium« avant la lettre konsolidieren, gekennzeichnet ist. Dabei sollte der Beweis erbracht werden, dass die Videotelefonie nicht als Schwundstufe einer Kommunikation Face-to-Face, sondern als ein eigenständiges Mediatisierungs- und Kommunikationsereignis zu verstehen sei. Und eben nicht als eine beliebige – sich linear vom Telefon ausgehende – entwickelte Form der audio-visuellen Fernkommunikation darstellt, sondern die gestalterische (Bewegtbild-)Technizität ein eigenständiges Funktionsmaß offeriert, welches wiederum ein innovatives Kommunikationsmilieu im Kontext einer Rederechtswechsel-Medialität stabilisiert.
The theme of this project is the colonial history of the natural rubber industry. It focuses on two species of tropical plants: Ficus elastica and Hevea brasiliensis. Geographically their native habitat is very distant from each other, but they connect by European influence through the exploitation of latex.
The many forms and outcomes from this work manifest the attempt of the artist to create an association between a common household plant, the origin of its name, and the source of rubber. As a ghostly connective tissue, the latex surrounds reconstructed history, old prints, live plants, and drawings, accepting the material's capacity to both erase and preserve the past.
Die besondere Aggressivität von hochkonzentrierten Magnesiumsulfatlösungen bei Einwirkung auf Beton ist seit vielen Jahrzehnten bekannt. Neben dem Sulfat greift zusätzlich auch das Magnesium den Zementstein an. Bei hohen Lösungskonzentrationen nimmt der Magnesiumangriff gegenüber dem Sulfatangriff sogar eine dominante Rolle ein. Magnesiumgehalte unter 300 mg/l im Grundwasser gelten allerdings bislang als nicht angreifend. In Auslagerungs- und Laborversuchen wurde jedoch festgestellt, dass auch bei praxisrelevanten Magnesium- (<300 mg/l) und Sulfatgehalten (1.500 mg/l) das Magnesium zu einer deutlichen Verschärfung des Sulfatangriffes bei niedrigen Temperaturen führte. Diese Verschärfung trat bei Mörteln und Betonen auf, bei denen der erhöhte Sulfatwiderstand durch einen teilweisen Zementersatz mit 20 % Flugasche zu einem CEM II/A-LL erreicht werden sollte, gemäß der Flugascheregelung nach EN 206-1/DIN 1045-2.
Bei einem teilweisen Zementersatz durch 30 % Flugasche konnte auch in magnesiumhaltigen Sulfatlösungen eine deutliche Verbesserung des Sulfatwiderstandes erreicht werden. Mörtel mit HS-Zement als Bindemittel wiesen keinerlei Schäden auf. Schadensverursachend war eine Kombination mehrerer Einflüsse. Zum einen wurde der Sulfatwiderstand des Zement-Flugasche-Systems durch die unzureichende Reaktion der Flugasche infolge der niedrigen Lagerungstemperatur geschwächt. Zum anderen konnte durch die Einwirkung des Magnesiums in der Randzone vermutlich eine Destabilisierung der C-S-H-Phasen erfolgen, wodurch die Thaumasitbildung an dieser Stelle forciert wurde. Zusätzlich wurde durch den Portlanditverbrauch und die pH-Wert-Absenkung in der Randzone die puzzolanische Reaktion der Flugasche behindert.
Der Nachbehandlung eines Fahrbahndeckenbetons kommt zum Erzielen eines hohen Frost-Tausalz-Widerstandes der fertigen Betondecke eine besondere Bedeutung zu. Bei der Waschbetonbauweise erfolgt die Nachbehandlung in mehreren Schritten. Eine erste Nachbehandlung gewährleistet den Verdunstungsschutz des Betons bis zum Zeitpunkt des Ausbürstens des verzögerten Oberflächenmörtels. Daran schließt sich die zweite Nachbehandlung an, in der Regel durch Aufsprühen eines flüssigen Nachbehandlungsmittels.
Der zweite Nachbehandlungsschritt ist entscheidend für den Frost-Tausalz-Widerstand der Betondecke. Im Rahmen eines Forschungsprojektes wurde daher untersucht, inwiefern durch eine Optimierung der zweiten Nachbehandlung der Frost-Tausalz-Widerstand von Waschbetonoberflächen erhöht werden kann, insbesondere bei Verwendung hüttensandhaltiger Zemente. Schon durch eine einmalige Nassnachbehandlung wurde eine deutlich höherer Widerstand der Waschbetons gegen Frost-Tausalz-Angriff erzielt.
Gemäß dem Regelwerk für Betonstraßen muss für zweischichtige Betonfahrbahndecken derselbe Zement in Ober- und Unterbeton verwendet werden. Weiterhin ist die Anrechnung von Flugasche auf den w/z-Wert nicht gestattet. Durch eine flexiblere Handhabung der Bindemittel könnten sich Vorteile für die Betonbauweise ergeben. So könnte z.B. der stärker durch Frost beanspruchte Oberbeton mit CEM I hergestellt werden, während Zemente mit höheren Hüttensandgehalten nur im Unterbeton angewendet werden. Im Unterbeton könnten dann Gesteinskörnungen eingesetzt werden, die in einer herkömmlichen CEM I-Rezeptur als AKR-kritisch eingestuft würden.
Anhand von AKR-Performance-Prüfungen konnte die hohe Wirksamkeit hüttensandhaltiger Zemente sowie auch von Flugasche auf die AKR-Verminderung aufgezeigt werden. Schon mit einem CEM II/B-S wurden AKR-kritische Rezepturen in den unkritischen Bereich verschoben. Der Frost-Tausalz-Widerstand der Betone wurde bei hohen Gehalten an Hüttensand bzw. Hüttensand + Flugasche verringert, bewegte sich aber in jedem Fall noch im günstigen Bereich. Um eine Beeinträchtigung der baupraktischen Umsetzbarkeit zu vermeiden, sollte sich die Festigkeitsentwicklung von Ober- und Unterbeton im jungen Alter nicht zu stark unterscheiden. Modellberechnungen zur Festlegung einer Mindestfestigkeit für die frühe Belastung sind derzeit noch in Bearbeitung.
The aim of this study was to investigate the optimization of the strength development of quaternary cements with 50 % clinker by a variation of the particle size distribution of the components GGBFS, fly ash and limestone powder.
By balancing the overall PSD of the cement by using unprocessed fly ash and coarse limestone powder in combination with a very fine GGBFS, the water demand of the resulting quaternary cements remained unaltered, while the compressive strength of the cements was increased significantly after 7d, 28 and 56d. As can be expected, the quaternary cement with 30 wt.% of the fine slag exhibited a stronger strength increase (about 18 % after 28 d) than the cements with only 20 wt.% slag (about 10% after 28d).
Für den Frost-Tausalz-Angriff auf Beton existiert eine Reihe von Schadenstheorien. Drei aktuelle Theorien nehmen für sich in Anspruch, den Schadensmechanismus und insbesondere den Einfluss niedrig konzentrierter Tausalzlösungen auf den Schädigungsgrad gut abbilden zu können. Die Glue Spall-Theorie sowie die Cryogenic Suction-Theorie bieten plausible Ansätze. In Untersuchungen konnten einige Modellvorstellungen bestätigt werden, insbesondere der Prozess des kryogenen Saugens. Ob dieser Vorgang oder die mechanische Glue Spall-Belastung tatsächlich schadensauslösend sind, kann anhand der Untersuchungen jedoch noch nicht zweifelsfrei bestätigt oder ausgeschlossen werden. Die Brine Rejection-Theorie zeigt wichtige Prozesse auf, die für die Schädigung bei einem Frost-Tausalz-Angriff relevant sein können. Als alleinstehendes Modell ist es eher nicht geeignet.
Ausgehend von der Bemerkung des Philosophen Jacques Derrida, dass Erbe immer auch eine Aufgabe sei, widmet sich der dritte Band der Schriftenreihe des Graduiertenkollegs „Identität und Erbe“ den sozialen und kulturellen Praktiken der Bezugnahme auf Vergangenheit(en) und Identität(en). Mit einem (kulturellen) Erbe soll und muss etwas getan werden, um es überhaupt hervorzubringen. Es konstituiert sich erst im Akt des (Nicht-)Erbens, das heißt im Wechselverhältnis mit den mit und an ihm ausgeführten Praktiken. Gleichwohl ermöglicht erst deren Verbindung mit den materiellen Überresten und Überlieferungen des Erbes eine Aneignung oder Ablehnung der Vergangenheit sowie die Fort- und Umschreibung eines bereits bestehenden Erbes. Diese Vorgänge sind nicht willkürlicher Natur: Die Möglichkeiten zur Interpretation und Deutung werden durch die sozialen, politischen, kulturellen, ökonomischen und technischen Bedingungen der Gegenwart sowie durch die Geschichte und Materialität des Erbes beschränkt, erweitert und gelenkt. Erbe und Erbeprozesse müssen deshalb notwendigerweise miteinander in Beziehung gesetzt werden.
Mit Beiträgen von Simone Bogner und Michael Karpf, Stefan Willer, Giorgia Aquilar, Jörg Springer, Bernd Euler-Rolle, Elizabeth Sikiaridi und Frans Vogelaar, Verena von Beckerath, Alexandra Klei, Oluwafunminiyi Raheem, Ronny Grundig, Özge Sezer, Anna Kutkina, Inge Manka, Karolina Hettchen und Monique Jüttner sowie Julian Blunk.
The reduction of the cement clinker content is an important prerequisite for the improvement of the CO2-footprint of concrete. Nevertheless, the durability of such concretes must be sufficient to guarantee a satisfactory service life of structures. Salt frost scaling resistance is a critical factor in this regard, as it is often diminished at increased clinker substitution rates. Furthermore, only insufficient long-term experience for such concretes exists. A high salt frost scaling resistance thus cannot be achieved by applying only descriptive criteria, such as the concrete composition. It is therefore to be expected, that in the long term a performance based service life prediction will replace the descriptive concept.
To achieve the important goal of clinker reduction for concretes also in cold and temperate climates it is important to understand the underlying mechanisms for salt frost scaling. However, conflicting damage theories dominate the current State of the Art. It was consequently derived as the goal of this thesis to evaluate existing damage theories and to examine them experimentally. It was found that only two theories have the potential to describe the salt frost attack satisfactorily – the glue spall theory and the cryogenic suction theory.
The glue spall theory attributes the surface scaling to the interaction of an external ice layer with the concrete surface. Only when moderate amounts of deicing salt are present in the test solution the resulting mechanical properties of the ice can cause scaling. However, the results in this thesis indicate that severe scaling also occurs at deicing salt levels, at which the ice is much too soft to damage concrete. Thus, the inability of the glue spall theory to account for all aspects of salt frost scaling was shown.
The cryogenic suction theory is based on the eutectic behavior of salt solutions, which consist of two phases – water ice and liquid brine – between the freezing point and the eutectic temperature. The liquid brine acts as an additional moisture reservoir, which facilitates the growth of ice lenses in the surface layer of the concrete. The experiments in this thesis confirmed, that the ice formation in hardened cement paste increases due to the suction of brine at sub-zero temperatures. The extent of additional ice formation was influenced mainly by the porosity and by the chloride binding capacity of the hardened cement paste.
Consequently, the cryogenic suction theory plausibly describes the actual generation of scaling, but it has to be expanded by some crucial aspects to represent the salt frost scaling attack completely. The most important aspect is the intensive saturation process, which is ascribed to the so-called micro ice lens pump. Therefore a combined damage theory was proposed, which considers multiple saturation processes. Important aspects of this combined theory were confirmed experimentally.
As a result, the combined damage theory constitutes a good basis to understand the salt frost scaling attack on concrete on a fundamental level. Furthermore, a new approach was identified, to account for the reduced salt frost scaling resistance of concretes with reduced clinker content.
Wer von Erbe im Zusammenhang mit Identität spricht, verspricht sich und Anderen »Kontinuität« und »Stabilität«. Das Versprechen hält indes nur so lange, wie sich Menschen auf die damit verbundenen Erzählungen einlassen. Da diese zunehmend hinterfragt werden und der Begriff »Identität« im politischen Raum zu einer umkämpften Kategorie avanciert ist, werden auch die lange gehegten, gewohnten »Konstruktionen« instabil. Dies zeigt sich insbesondere in Momenten des Konflikts, der übergriffigen Inanspruchnahme und des Verlusts. Der Titel »Instabile Konstruktionen« verweist zugleich auf die beiden Kernbereiche des Kollegs: einerseits auf Architektur und Denkmalpflege, in denen der Begriff Konstruktion sich auf bauliche Manifestationen bezieht, von denen eine gewisse Haltbarkeit und Dauerhaftigkeit erwartet wird und andererseits auf die Kultur- und Sozialwissenschaften, wo Konstruktion die soziale Herstellung symbolischer Sinnwelten meint. Ins Zentrum rückt so der Anspruch, die materielle Umwelt im Wechselverhältnis zu ihrer sozialen Gemachtheit zu verstehen.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
What you are about to read is the very last issue of the ZMK. Since our overall research enterprise, the IKKM, has to cease all of its activities due to the end of its twelve years’ funding by the German federal government, the ZMK will also come to an end. Its last topic, Schalten und Walten has also been the subject of the concluding biannual conference of the IKKM, and we hope it will be a fitting topic to resume the research of the IKKM on Operative Ontologies.
Although this final issue is in English, we decided to leave its title in German: Schalten und Walten. As it is the case for the name of the IKKM, (Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie), the term seems untranslatable to us, not only for the poetic reason of the rhyming sound of the words. Switching and Ruling might be accepted as English versions, but quite an unbridgeable difference remains. In German, Schalten und Walten is a rather common and quite widespread idiom that can be found in everyday life. Whoever, the idiom stipulates, is able to execute Schalten und Walten has the power to act, has freedom of decision and power of disposition.
Although both terms are mentioned together and belong together in the German expression Schalten und Walten, they are nevertheless complements to each other. They both refer to the exercise and existence of domination, disposal or power, but they nonetheless designate two quite different modes of being. Schalten is not so much sheer command over something, but government or management. It is linked to control, intervention and change, in short: it is operative and goes along with distinctive measures and cause-and-effect relations. The English equivalent switching reflects this more or less adequately.
Schwerpunkt Blockchain
(2019)
Neue Medien rufen regelmäßig neue Utopien auf den Plan, die sich untereinander stark ähneln können. Regelmäßig bekommen wir eröffnet, dass, von den Uninformierten noch unbemerkt, eine Medienrevolution im Gange sei, die das Potenzial habe, die Welt grundlegend zu verändern. Diese Erwartungen gelten meistens einem in jeder Hinsicht umwälzenden Zuwachs an Gleichheit und Freiheit Aller. Meistens enden sie jedoch dann in der Feststellung eines Zuwachses an Geld und Macht in den Händen Weniger. So war es beim Radio, beim Video, beim Internet, bei den »sozialen Medien«. Und so ist es auch heute wieder. Eine Medienrevolution finde statt, so hört und liest man, die sich nicht auf kalifornischen Theaterbühnen oder auf Konsumentenelektronik-Messen wie der IFA in Gestalt neuer Gadgets öffentlich präsentiert. Sie spielt sich jenseits der Terminals im unsichtbaren Reich der Vernetzung ab und betrifft subkutan die mediale Instituiertheit der Gesellschaft selbst: die Blockchain.
Schwerpunkt Ontography
(2019)
Research in cultural techniques and media philosophy owe their existence to the fading and passing, the becoming impossible, and finally even the ban on ontology. Just like media history and media theory, they even represent a form of processing of this ending of ontology and a reaction to it. The concept of »Being«, the singular subject of all ontology, taken as unchangeable and as residing somewhere behind or even above all its realizations, concretions and manifestations in the materially existing world, had already been strongly suspected by positivism, vitalism and phenomenology, but had not yet been stripped off. Existential philosophy then ventured further, until finally a number of diverse schools of thought like Foucault’s history of knowledge or Derrida’s deconstruction, Quine’s logic, Heinz von Foerster’s constructivism, Luhmann’s functionalism, or process philosophy in the aftermath of Whitehead could definitively reject ontology with highly effective—albeit strongly diverging—reasons and arguments. These theories and philosophical schools did not agree on anything but on the rejection of ontology. Accordingly, the »ontological difference«, which provided that one could not speak about »Being« in the same way as about an existing being, had to be reconsidered. One solution was to project the ontological difference back into the multitude and materiality of the existing and to provide it with a new language of description and to read it against the backdrop of new types of questions. The offer that media theory and history, the cultural techniques approach, and media philosophy were able to make—successfully—in this situation was essentially a reappraisal not only of technics (»Die Technik«) in the ontological sense, but of technologies and techniques, of practices and their aesthetics. To use Heideggers terms, the focus was now set on »switching« (»Schalten«) rather than on »ruling« (»Walten«). The ban on ontology was nonetheless fully respected, and in cultural and media studies the observation of techniques and technologies, means and processes of the incessant self-differentiation of anything that is ruled out the persistent stunning standstill vis-à-vis the great ontological difference of Being and the existing beings.
Am 22. Januar 2017 wurde die Beraterin des amerikanischen Präsidenten, Kellyanne Conway, in einem Meet the Press-Interview gefragt, warum der Pressesprecher des Präsidenten kurz zuvor eine »nachweisliche Lüge« bezüglich der Zahl der in Washington zur Amtseinführung Trumps zusammengekommenen Menschen geäußert habe. Conway antwortete: »Our press secretary, Sean Spicer, gave alternative facts […]«. Das war nicht nur eine Manifestation oder Überbietung von Orwellianischem »Newspeak«. Es war ein Moment, in dem sich ein Bruch mit dem in der westlichen Kultur bislang allgemein anerkannten Paradigma, worin die Faktizität von Daten – seien es Bilder, Zahlen, Aussagen – gründet, offen aussprach. Es war sozusagen ein ironischer Moment der Wahrheit – ironisch, weil dieser Moment einen Höhepunkt des »Post-Truth«-Zeitalters darstellte.
Doch welche Wahrheit? Dass es dazu unterschiedliche und zum Teil kontroverse Auffassungen gibt, zeigen die verschiedenen Deutungen und Instrumentalisierungen, die dieser Moment der Wahrheit in der Folge erfuhr. Der Debattenteil der letzten Ausgabe der Zeitschrift für Medien- und Kulturforschung hat bereits einen Teil dieser Kontroverse um die Deutung des Phänomens von »fake news« und »alternative facts« dokumentiert. Der Schwerpunkt der vorliegenden Ausgabe setzt diese Kontroverse fort, und zwar deswegen, weil die Kultur- und Medienwissenschaft in mehrfacher Weise vom Ereignis »alternativer Fakten« und den sich anschließenden Kontroversen um ihre Bewertung herausgefordert wird. Sehr schnell wurde nämlich klar, dass die Antwort auf die Frage, welche Wahrheit sich in jenem Moment kundtat, als die Welt aus dem (sich dabei merklich verziehenden) Munde von Kellyanne Conway vom Wunder der Existenz alternativer Fakten erfuhr, nicht einfach nur banal war. So banal wie die Tatsache, dass ein infantiler Narzissmus zur Richtschnur für die Konstruktion der offiziellen amerikanischen Regierungsversion von Wirklichkeit geworden ist, ein Narzissmus, der das, was ist (und wofür es zureichende Gründe gibt), zugunsten dessen verwirft, von dem er möchte, dass es stattdessen sei.
Focus Mediocene
(2018)
This issue, following an international conference held at the IKKM in September 2017, is devoted to what may very well be the broadest media-related topic possible, even if it is accessible only through exemplary and experimental approaches: Under the title of the »Mediocene«, it presents contributions which discuss the operations and functions that intertwine media and Planet Earth. The specific relation of media and Planet Earth likely found its most striking and iconic formula in the images of the earth from outer space in 1968/69, showing the earth—according to contemporaneous descriptions—in its brilliance and splendor as the »Blue Marble«, but also in its fragility and desperate loneliness against the black backdrop of the cosmic void. Not only the creation but also the incredible distribution of this image across the globe was already at the time clearly recognized as a media eff ect. In light of space fl ight and television technology, which had expanded the reach of observation, communication, and measurement beyond both the surface of the Earth and its atmosphere, it also became clearly evident that the Planet had been a product of the early telescope by the use of which Galileo found the visual proof for the Copernican world model. Nevertheless, the »Blue Marble« image of the planet conceives of Earth not only as a celestial body, but also as a global, ecological, and economic system. Satellite and spacecraft technology and imaging continue to move beyond Earth’s orbit even as they enable precise, small-scale procedures of navigation and observation on the surface of the planet itself. These instruments of satellite navigation aff ect practices like agriculture, urban planning, and political decision-making. Most recently, three-dimensional images featuring the planet’s surface (generated from space by Synthetic Aperture Radar) or pictures from space probes have been cir-culating on the Web, altering politico-geographical practices and popular and scientifi c knowledge of the cosmos. Today, media not only participate in the shaping of the planet, but also take place on a planetary scale. Communication systems have been installed that operate all over the globe.
Die vorliegende Ausgabe der Zeitschrift für Medien- und Kulturforschung verdankt sich einem Experiment. In Experimenten, wenigstens soweit es sich zunächst um künstlerische und philosophische Prozeduren handelt, geht es, frei nach Jean-François Lyotard, darum, herauszufinden, welchen Regeln die Verfahren selbst folgen, während man sie bereits anwendet, während man also danach sucht, welchen Regeln man folgt. In eben diesem Sinne bemüht sich das vorliegende Heft um eine Klärung des Verfahrens »operativer Ontologien«. Während in der Kunst das Werk selbst als eine dynamische Instanz der experimentellen Prozedur gelten kann, haben die Herausgeber hier jedoch einen etwas anderen Weg eingeschlagen, indem sie nämlich verschiedene Texte in einem experimentellen Bezugsrahmen angefragt – und wunderbarerweise auch erhalten haben. Wunderbarerweise deshalb, weil sowohl in Philosophie und Kunst als auch in den Wissenschaften jedes Experiment nicht nur mit der Freude am Aufbauen und Einstellen der Apparaturen, Instrumente und Dispositive, am Basteln also, sondern auch mit erheblicher Zumutung und vielleicht einem kleinen Wagnis verbunden ist. Zudem ist zum Zeitpunkt seiner Unternehmung über seinen Ausgang noch nicht das Geringste bekannt. Im vorliegenden Fall, denn die Veröffentlichung ist selbstverständlich das eigentliche Experiment, wissen wir alle also bis jetzt nichts über den Ausgang.
Schwerpunkt Inkarnieren
(2017)
Der Themenschwerpunkt des vorliegenden Heftes der Zeitschrift für Medien- und Kulturforschung wird bestritten von Autoren, die der DFG-Forschergruppe »Medien und Mimesis« angehören, die an der Bauhaus-Universität Weimar angesiedelt, aber zusätzlich über die Universitäten Basel, Bielefeld, Bochum, München und Zürich verteilt ist. Die Forschergruppe untersucht Mimesis als Kulturtechnik vor dem Hintergrund aktueller Entwicklungen in der Medienforschung, die Praktiken und Operationsketten als vorgängig gegenüber den aus ihnen hervorgehenden Subjekt-Objekt-Dichotomien bzw. Subjekt-Werkzeug-Artefakt-Kausalitäten ansehen. Die Auffassung von Mimesis als einer vielgestaltigen Kulturtechnik geht über die in den Kultur- und Literaturwissenschaften ebenso wie in der Philosophie dominierende ästhetische und epistemische Betrachtung der Mimesis hinaus und stellt das geschichtsphilosophische Selbstverständnis der Moderne als eine grundlegend a-mimetische kulturelle und soziale Formation infrage. Mimesis und imitatio werden nicht länger in die Perspektive einer zu ü berwindenden Vorgeschichte der Idee des schöpferischen Menschen und seiner Werkherrschaft gestellt (Blumenberg). Anstatt die Mimesis in einen Gegensatz zur modernen Technik und der auf ihr beruhenden Zivilisation zu manövrieren und das konstruktivistische Selbstverständnis der Neuzeit kulturell zu verallgemeinern und absolut zu setzen, gehen die Projekte der Forschergruppe auf unterschiedlichen Feldern den seinsverändernden, transformatorischen Wirkungen medial gekoppelter mimetischer Praktiken und Verhaltensweisen zwischen dem 15. und dem 21. Jahrhundert nach. ...
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.
Schwerpunkt Sendung
(2015)
Auch die Zeitschrift für Medien- und Kulturforschung erreicht ihre Leserinnen und Leser als Sendung, als Postgut auf dem Wege der Zustellung nämlich. Wer immer sie liest, hat also mit der Sendung zu tun. Allein das schon ist ein Grund, sich mit der Sendung zu befassen. Und ein gewichtiger Grund dazu: Phänomen und Begriff der Sendung haben, das leuchtet schon intuitiv jeder Postkundin, jedem Radiohörer, jedem Gottesdienstbesucher und jeder Goethe-Leserin ein, eine enorme medienwissenschaftliche Relevanz. Als empirischen, kulturtechnischen Sachverhalt kann man die Sendung – also etwa diese Ausgabe der ZMK – physisch in Händen halten (oder auch nicht, wenn die Postsache nicht ankommt), annehmen oder zurückweisen, man kann sie technisch, etwa als Druck- und Redaktionserzeugnis herstellen, sie aufgeben und abholen, verwalten und organisieren, sie bewirtschaften – aber die Sendung lässt sich auch fühlen, verspüren und bemerken, erfüllen und verfehlen, kann bewegen und berühren oder eben unberührt lassen. Ganz real affiziert und attachiert sie, richtet aus und sendet selbst. Als medienphilosophisches Konzept genommen, besitzt die Sendung folglich das Potential zur Entfaltung komplexer Grundannahmen der Medientheorie und zugleich zu ihrer reduzierenden Bündelung und Einfassung. Sie verbindet und durchkreuzt ganz grundsätzlich das begrifflich sorgsam Getrennte, zum Beispiel das Heilige und das Profane, das Materielle und das Immaterielle, das Aktive und das Passive. Sie ist darin ein genuin medienwissenschaftlicher Leitbegriff, an dem sich die gesamte Breite dessen, was Medium sein kann, entfalten lässt, von der Religion bis zum Massenmedium, von der Politik bis zum Postboten, von der Infrastruktur bis zur Entrückung. Sie erzeugt zudem in all ihrer Materialität mannigfaltige paradoxe und reflexive Verläufe – die Sendung überhaupt zu denken, heißt deshalb nicht zuletzt, selber senden und gesandt werden.
Schwerpunkt Textil
(2015)
Textil: Der Titel des Schwerpunkts der vorliegenden Ausgabe der ZMK kann ein Ding, ein Material oder eine Eigenschaft bezeichnen. Als Eigenschaftswort spezifiziert textil indes nicht nur bestimmte Künste näher (den Begriff der textilen Kunst gibt es spätestens seit Gottfried Semper) und umfasst so die Weberei, die Stickerei, das Flechten, Knoten, Stricken, Häkeln, Wirken und vieles andere mehr (Semper zufolge auch die Anfänge der Baukunst), sondern neuerdings auch Medien. Die Rede von den »textilen Medien« zielt offenbar auf einen anderen Aspekt des Medienbegriffs als denjenigen, der von der Trias »Speichern, Übertragen, Verarbeiten« gebildet wird, nämlich auf das Material, nicht auf die Funktion. Nun kann man einerseits diesen Medienbegriff einfach, wie etwa im Bereich der Kunstgeschichte üblich, im Sinne der Materialität eines Bildträgers verstehen. Andererseits jedoch lenkt die Rede von den »textilen Medien«, indem sie die Materialität anstelle der Funktionalität betont, den Fokus auf eine spezifische Medialität des Textilen und darüber hinaus auf eine Medialität des Materials überhaupt. Eben darin liegt der Grund für die seit einigen Jahren zu beobachtende enorme Konjunktur des Textilen in so unterschiedlichen Bereichen wie der Kunst, der Kunstwissenschaft oder der Technik- und Sozialanthropologie. In der Kunstöffentlichkeit belegen eine Reihe von Ausstellungen diese Konjunktur, wie zum Beispiel »Kunst & Textil« in Wolfsburg, »Textiles: Open Letter« in Mönchengladbach, »Decorum. Tapis et Tapisseries d’Artistes« in Paris, »Soft Pictures« in Turin oder »To Open Eyes. Kunst und Textil vom Bauhaus bis heute« in Bielefeld. ...
Schwerpunkt Synchronisation
(2014)
Nichts ist so aktuell wie die Gegenwart; gegenwärtig sein aber heißt gleichzeitig sein mit etwas anderem, und diese Gleichzeitigkeit muss immer eigens durch geeignete Operationen der Übertragung, der Überbrückung, der Abstimmung und ihre Werkzeuge hergestellt werden. So schlicht erklärt sich die grundlegende und aktuelle Relevanz des Themas der Synchronisierung ebenso wie seine kulturtechnische und medienphilosophische Ausformung. Die aktuelle medientheoretische und medienhistorische Aufmerksamkeit für die Verfertigung der Gegenwart (deren wichtigste Operation diejenige der Synchronisierung ist), wie sie sich auch im Jahresthema 2012/2013 der Forschungen am Internationalen Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) niedergeschlagen hat, reagiert auf eine spezifische zeitphilosophische Spannungslage, die sich im Anschluss an die strukturale und poststrukturale sowie die systemtheoretische Differenztheorie einerseits und an eher empirische, phänomenale, aber auch technikhistorisch und -theoretisch relevante Sachverhalte andererseits ergeben hat. Den ersten Pol dieser Spannung bildet die Dekonstruktion der Präsenz, etwa, im Sinne Jacques Derridas, der Gleichzeitigkeit von Stimme und Ohr beim Sprechen, oder, im Sinne Deborah Eschs, der Live-Übertragung des Fernsehens. Den anderen Pol jedoch bilden die dennoch sich behauptenden phänomenalen und funktionalen Gleichzeitigkeitserfahrungen und -effekte. Sie umfassen etwa das Miterleben des Spielzuges im Sport, wie Hans Ulrich Gumbrecht es gefasst hat, und zahlreiche andere ästhetische, insbesondere erhabene Erfahrungen. Am anderen Ende der Skala gehören aber auch Prozesse wie die technische Einsteuerung und Abstimmung von Taktfrequenzen in Regelkreisen und Übertragungszusammenhängen zu den gültigen Formen effektiver Gleichzeitigkeit. Auch Verdichtungsvorgänge wie die mehr oder weniger instantane, ereignisbezogene wie ereignisförmige Bildung und Auflösung von Publika sind derlei relevante Präsenzeffekte. Die grundlegende Einsicht in die Gemachtheit und folglich Dekonstruierbarkeit der Gegenwart durch Synchronisierungs- und Desynchronisierungsoperationen jedenfalls widerstreitet nach medienwissenschaftlicher Überzeugung nicht ihrer Wirklichkeit im Sinne der Wirksamkeit – der lateinischen »actualitas«, als deren deutschsprachige Entsprechung die Scholastik des Mittelalters bei Meister Eckhart den Begriff der »Wirklichkeit« erst einführte.
Focus Producing Places
(2014)
Producing places is a twofold topic. It can refer to places as sites that produce something, that are productive, that have operations unfold, or actions happen, or objects emerge. Or it can refer to the fabrication of places as specific entities themselves. With the extended availability and practicability of digital positioning, locating, and tracking systems, it has become evident that places are not just there, but that they are generated, that they are subject to mediatechnological operations and effects. Nonetheless, and at the same time, the aspect of places as being productive has also attracted considerable attention. Furthermore, in either perspective, a media-theoretical challenge has come up. It invests two different threads within the realm of conceptualizing not only space, but precisely place under conditions of media, both of them leading way back into the evolution of media societies and cultural technologies.
Die zunehmende und sich zunehmend ausfächernde Rezeption der Akteur-Netzwerk-Theorie (ANT) in der deutschsprachigen Medientheorie ist als eine der interessantesten Konjunkturen der kulturwissenschaftlichen Medienforschung in den letzten Jahren bezeichnet worden. Zweifellos hängt diese Faszination mit dem Umstand zusammen, dass der Ansatz der ANT der deutschsprachigen Medienforschung einen Ausweg verspricht aus einer Situation, die lange geprägt war vom Gegensatz zwischen Soziologie und Technikmaterialismus oder, mit anderen Worten, vom aufreibenden Kampf um die letztbegründende Instanz des Sozialen oder des Technischen. Da, anders als zum Beispiel in Frankreich und England, hierzulande die Geisteswissenschaften, insbesondere die Literaturwissenschaft, eine wichtige Rolle bei der Entstehung der Medienwissenschaft gespielt haben, konnte dieser noch heute Disziplinen und Forscher voneinander trennende Dissens auch die Gestalt eines Streits um die letztbegründende Instanz des Sinns oder des Nichtsinns, des Hermeneutischen oder des Nichthermeneutischen annehmen. Dabei ist die Frage, ob technische Objekte vollständig sozial konstruiert sind oder das Soziale eine Fiktion ist, die von Techniken produziert wird; oder ob dieser Gegensatz selbst nur ein konstruierter ist, durchaus eine Frage, die auch die ANT im Laufe ihrer ebenfalls durch Querelen gekennzeichneten Geschichte beschäftigt hat. Während die ANT der deutschsprachigen Medienwissenschaft also einerseits ein Versprechen zu machen scheint, so droht sie der kulturwissenschaftlichen Medienforschung andererseits mit dem Verlust ihres ›Markenzeichens‹: der emphatisch betonten empirisch-transzendentalen Sonderrolle der Medien. Daher sieht sich die medienwissenschaftliche Forschung, zumindest soweit sie einen humanwissenschaftlichen Hintergrund hat, der ANT gegenüber zu einer »Gretchenfrage« herausgefordert: Wie hältst du es mit den Medien? Die Antwort fällt, wie könnte es anders sein, zweideutig aus.
Mit dem Thema der Medienanthropologie kehrt eine Fragestellung in den Fokus der ZMK zurück, diesmal als ausdrückliche, die von Anfang an zu den Schwerpunkten ihres wissenschaftlichen Programms gehört hat. In ihrer ersten Ausgabe bereits hat die ZMK sich damit befasst, die philosophische Leitfrage nach dem Menschen medientheoretisch und kulturtechnisch neu zu grundieren. Eine solche Wendung ist daran erkennbar, dass sie von der Frage, was der Mensch sei, umstellt auf Fragen nach dem Werden und Gemachtwerden des Menschen, nach seiner Hominisierung und ihren Diskursen, ihren Verfahren, Werkzeugen und Orten in Raum und Zeit. Nicht so sehr was, sondern wo und wann, unter welchen Bedingungen und mithilfe welcher Instrumente und Operationen der Mensch sei, darum, so der Ausgangsgedanke, geht es der Medienanthropologie. Damals, in der ersten Ausgabe der ZMK, bestand die Leitidee darin, sich diesen Fragen zunächst von der Peripherie her zu nähern und die so verstandenen Bedingungen des Menschseins von der Gefährdung des Menschen, von einem exemplarischen Grenzzustand aus zu betrachten, in dem diese Bedingungen problematisch werden können, nämlich demjenigen der Angst. Heute, und mit der vorliegenden Ausgabe, wird ein anderer, zusätzlicher und zugleich weiter greifender Aspekt gesetzt. Denn das Feld der Medienanthropologie hat sich in den vergangenen Jahren ver-
ändert; die Debatten sind intensiviert und die Forschungen diversifiziert worden. In dieses Feld greift die ZMK nun mit einer dezidierten Position ein, die auf kontinuierliche Diskussionen und Entwicklungen innerhalb der Kulturtechnikforschung und der Medienphilosophie und auch zwischen ihnen aufbauen kann.
Schwerpunkt Kollektiv
(2012)
Die neuere und höchst produktive Konjunktur des »Kollektiv«-Begriffs in Soziologie und Kulturtheorie, wie sie sich insbesondere durch die Ent-faltung der Akteur-Netzwerk-Theorie herausgebildet hat, ist zunächst durch vier miteinander zusammenhängende Eigentümlichkeiten gekennzeichnet. Erstens bezeichnet das »Kollektiv« in diesem Sinne vor allem anderen eine Ansammlung von Entitäten zu einem als Ganzem operativen, möglicherweise sogar handlungs- und reflexionsfähigen Komplex. Die Operationen werden dabei erstens im »Kollektiv« und durch das »Kollektiv« ausgeführt, gleichzeitig jedoch sind sie es, die das »Kollektiv« überhaupt erst aufspannen und relationieren und so zusammenhalten und reproduzieren bzw. variieren. Das Besondere daran ist zweitens – und das unterscheidet den »Kollektiv«-Begriff etwa von demjenigen des Systems –, dass es keine Subsumption der beteiligten Entitäten unter das kollektive Gebilde gibt. Die Operationsfähigkeit und der Zusammenschluss führen weder zu einem Aufgehen des Einzelnen im Ganzen, noch zerfällt im Rückfall das Ganze in eine bloße Gesamtheit aufsummierbarer Teile und Effekte. Kurz: Das »Kollektiv« kann nicht über die Beziehung von Ganzem und Teil definiert und schon gar nicht nach einer dieser beiden Seiten hin aufgelöst werden. Drittens, und das ist der vermutlich plakativste Zug des neuen »Kollektiv«-Begriffs, umfasst das »Kollektiv« Entitäten völlig heterogener Art, genauer: Es bringt solche Gegebenheiten zusammen, die nach klassischer ontologischer Tradition verschiedenen Seinsbezirken zugerechnet worden wären. Das sind vor allem die berühmten menschlichen und nichtmenschlichen Akteure Bruno Latours, das sind also Personen und Artefakte, Kultur- und Naturdinge, Intelligibles und Sensibles, Reflexives und Irreflexives, Technisches und Ästhetisches, Bilder und Objekte oder sogar Materielles und Immaterielles wie Geister, Götter und Ahnen, so bei Descola oder Gell. Und viertens schließlich ist der »Kollektiv«-Begriff speziell ein Kontrastbegriff , der innerhalb der »neuen Soziologie« der Akteur-Netzwerk-Theorie an die Stelle des Gesellschaftsbegriff s treten soll, eben um dessen humanozentrische Prägung einerseits und seine subsumptive, generalisierende und anti-partikulare Tradition
andererseits abzustreifen.
Schwerpunkt Entwerfen
(2012)
Entwerfen ist ein äusserst unscharfer Begriff. Mit ihm kann je nach Kontext ebenso Zeichnen, Planen, Modellieren, Projektieren oder Darstellen gemeint sein wie Erfi nden, Entwickeln, Konzipieren, Komponieren und ähnliches. Wenn Architekten vom Entwurf reden, verwenden sie das Wort meist in einer Bedeutung, die auf den kunsttheoretischen Diskurs zurückgeht, der im Florenz des 16. Jahrhunderts entstanden ist: Entwurf als disegno. Dementsprechend konnte Entwerfen in der kunsthermeneutischen Rezeption schließlich mit dem ›künstlerischen Schaff ensprozess‹ selbst synonym werden. Im Entwerfen meint man der geistigen Vermögen und Prozesse im künstlerischen Subjekt habhaft zu werden.
An diese Tradition soll hier bewusst nicht angeknüpft werden. Um das Entwerfen als Kulturtechnik in seiner historischen Bedingtheit zu beschreiben, muss es aus dem anthropozentrischen Ursprung herausgerückt werden, an den es der florentinische kunsttheoretische Diskurs versetzt hat. Statt das Entwerfen als fundamentalen Akt künstlerischen Schaff ens zu begreifen und als anthropologische Konstante der Geschichte zu entziehen, wäre eben diese Konzeption als historisches Resultat von diskursiven, technischen und institutionellen Praktiken zu befragen.