Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Identification of modal parameters of a space frame structure is a complex assignment due to a large number of degrees of freedom, close natural frequencies, and different vibrating mechanisms. Research has been carried out on the modal identification of rather simple truss structures. So far, less attention has been given to complex three-dimensional truss structures. This work develops a vibration-based methodology for determining modal information of three-dimensional space truss structures. The method uses a relatively complex space truss structure for its verification. Numerical modelling of the system gives modal information about the expected vibration behaviour. The identification process involves closely spaced modes that are characterised by local and global vibration mechanisms. To distinguish between local and global vibrations of the system, modal strain energies are used as an indicator. The experimental validation, which incorporated a modal analysis employing the stochastic subspace identification method, has confirmed that considering relatively high model orders is required to identify specific mode shapes. Especially in the case of the determination of local deformation modes of space truss members, higher model orders have to be taken into account than in the modal identification of most other types of structures.
In this paper we propose a novel and efficient rasterization-based approach for direct rendering of isosurfaces. Our method exploits the capabilities of task and mesh shader pipelines to identify subvolumes containing potentially visible isosurface geometry, and to efficiently extract primitives which are consumed on the fly by the rasterizer. As a result, our approach requires little preprocessing and negligible additional memory. Direct isosurface rasterization is competitive in terms of rendering performance when compared with ray-marching-based approaches, and significantly outperforms them for increasing resolution in most situations. Since our approach is entirely rasterization based, it affords straightforward integration into existing rendering pipelines, while allowing the use of modern graphics hardware features, such as multi-view stereo for efficient rendering of stereoscopic image pairs for geometry-bound applications. Direct isosurface rasterization is suitable for applications where isosurface geometry is highly variable, such as interactive analysis scenarios for static and dynamic data sets that require frequent isovalue adjustment.
Die Corona-Krise stellt das städtische Zusammenleben auf eine harte Probe. Nicht nur sozialer Austausch, Kultur und Verkehr, sondern auch die kommunale Demokratie ist massiv beeinflusst. Wer kann in der Krise noch mitsprechen? Und wie verändert sie das Zusammenspiel von Verwaltung, Politik und Zivilgesellschaft? Die Beiträger*innen untersuchen anhand von Fallstudien die Auswirkungen der Krise auf die kommunale Beteiligungskultur. Sie fragen mit interdisziplinärem Blick nach der kommunalen Krisenbewältigung und erfolgreichen Governance-Strukturen im Kontext multipler Krisen. Ihr Ansatz der kritischen Urbanistik versteht sich dabei als Einladung zur Reflexion, Debatte und alternativen Praxis.
Anhand der städtebaulichen und sozialen Transformation des östlichen Gründerzeitgebietes von Leipzig wird die Rolle von migrantischen Hausbesitzenden und in der Bausanierung Tätigen im Aufwertungsprozess untersucht. Der Zugang zum Gegenstand verbindet Fragen der Stadtsoziologie und der Denkmalforschung. Im sozialen Feld der Stadterneuerung wird die Revitalisierung des ehemals von Leerstand und Rückbau betroffenen Baubestandes ausgehandelt. Die Positionen der Akteur:innen im Feld werden durch ihre Ausstattung mit ökonomischem, aber auch sozialem und kulturellem Kapital bestimmt. Angehörige der Planungs- und Denkmalbehörden verfügen über institutionalisiertes Kulturkapital und stehen damit Kleineigentümer:innen, häufig Autodidakt:innen, gegenüber. Baudenkmale können über ihre Funktion als Geldanlage und Wohnraum hinaus Status repräsentieren und symbolisch angeeignet werden. Denkmalschutz dient dem öffentlichen Interesse am Erhalt historischer Bausubstanz. Bei Sanierungen bestehen die Herausforderungen der Vereinbarkeit von Konservierung und Modernisierung, der Finanzierbarkeit für Eigentümer:innen und der Sozialverträglichkeit für Bewohnende. Eine Darstellung der historischen Entwicklung des Leipziger Ostens zu Beginn der Analyse veranschaulicht die Abhängigkeit kultureller, sozialer und ökonomischer Werte des Baubestandes vom jeweiligen gesellschaftlichen Kontext. Planerische Konzepte für das Gebiet zeigen, dass eine sozioökonomische Stabilisierung und Imageverbesserung erreicht werden sollte durch das Aufgreifen von Potentialen, wie den denkmalgeschützten Bauten, dem zuziehenden alternativen Milieu und migrantischer Ökonomie. Es wird deutlich, dass nach einer initialen Ansässigkeit von Pionier:innen die öffentlichen Infrastrukturmaßnahmen und Denkmalausweisungen eine Inwertsetzung v. a. durch externe Anlegende vorbereiteten. Darauf aufbauend wurden anhand einer qualitativen Befragung die Erfahrungen von städtischen Mitarbeitenden, Fachleuten und im Quartier Engagierten denen von lokalen migrantischen Hausbesitzenden und im Bereich Sanierung Tätigen gegenübergestellt. Migrant:innengruppen haben den Stadtraum in einer Phase vorherrschender Abwanderung durch die Eröffnung von Geschäften und Institutionen sowie den Erwerb von Immobilien für sich erschlossen. Strukturelle Benachteiligungen, wie Diskriminierung auf dem Arbeitsmarkt, ihre Ansässigkeit im sozial stigmatisierten Gebiet sowie geringes ökonomisches Kapital versuchten sie durch den Einsatz von sozialem Kapital auszugleichen. Sanierungen erfolgten mit hoher Eigenleistung und Rückgriff auf private Netzwerke. Die Analyse des Erneuerungsprozesses im Leipziger Osten zeigt, dass in einer initialen Phase Pionier:innen von Planenden und der Denkmalpflege als essentiell für die Entwicklung angesehen wurden. Günstige Instandsetzungen durch Kleineigentümer:innen wurden akzeptiert, um Gebäude vor weiterem Verfall zu bewahren. Mit der zunehmenden Forderung nach Verwendung hochwertiger Materialen werden die Sanierungsleistungen nach ästhetischen und letztlich ökonomischen Kriterien bewertet. Gegenüber sozialen Folgen einer Aufwertung von Bausubstanz lässt sich eine unkritische Haltung der Denkmalpflege erkennen. Bei der Vermarktung der Bestände durch professionelle Investierende findet die Sozialgeschichte des Stadtteils wenig Berücksichtigung, positiv besetzte Merkmale des Quartiers, wie Multikulturalität werden selektiv aufgegriffen. Der Anteil migrantischer Akteur:innen an der Entwicklung wird durch die Öffentlichkeit unzureichend anerkannt. Auch die Wertschätzung von Planenden und im Quartier Engagierten erfolgt v. a. anhand des ökonomischen Status. Hohe Erwartungen an die Geschäftsstruktur und die Erscheinung des Straßenbildes können nicht erfüllt werden. Migrantische Hausbesitzende und im Bereich Sanierung Tätige benötigen für die Auseinandersetzung mit der Denkmalpflege kulturelles Kapital. Sie erkennen die Bedeutung des historischen Baubestandes für die Stadt und die Arbeit der Institution an, kritisieren jedoch Sanierungsauflagen bzw. Mitarbeitende der Denkmalpflege und können sich z. T. gegen diese behaupten. Lokale migrantische Kleineigentümer:innen leisten durch ihre Quartiersbindung einen Beitrag zur ökonomischen und sozialen Stabilisierung. Mit ihrer Aufstiegsorientierung fördern sie in der Vermietungspraxis jedoch nur bedingt die Integration anderer Migrant:innen und grenzen sich von statusniedrigen Gruppen im Quartier ab. Migrantische Hausbesitzende und Unternehmende nehmen sich selbst als erfolgreiche Vorreitende in einer heterogener werdenden ostdeutschen Stadtgesellschaft wahr. Sie erkannten frühzeitig das Entwicklungspotential und gehören zu den Initiierenden und Profitierenden der Inwertsetzung.
Search engines are very good at answering queries that look for facts. Still, information needs that concern forming opinions on a controversial topic or making a decision remain a challenge for search engines. Since they are optimized to retrieve satisfying answers, search engines might emphasize a specific stance on a controversial topic in their ranking, amplifying bias in society in an undesired way. Argument retrieval systems support users in forming opinions about controversial topics by retrieving arguments for a given query. In this thesis, we address challenges in argument retrieval systems that concern integrating them in search engines, developing generalizable argument mining approaches, and enabling frame-guided delivery of arguments.
Adapting argument retrieval systems to search engines should start by identifying and analyzing information needs that look for arguments. To identify questions that look for arguments we develop a two-step annotation scheme that first identifies whether the context of a question is controversial, and if so, assigns it one of several question types: factual, method, and argumentative. Using this annotation scheme, we create a question dataset from the logs of a major search engine and use it to analyze the characteristics of argumentative questions. The analysis shows that the proportion of argumentative questions on controversial topics is substantial and that they mainly ask for reasons and predictions. The dataset is further used to develop a classifier to uniquely map questions to the question types, reaching a convincing F1-score of 0.78.
While the web offers an invaluable source of argumentative content to respond to argumentative questions, it is characterized by multiple genres (e.g., news articles and social fora). Exploiting the web as a source of arguments relies on developing argument mining approaches that generalize over genre. To this end, we approach the problem of how to extract argument units in a genre-robust way. Our experiments on argument unit segmentation show that transfer across genres is rather hard to achieve using existing sequence-to-sequence models.
Another property of text which argument mining approaches should generalize over is topic. Since new topics appear daily on which argument mining approaches are not trained, argument mining approaches should be developed in a topic-generalizable way. Towards this goal, we analyze the coverage of 31 argument corpora across topics using three topic ontologies. The analysis shows that the topics covered by existing argument corpora are biased toward a small subset of easily accessible controversial topics, hinting at the inability of existing approaches to generalize across topics. In addition to corpus construction standards, fostering topic generalizability requires a careful formulation of argument mining tasks. Same side stance classification is a reformulation of stance classification that makes it less dependent on the topic. First experiments on this task show promising results in generalizing across topics.
To be effective at persuading their audience, users of an argument retrieval system should select arguments from the retrieved results based on what frame they emphasize of a controversial topic. An open challenge is to develop an approach to identify the frames of an argument. To this end, we define a frame as a subset of arguments that share an aspect. We operationalize this model via an approach that identifies and removes the topic of arguments before clustering them into frames. We evaluate the approach on a dataset that covers 12,326 frames and show that identifying the topic of an argument and removing it helps to identify its frames.
Anti-Gewalttrainings, Gewaltwissen und die institutionelle Erzeugung gewaltbefreiter Subjekte
(2023)
Dieser Beitrag fragt danach, wie Wissen über Gewalt in Anti-Gewalttrainings produziert, vermittelt und sozial wirkmächtig wird. Auf Basis des kommunikativen Konstruktivismus werden diese Kurse als gewaltbezogene Institutionen begriffen, in denen eine Wissensordnung der Gewalt stabilisiert wird. Sie sollen Abweichungen von institutionalisierten Wirklichkeitsvorstellungen in Bezug auf Gewalt entgegenwirken. Dabei lassen sie sich als Selbsttechniken begreifen, durch welche die Kursteilnehmer*innen eine spezifische Subjektposition einüben, nämlich die des gewaltbefreiten Subjekts. Vor diesem Hintergrund wird anschließend zwischen konditionalen und konzessiven Anti-Gewalttrainings unterschieden. Erstere wenden sich an Personen, die tatsächlich von der institutionalisierten Wirklichkeitsvorstellung abgewichen sind und somit gesellschaftlich als Gewalttäter*innen eingestuft werden, während Letztere auf eine Klientel zielen, die potenziell von den gängigen Normen abweichen könnte, obwohl noch keine Gewalt aufgetreten sein muss. Abschließend wird gezeigt, dass den Kursleiter*innen eine wichtige Rolle im Subjektivierungsprozess und der Wissenskommunikation über Gewalt zukommt. Neben Wissen über Gewalt werden durch sie auch Wertbindungen, Legitimationen und Weltbilder vermittelt.
When predicting sound pressure levels induced by structure-borne sound sources and describing the sound propagation path through the building structure as exactly as possible, it is necessary to characterize the vibration behavior of the structure-borne sound sources. In this investigation, the characterization of structure-borne sound sources was performed using the two-stage method (TSM) described in EN 15657. Four different structure-borne sound sources were characterized and subsequently installed in a lightweight test stand. The resulting sound pressure levels in an adjacent receiving room were measured. In the second step, sound pressure levels were predicted according to EN 12354-5 based on the parameters of the structure-borne sound sources. Subsequently, the predicted and the measured sound pressure levels were compared to obtain reliable statements on the achievable accuracy when using source quantities determined by TSM with this prediction method.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith.
The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers.
The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications.
The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study.
Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts.
Für die einen also „Bausünde“, für die anderen ein erhaltenswertes Bauwerk – wie geht man damit um? Für wen gilt wann etwas als „Bausünde“ und wann als erhaltenswert, welche Ziele werden damit verfolgt und Konzepte aufgezeigt? Inwieweit spielen beispielsweise Aspekte wie Ästhetik, Funktionalität oder der allgemeine gesellschaftliche Kontext bzw. Wandel sowie das jeweils aktuelle und bauzeitliche planerische Leitbild bzw. Verständnis eine Rolle bei der Verwendung des Begriffs und den Umgang für konkrete Bauwerke? Und inwieweit steht der Erhaltungswert bzw. eine Denkmalwürdigkeit damit im Verhältnis und wie kann damit planerisch umgegangen werden?
Der Diskussion über den Umgang mit verschmähten Bauwerken will sich die vorliegende Abschlussarbeit nähern. Als Bauwerke werden hierbei sowohl Gebäude und Plätze als auch zur Erinnerung gesetzte Objekte wie Statuen verstanden.
This paper presents initial findings from the empirical analysis of community based social enterprise (SE) and non-profit organisation (NPO) ecosystems in Johannesburg. SEs and NPOs are widely recognised as contributors to the resilience of marginalised urban communities. However, the connection between these organisations , urban governance, and community resilience has not yet been sufficiently understood , particularly in African urban contexts. The 'Resilient Urban Communities' project focuses on Johannesburg as a case study to shed light on this under-researched topic. The key to exploring it is understanding SEs and NPOs as providers of public services, job creators, and promoters of good governance, all of which contribute to community resilience. Using this premise as a starting point, this paper investigates ecosystem conditions with a particular focus on state-civil society partnerships. Empirical data was generated through semi-struc-tured interviews and analysed with a grounded theory approach. Preliminary results of this ongoing research reveal that urban geography is a relevant ecosystem factor for SEs and NPOs from marginalised communities. We also suggest that co-production could be an opportunity for growth within the investigated state-civil society partnership.
Dieser Handlungsleitfaden möchte die Zusammenarbeit zwischen zivilgesellschaftlichen Akteuren und öffentlichen Verwaltungen erleichtern. Er enthält allerdings kein Patentrezept, mit dem eine solche Zusammenarbeit gebacken werden kann, sondern vor allem Anstöße, was es dabei alles zu bedenken gilt. Denn Ko-Produktionsprozesse, bei denen zivilgesellschaftliche Gruppen und Verwaltungen gemeinsam an der Umsetzung von Dienstleistungen und Infrastrukturen der Daseinsvorsorge arbeiten, sind komplexe und noch recht unerprobte Prozesse.
As an optimization that starts from a randomly selected structure generally does not guarantee reasonable optimality, the use of a systemic approach, named the ground structure, is widely accepted in steel-made truss and frame structural design. However, in the case of reinforced concrete (RC) structural optimization, because of the orthogonal orientation of structural members, randomly chosen or architect-sketched framing is used. Such a one-time fixed layout trend, in addition to its lack of a systemic approach, does not necessarily guarantee optimality. In this study, an approach for generating a candidate ground structure to be used for cost or weight minimization of 3D RC building structures with included slabs is developed. A multiobjective function at the floor optimization stage and a single objective function at the frame optimization stage are considered. A particle swarm optimization (PSO) method is employed for selecting the optimal ground structure. This method enables generating a simple, yet potential, real-world representation of topologically preoptimized ground structure while both structural and main architectural requirements are considered. This is supported by a case study for different floor domain sizes.
One of the main criteria determining the thermal comfort of occupants is the air temperature. To monitor this parameter, a thermostat is traditionally mounted in the indoor environment for instance in office rooms in the workplaces, or directly on the radiator or in another location in a room. One of the drawbacks of this conventional method is the measurement at a certain location instead of the temperature distribution in the entire room including the occupant zone. As a result, the climatic conditions measured at the thermostat point may differ from those at the user's location. This not only negatively impacts the thermal comfort assessment but also leads to a waste of energy due to unnecessary heating and cooling. Moreover, for measuring the distribution of the air temperature under laboratory conditions, multiple thermal sensors should be installed in the area under investigation. This requires high effort in both installation and expense.
To overcome the shortcomings of traditional sensors, Acoustic travel-time TOMography (ATOM) offers an alternative based on measuring the transmission sound velocity signals. The basis of the ATOM technique is the first-order dependency of the sound velocity on the medium's temperature. The average sound velocity, along the propagation paths, can be determined by travel-times estimation of a defined acoustic signal between transducers. After the travel-times collection, the room is divided into several volumetric grid cells, i.e. voxels, whose sizes are defined depending on the dimension of the room and the number of sound paths. Accordingly, the spatial air temperature in each voxel can be determined using a suitable tomographic algorithm. Recent studies indicate that despite the great potential of this technique to detect room climate, few experiments have been conducted.
This thesis aims to develop the ATOM technique for indoor climatic applications while coupling the analysis methods of tomography and room acoustics. The method developed in this thesis uses high-energy early reflections in addition to the direct paths between transducers for travel time estimation. In this way, reflections can provide multiple sound paths that allow the room coverage to be maintained even when a few or even only one transmitter and receiver are used.
In the development of the ATOM measurement system, several approaches have been employed, including the development of numerical methods and simulations and conducting experimental measurements, each of which has contributed to the improvement of the system's accuracy. In order to effectively separate the early reflections and ensure adequate coverage of the room with sound paths, a numerical method was developed based on the optimization of the coordinates of the sound transducers in the test room. The validation of the optimal positioning method shows that the reconstructed temperatures were significantly improved by placing the transducers at the optimal coordinates derived from the developed numerical method. The other numerical method developed is related to the selection of the travel times of the early reflections. Accordingly, the detection of the travel times has been improved by adjusting the lengths of the multiple analysis time-windows according to the individual travel times in the reflectogram of the room impulse response. This can reduce the probability of trapping faulty travel times in the analysis time-windows.
The simulation model used in this thesis is based on the image source model (ISM) method for simulating the theoretical travel times of early reflection sound paths. The simulation model was developed to simulate the theoretical travel times up to third-order reflections.
The empirical measurements were carried out in the climate lab of the Chair of Building Physics under different boundary conditions, i.e., combinations of different room air temperatures under both steady-state and transient conditions, and different measurement setups. With the measurements under controllable conditions in the climate lab, the validity of the developed numerical methods was confirmed.
In this thesis, the performance of the ATOM measurement system was evaluated using two measurement setups. The setup for the initial investigations consists of an omnidirectional receiver and a near omnidirectional sound source, keeping the number of transducers as few as possible. This has led to accurately identify the sources of error that could occur in each part of the measuring system. The second measurement setup consists of two directional sound sources and one omnidirectional receiver. This arrangement of transducers allowed a higher number of well-detected travel times for tomography reconstruction, a better travel time estimation due to the directivity of the sound source, and better space utilization. Furthermore, this new measurement setup was tested to determine an optimal selection of the excitation signal. The results showed that for the utilized setup, a linear chirp signal with a frequency range of 200 - 4000 Hz and a signal duration of t = 1 s represents an optimal selection with respect to the reliability of the measured travel times and higher signal-to-noise ratio (SNR).
To evaluate the performance of the measuring setups, the ATOM temperatures were always compared with the temperatures of high-resolution NTC thermistors with an accuracy of ±0.2 K. The entire measurement program, including acoustic measurements, simulation, signal processing, and visualization of measurement results are performed in MATLAB software.
In addition, to reduce the uncertainty of the positioning of the transducers, the acoustic centre of the loudspeaker was determined experimentally for three types of excitation signals, namely MLS (maximum length sequence) signals with different lengths and duration, linear and logarithmic chirp signals with different defined frequency ranges. For this purpose, the climate lab was converted into a fully anechoic chamber by attaching absorption panels to the entire surfaces of the room. The measurement results indicated that the measurement of the acoustic centre of the sound source significantly reduces the displacement error of the transducer position.
Moreover, to measure the air temperature in an occupied room, an algorithm was developed that can convert distorted signals into pure reference signals using an adaptive filter. The measurement results confirm the validity of the approach for a temperature interval of 4 K inside the climate lab.
Accordingly, the accuracy of the reconstructed temperatures indicated that ATOM is very suitable for measuring the air temperature distribution in rooms.
We present a physics-informed deep learning model for the transient heat transfer analysis of three-dimensional functionally graded materials (FGMs) employing a Runge–Kutta discrete time scheme. Firstly, the governing equation, associated boundary conditions and the initial condition for transient heat transfer analysis of FGMs with exponential material variations are presented. Then, the deep collocation method with the Runge–Kutta integration scheme for transient analysis is introduced. The prior physics that helps to generalize the physics-informed deep learning model is introduced by constraining the temperature variable with discrete time schemes and initial/boundary conditions. Further the fitted activation functions suitable for dynamic analysis are presented. Finally, we validate our approach through several numerical examples on FGMs with irregular shapes and a variety of boundary conditions. From numerical experiments, the predicted results with PIDL demonstrate well agreement with analytical solutions and other numerical methods in predicting of both temperature and flux distributions and can be adaptive to transient analysis of FGMs with different shapes, which can be the promising surrogate model in transient dynamic analysis.
The release of the large language model-based chatbot ChatGPT 3.5 in November 2022 has brought considerable attention to the subject of artificial intelligence, not only to the public. From the perspective of higher education, ChatGPT challenges various learning and assessment formats as it significantly reduces the effectiveness of their learning and assessment functionalities. In particular, ChatGPT might be applied to formats that require learners to generate text, such as bachelor theses or student research papers. Accordingly, the research question arises to what extent writing of bachelor theses is still a valid learning and assessment format. Correspondingly, in this exploratory study, the first author was asked to write his bachelor’s thesis exploiting ChatGPT. For tracing the impact of ChatGPT methodically, an autoethnographic approach was used. First, all considerations on the potential use of ChatGPT were documented in logs, and second, all ChatGPT chats were logged. Both logs and chat histories were analyzed and are presented along with the recommendations for students regarding the use of ChatGPT suggested by a common framework. In conclusion, ChatGPT is beneficial for thesis writing during various activities, such as brainstorming, structuring, and text revision. However, there are limitations that arise, e.g., in referencing. Thus, ChatGPT requires continuous validation of the outcomes generated and thus fosters learning. Currently, ChatGPT is valued as a beneficial tool in thesis writing. However, writing a conclusive thesis still requires the learner’s meaningful engagement. Accordingly, writing a thesis is still a valid learning and assessment format. With further releases of ChatGPT, an increase in capabilities is to be expected, and the research question needs to be reevaluated from time to time.
Die Planungsforschung hat sich spätestens seit der „kommunikativen Wende“ intensiv damit beschäftigt, wie mit Konflikten umgegangen werden soll und wird. Ansätze der „agonistischen“ Planungstheorie widersprechen der normativen Prämisse, Konsensbildung unter den Planungsbeteiligten anzustreben. Vielmehr wollen sie widerstreitende Positionen normativ für die räumliche Entwicklung fruchtbar machen. Zugleich betonen sie eine vermeintliche Dualität von Planung und Protest, die in der neueren Protesttheorie infrage gestellt wird. Dieser Beitrag zeigt aufbauend auf einer Diskussion von planungs- und protesttheoretischen Ansätzen und einer empirischen Analyse planungsbezogener Proteste in Deutschland, dass diese Proteste von den Planungsakteuren zwar immer stärker als „Normalität“ aufgefasst werden und antagonistische Partizipation trotz zunehmender Konflikthaftigkeit und vermeintlicher Infragestellung der repräsentativen Demokratie kulturell regelgebunden bleibt. Protesthandeln ist Teil ausdifferenzierter „Partizipationsbündel“, die situationsbezogen auch Teilnahme an Beteiligungsverfahren, direktdemokratische Verfahren und Klagen umfassen. Protestierende verfolgen dabei meist eine eher reformorientierte Agenda, die keiner „Zähmung“ bedarf. Allerdings können die zugrunde liegenden Konflikte häufig gar nicht „gelöst“ werden. Planenden hingegen können auch innerhalb eines agonistischen Planungsumfelds rationalistische und deliberative Ansätze zur Verfügung stehen, die sie situationsbezogen und strategisch nutzen.
Experimental Validation of Dynamic Response of Small-Scale Metaconcrete Beams at Resonance Vibration
(2023)
Structures and their components experience substantially large vibration amplitudes at resonance, which can cause their failure. The scope of this study is the utilization of silicone-coated steel balls in concrete as damping aggregates to suppress the resonance vibration. The heavy steel cores oscillate with a frequency close to the resonance frequency of the structure. Due to the phase difference between the vibrations of the cores and the structure, the cores counteract the vibration of the structure. The core-coating inclusions are randomly distributed in concrete similar to standard aggregates. This mixture is referred to as metaconcrete. The main goal of this work is to validate the ability of the inclusions to suppress mechanical vibration through laboratory experiments. For this purpose, two small-scale metaconcrete beams were cast and tested. In a free vibration test, the metaconcrete beams exhibited a larger damping ratio compared to a similar beam cast from conventional concrete. The vibration amplitudes of the metaconcrete beams at resonance were measured with a frequency sweep test. In comparison with the conventional concrete beam, both metaconcrete beams demonstrated smaller vibration amplitudes. Both experiments verified an improvement in the dynamic response of the metaconcrete beams at resonance vibration.
Diese Arbeit soll einen Beitrag zum Neuen Steuerungsmodell der Öffentlichen Verwaltung auf staatlicher Ebene in Deutschland leisten. Sie dient der Untersuchung zum Aufbau eines ökonomischen Modells zur Koordination von Dienstliegenschaften auf staatlicher Ebene.
Die Untersuchung der Dienstliegenschaften zeigt, dass diese eine interne Dienstbarkeit des Staates als Wirtschaftssubjekt an den Staat als Hoheitsträger fingieren.
Die Untersuchung der Liegenschaftsverwaltung belegt, dass sie vor allem ein Controlling-Instrument für den Informationsfluss zu Entscheidungen über Dienstliegenschaften zwischen dem Hoheitsträger und dem Wirtschaftssubjekt darstellt.
Die Untersuchung der Transaktionskosten beweist, dass eine Koordination am effizientesten über die eigene Organisation mittels dezentraler Aufgabenkonzentration in Form eines SSC erreicht werden kann.
Die Untersuchung der Handlungs- und Verfügungsrechte ergab, dass die Verfügungsrechte an den Dienstliegenschaften weiter den Ressorts bzw. Nutzern obliegen. Allein das Handlungsrecht der Aufgabenwahrnehmung ist an die Liegenschaftsverwaltung übergegangen.
Die Untersuchung der Prinzipal-Agent-Verhältnisse teilt der Liegenschaftsverwaltung die Rolle eines Erfüllungsgehilfen des Wirtschaftssubjektes zu. Die monetäre Abwicklung der Ge-schäfte zwischen dem Wirtschaftssubjekt und dem Hoheitsträger obliegt als zuarbeitende Organisationseinheit ohne eigene Entscheidungsgewalt der Liegenschaftsverwaltung.
Aus diesen Thesen ergeben sich monetäre Handlungsmöglichkeiten, die in den Aufbau des Modells einfließen. Es rückt das Wirtschaftssubjekt als Entscheidungsträger über den Ressourceneinsatz in den Mittelpunkt der Betrachtung. Der Hoheitsträger ist hierbei nur der Forderungsberechtigte an das Wirtschaftssubjekt und die Liegenschaftsverwaltung dessen immobilienwirtschaftlicher Vertreter.
Diese Konstellation berücksichtigend erfolgt dem Credo des NPM gemäß die Beschreibung des Modells und des institutionellen Arrangements nach den gängigen Modellen aus der Privatwirtschaft. Anhand der Untersuchungsergebnisse wird eine Liegenschaftsverwaltung skizziert, welche einerseits den tatsächlichen betriebswirtschaftlichen Anforderungen der Immobilienwirtschaft und andererseits den Gegebenheiten des haushaltswirtschaftlichen Umfeldes der öffentlichen Verwaltung gerecht werden kann.
Das aufgebaute Realmodell dient gleichzeitig dem Vergleich mit dem bestehenden und in der Praxis angewandten Mieter-Vermieter-Modell als Idealmodell. Der Vergleich zeigt, dass sich aus der Untersuchung zivilrechtlicher Institutionen zwar kein schuldrechtliches, wohl aber ein dingliches Recht ableiten lässt. Damit einher geht die Vermutung, dass es sich bei dem Mieter-Vermieter-Modell im staatlichen Bereich um einen Fall von Modellplatonismus handelt.
The study presents a Machine Learning (ML)-based framework designed to forecast the stress-strain relationship of arc-direct energy deposited mild steel. Based on microstructural characteristics previously extracted using microscopy and X-ray diffraction, approximately 1000 new parameter sets are generated by applying the Latin Hypercube Sampling Method (LHSM). For each parameter set, a Representative Volume Element (RVE) is synthetically created via Voronoi Tessellation. Input raw data for ML-based algorithms comprises these parameter sets or RVE-images, while output raw data includes their corresponding stress-strain relationships calculated after a Finite Element (FE) procedure. Input data undergoes preprocessing involving standardization, feature selection, and image resizing. Similarly, the stress-strain curves, initially unsuitable for training traditional ML algorithms, are preprocessed using cubic splines and occasionally Principal Component Analysis (PCA). The later part of the study focuses on employing multiple ML algorithms, utilizing two main models. The first model predicts stress-strain curves based on microstructural parameters, while the second model does so solely from RVE images. The most accurate prediction yields a Root Mean Squared Error of around 5 MPa, approximately 1% of the yield stress. This outcome suggests that ML models offer precise and efficient methods for characterizing dual-phase steels, establishing a framework for accurate results in material analysis.
The imperative to transform current energy provisions is widely acknowledged. However, scant attention has hitherto been directed toward rural municipalities and their innate resources, notably biogenic resources. In this paper, a methodological framework is developed to interconnect resources from waste, wastewater, and agricultural domains for energy utilization. This entails cataloging existing resources, delineating their potential via quantitative assessments utilizing diverse technologies, and encapsulating them in a conceptual model. The formulated models underwent iterative evaluation with engagement from diverse stakeholders. Consequently, 3 main concepts, complemented by 72 sub-concepts, were delineated, all fostering positive contributions to climate protection and providing heat supply in the rural study area. The outcomes’ replicability is underscored by the study area’s generic structure and the employed methodology. Through these inquiries, a framework for the requisite energy transition, with a pronounced emphasis on the coupling of waste, wastewater, and agriculture sectors in rural environments, is robustly analyzed.
Dieser Handlungsleitfaden möchte die gemeinwohlorientierte Vergabe von Räumen und Flächen an zivilgesellschaftliche Gruppen stärken. Er ist als Inspirationssammlung zu verstehen, die den Weg zu neuen Kooperationen zwischen öffentlichen und zivilgesellschaftlichen Akteuren erleichtern soll. Wissenswertesund inspirierende Beispiele bieten eine Starthilfe, um nicht nur einzelne stadträumliche Experimente zu wagen, sondern die gemeinwohlorientierte Flächen- und Raumvergabe an zivilgesellschaftliche Gruppen kommunal zu verankern. Denn öffentliche Liegenschaften sind nach vielen Jahren der Privatisierung eine rare Ressource, die umso mehr dem Gemeinwohl dienen sollte.
Der Erfahrung auf der Spur
(2023)
Dieselbe Zeit, derselbe Raum - zwei, grundverschiedene Regisseure und damit Erfahrungswelten. Aleksandr Rastorguevs und Sergei Loznitsas Dokumentarfilme der 90er und 2000er Jahre sind politische, poetische, punktgenaue Interventionen in die Gegenwart der „kleinen Menschen“. Das Buch widmet sich dokumentarfilmischen Meisterwerken, die methodisch Verdrängtes und Übersehenes, planmäßig Vergessenes sichtbar machen – nach dem Krieg ist vor dem Krieg. Ästhetik in ihrer sozial-, geschichts- und kulturwissenschaftlichen Relevanz.
Im post- und kontrafaktischen Zeitalter des allgegenwärtigen medialen Überflusses, inmitten der Fernseh-, YouTube- und virtuellen Realität, erfüllen, begründen, ermöglichen oder schlichtweg erkämpfen die Filme und ihre Autoren verloren gegangene Räume für Widersprüche, Fragen, die mal in ihrer Ambivalenz, mal in ihrer spröden Eindeutigkeit ihren Aussagewert haben. Wider die marginale Rezeption rückt die Publikation sie in den Raum der interdisziplinären wissenschaftlichen Forschung und stellt sie als gleichwertige Formen der Wissens- und Erfahrungsproduktion vor.
Bei all ihrer Unterschiedlichkeit, katapultieren die Filme den Zuschauer in ebenjene bekannte, aber nicht erkannte, weil nicht gesehene, übersehene, nicht wahrgenommene Hyperrealität ihrer Alltagswirklichkeit. Weder der Autor noch das Werk noch der Zuschauer sind aus dem jeweiligen historischen oder soziopolitischen Diktum herauslösbar oder gar gänzlich frei.
Es gibt keine Kreativität ohne Obliteration – also ohne Überschreiben und Entwerten oder Vergessen und Vernichten. Johannes Bennke setzt erstmals die Obliteration ins Zentrum der Medienphilosophie und deckt im Anschluss an Emmanuel Levinas in ihr etwas bildlich Negatives auf. Als Differenzfigur erlangt die Obliteration gestalterische Sprengkraft sowie ethische und epistemologische Relevanz. Über Bildkonjunktionen als genuine Methode der Bildwissenschaft entsteht so eine Theorie der Kunst und eine Philosophie des Medialen nach Levinas, die sedimentierte Wissensformen erschüttert und im Zeichen eines Lebens mit Anderen erneuert.
Dass Lobby-Arbeit auch für Bibliotheken und damit auch für Bibliothekar:innen unverzichtbar ist, hat sich als Erkenntnis mittlerweile durchgesetzt. Im Folgenden soll – ausgehend von einer kurzen Betrachtung des Stellenwerts der Lobbyarbeit in der bibliothekarischen Verbandsarbeit – aufgezeigt werden, welche Rolle Lobbyaktivitäten im bibliothekarischen Alltag spielen könnten bzw. sollten.
Materialsparende Holzkonstruktionen, die insbesondere während der Kriegs- und Nachkriegszeit im 20. Jahrhundert entwickelt und optimiert wurden, erlangen aktuell aus konstruktionshistorischer Sicht, aber auch aus ökonomischer Sicht erneut Interesse. Der vorliegende Beitrag gibt einen Überblick angefangen von den ersten Konstruktionen Ende der 1920er Jahre bis hin zu Typenbindern der DDR, die noch bis 1990 über Landwirtschaftsbauten errichtet wurden und heute oft als Tragkonstruktionen für Photovoltaikanlagen weiterverwendet werden. Der Fokus liegt auf der chronologischen Vorstellung ausgewählter Konstruktionsweisen für Hallen- und Hausdächer unterschieden nach Fachwerk- und Vollwandbindern. Sowohl die verantwortlichen Ingenieure und deren Herkunft, sowie wesentliche Anwendungsfelder und Beispielbauten kommen in der Überblicksdarstellung zur Sprache. Eine wesentliche Erkenntnis ist die im Betrachtungszeitraum 1930 bis 1990 zu verzeichnende Reduzierung einer Vielzahl genagelter Spar- hin zu Typenkonstruktionen, die im wesentlichen äußerst materialeffiziente Fachwerkbinder für Satteldächer hervorbrachte.
Der Nagel als tragendes Holzverbindungsmittel ist heute gut bekannt. Doch noch vor 100 Jahren war das anders: sein statisch konstruktiver Gebrauch war verboten. Das änderte sich mit Beginn dessen Erforschung Ende der 1920er Jahre. Seit 1933 ist der Nagel Bestandteil der deutschen Regelwerke und findet seitdem breite Verwendung. Über weite Teile des 20. Jahrhunderts diente er in Not- und Sparkonstruktionen wie Brett- und Bohlenbindern als hocheffizientes Verbindungsmittel der Wahl. Diese materialsparenden Tragwerke waren bei der periodisch im-mer wiederkehrenden Ressourcenknappheit sehr gefragt und sind ein wichtiger Bestandteil der Konstruktionsgeschichte des Holzbaus. In dem folgenden Beitrag wird die Erforschung des Na-geltragverhaltens und die einhergehende fortlaufende Normierung behandelt. Die Errungen-schaften einzelner Forschungsvorhaben werden vorgestellt. Anhand eines Zeitstrahls werden Zusammenhänge zwischen Forschung und Normung gezeigt. Tabellen und Grafiken verdeutli-chen die Änderungen innerhalb der Normen von der ersten DIN 1052 im Jahr 1933 über die erste eigenständige Holzbaunorm in der DDR, der TGL 112-0730, aus 1963 bis zur DIN 1052- 1988. Dabei wird immer Bezug zum derzeitigen Entwurf des Eurocode 5 genommen. Allgemein zeigt sich, dass ein Großteil der heutigen Kenntnisse immer noch auf die Grundlagenforschung der 1930er Jahre zurückgeht.
Die Tragfähigkeit von Nägeln und Nagelverbindungen im Holzbau war lange Zeit ausschließlich über Tabellen, die auf experimentellen Untersuchungen basierten, geregelt. In den letzten 100 Jahren untersuchten unterschiedliche Forscher das Last-Verformungsverhalten dieser Verbindungen und entwickelten Modelle, mit denen auf Grundlage von analytischen Gleichungen die Tragfähigkeit und das Verformungsverhalten von Nägeln berechnet werden kann. Die zunächst in Not- und Sparkonstruktion eingesetzten Nägel werden heutzutage vor allem bei Tafelelementen verwendet. Im Bestand finden sich aber auch zahlreiche, teils weit gespannte Fachwerkkonstruktionen. In dem folgenden Beitrag werden die Erforschung und Entwicklung der Tragfähigkeit sowie des Verformungsverhaltens von genagelten Verbindungen detailliert und strukturiert erläutert. Die zugehörigen Meilensteine werden genauer betrachtet. Über unterschiedliche Methoden für die Bestimmung der Tragfähigkeit sowie mechanische Phänomene, die erst nach und nach entdeckt wurden, können in der aktuellen Normung sehr individuelle Verbindungen nachgewiesen und deren Verhalten beschrieben werden. Tabellen und Grafiken verdeutlichen die einzelnen Meilensteine der geschichtlichen Entwicklung und vergleichen konkret die normativen Regelungen seit Beginn der Einführung des Nagels in den Ingenieurholzbau in Deutschland. Hierbei kann gezeigt werden, dass einige Definitionen seit 1933 bis heute noch ihre Gültigkeit behalten.
Urban heritage is at the core of the process of many changes observable in the cities today. The pace of urban change in heritage contexts, however, differs widely across the globe. In some areas, it goes slowly, in others it is astonishingly rapid. In some cases, change is coupled with risks of erosion of heritage and urban areas of value and in others change is synonymous with prosperity and positive impacts. Change in urban heritage areas is not only confined to the physical and tangible aspects, but needs to be regarded as mirroring changes related socio-political practices, economic implications, and cultural impacts. In this regard, the present thematic issue looks at various patterns of the interrelationship between heritage and urban change from both the physical and the non-physical perspectives. This editorial presents the topic of urban heritage and patterns of physical and non-physical transformation in urban heritage contexts and introduces the thematic issue “Urban Heritage and Patterns of Change: Spatial Practices of Physical and Non-Physical Transformation.”
In der Welt der Objekte zählt der Schlüssel zu den wichtigsten und ältesten Gebrauchs-gegenständen der Menschheit. Das Leben und die Werte der zivilisierten Kulturen werden durch dieses Objekt mitbestimmt. In dieser Arbeit wird der Wandel eines allgemeingültigen Produkts der heutigen Dingwelt in den Fokus gestellt.
Zunehmend werden die Objekte der Dingwelt dematerialisiert. Die Beziehung der Nutzer zu den Objekten verliert an Wirkungskraft. Das zentrale Objekt der Beobachtungen und der Forschung ist der Schlüssel als ein Artefakt der realen Dingwelt - im Wandel der Zeit, in Bezug auf die Notwendigkeiten der Nutzer und den ausschlaggebenden Technologien.
Auf der Grundlage von strukturierten Daten sollen Maßnahmen für eine nutzerorientierte Produktgestaltung aufgezeigt werden. Oftmals fehlt das entsprechende Verständnis für den Nutzer und dessen Anforderungen, um diese als Teil des Produktentstehungsprozess ein-beziehen zu können.
Gegenstand dieser Arbeit ist die Analyse der Nutzer-Generationen im Kontext der Technologien mit Hinblick auf die Erarbeitung einer konzeptionellen Entwurfsbasis. Mit der vorliegenden Forschungsarbeit wird aufgezeigt, wie mit dem Verständnis der historischen Untersuchungen, den Erkenntnissen der durchgeführten Studien und einem praxisorientierten Entstehungs-prozess künftige Ideen und Ansätze, eine fortwährende und fundierte Grundlage der nutzerorientierten Gestaltung generiert werden kann. Die Arbeit verfolgt das Ziel, die Gestaltung der Produkte förderlich zu betrachten und einsetzen zu können.
Strategien der Sichtbarkeit und Sichtbarmachung von ‚Wearable Enhancement‘ im Bereich Smart Health
(2022)
Die vorliegende Forschungsarbeit befasst sich mit der Entwicklung und Gestaltung von körpernahen, tragbaren Artefakten für den digitalisierten Gesundheitsbereich. Unter dem entwickelten Begriff des Wearable Enhancements werden die verschiedenen Termini aus smarten Textilien, Fashion Technologies, Wearable Technologies sowie elektronischen Textilien zusammengefasst und zwei zentrale Forschungsfragen untersucht. Wie kann Wearable Enhancement im Bereich Smart Health ethisch, sozial und ökologisch entwickelt und gestaltet werden? Inwiefern können textile Schnittstellen die Wahrnehmung und die Wahrnehmbarkeit des Körpers verändern? Mit der ersten Forschungsfrage sollen vorrangig Ansätze und Strategien der Sichtbarkeit für die Entwicklung und Gestaltung diskutiert werden, welche Aussagen für die Designpraxis, den Gestaltungs- und Designforschungsprozess sowie die Designlösungen selbst generieren sollen. Die zweite Forschungsfrage zielt darauf, Formen der Sichtbarmachung von sowie für Wearable Enhancement zu untersuchen.
Anhand von drei konkreten Fallstudien werden wesentliche Aspekte der Rezeption, Perzeption, Konstruktion, Konfiguration und Konzeption von soziotechnischen Artefakten zur Funktionssteigerung des menschlichen Körpers untersucht und verschiedene Formen der Sichtbarkeit und Sichtbarmachung entwickelt. In der Arbeit wird ein dual-angelegter transdisziplinärer Designforschungsansatz entwickelt und praktiziert, welcher sowohl die menschlichen Bedürfnisse der Nutzer*innen als auch die Weiterentwicklung von Technologien berücksichtigt. Auf dieser Grundlage wird versucht Anregungen für ein zukunftsfähiges und zugleich verantwortungsorientiertes Design zu geben.
The theme of this project is the colonial history of the natural rubber industry. It focuses on two species of tropical plants: Ficus elastica and Hevea brasiliensis. Geographically their native habitat is very distant from each other, but they connect by European influence through the exploitation of latex.
The many forms and outcomes from this work manifest the attempt of the artist to create an association between a common household plant, the origin of its name, and the source of rubber. As a ghostly connective tissue, the latex surrounds reconstructed history, old prints, live plants, and drawings, accepting the material's capacity to both erase and preserve the past.
This paper outlines an important step in characterizing a novel field of robotic construction research where a cable-driven parallel robot is used to extrude cementitious material in three-dimensional space, and thus offering a comprehensive new approach to computational design and construction, and to robotic fabrication at larger scales. Developed by the Faculty of Art and Design at Bauhaus-University Weimar (Germany), the faculty of Architecture at the University of Applied Sciences Dortmund (Germany) and the Chair of Mechatronics at the University of Duisburg-Essen (Germany), this approach offers unique advantages over existing additive manufacturing methods: the system is easily transportable and scalable, it does not require additional formwork or scaffolding, and it offers digital integration and informational oversight across the entire design and building process. This paper considers 1) key research components of cable robotic 3D-printing (such as computational design, material exploration, and robotic control), and 2) the integration of these parameters into a unified design and building process. The demonstration of the approach at full-scale is of particular concern.
This article aims to develop a social theory of violence that emphasizes the role of the third party as well as the communication between the involved subjects. For this Teresa Koloma Beck’s essay ‘The Eye of the Beholder: Violence as a Social Process’ is taken as a starting point, which adopts a social-constructivist perspective. On the one hand, the basic concepts and the benefits of this approach are presented. On the other hand, social-theoretical problems of this approach are revealed. These deficits are counteracted by expanding Koloma Beck’s approach with a communicative-constructivist framework. Thus, the role of communicative action and the ‘objectification of violence’ is emphasized. These aspects impact the perception, judgement and (de-)legitimation of violence phenomena and the emergence of a ‘knowledge of violence’. Communicative actions and objectifications form a key to understanding violent interactions and the link between the micro and macro levels. Finally, the methodological consequences for the research of violence and Communicative Constructivism are discussed. Furthermore, possible research fields are outlined, which open up by looking at communicative action and the objectifications within the ‘triads of violence’.
Zu den diversen Unternehmungen sozialbewegter „Gegenwissenschaft“, die um 1980 auf der Bildfläche der BRD erschienen, zählte der 1982 gegründete Berliner Wissenschaftsladen e. V., kurz WILAB – eine Art „alternatives“ Spin-off der Technischen Universität Berlin. Der vorliegende Beitrag situiert die Ausgründung des „Ladens“ im Kontext zeitgenössischer Fortschritte der (regionalen) Forschungs- und Technologiepolitik. Gezeigt wird, wie der deindustrialisierenden Inselstadt, qua „innovationspolitischer“ Gegensteuerung, dabei sogar eine gewisse Vorreiterrolle zukam: über die Stadtgrenzen hinaus sichtbare Neuerungen wie die Gründermesse BIG TECH oder das 1983 eröffnete Berliner Innovations- und Gründerzentrum (BIG), der erste „Incubator“ [sic] der BRD, etwa gingen auf das Konto der 1977/78 lancierten Technologie-Transferstelle der TU Berlin, TU-transfer.
Anders gesagt: tendenziell bekam man es hier nun mit Verhältnissen zu tun, die immer weniger mit den Träumen einer „kritischen“, nicht-fremdbestimmten (Gegen‑)Wissenschaft kompatibel waren. Latent konträr zur historiographischen Prominenz des wissenschaftskritischen Zeitgeists fristeten „alternativen“ Zielsetzungen verpflichtete Unternehmungen wie „WILAB“ ein relativ marginalisiertes Nischendasein. Dennoch wirft das am WILAB verfolgte, so gesehen wenig aussichtsreiche Anliegen, eine andere, nämlich „humanere“ Informationstechnologie in die Wege zu leiten, ein instruktives Licht auf die Aufbrüche „unternehmerischer“ Wissenschaft in der BRD um 1980.
The technique of Acoustic travel-time TOMography (ATOM) allows for measuring the distribution of air temperatures throughout the entire room based on the determined sound-travel-times of early reflections, currently up to second order reflections. The number of detected early reflections in the room impulse response (RIR) which stands for the desired sound paths inside the room, has a significant impact on the resolution of reconstructed temperatures. This study investigates the possibility of utilizing an array of directional sound sources for ATOM measurements instead of a single omnidirectional loudspeaker used in the previous studies [1–3]. The developed measurement setup consists of two directional sound sources placed near the edge of the floor in the climate chamber of the Bauhaus-University Weimar and one omnidirectional receiver at center of the room near the ceiling. In order to compensate for the reduced number of sound paths when using directional sound sources, it is proposed to take high-energy early reflections up to third order into account. For this purpose, the simulated travel times up to third-order image sources were implemented in the image source model (ISM) algorithm, by which these early reflections can be detected effectively for air temperature reconstructions. To minimize the uncertainties of travel-times estimation due to the positioning of the sound transducers inside the room, measurements were conducted to determine the exact emitting point of the utilized sound source i.e. its acoustic center (AC). For these measurements, three types of excitation signals (MLS, linear and logarithmic chirp signals) with various frequency ranges were used considering that the acoustic center of a sound source is a frequency dependent parameter [4]. Furthermore, measurements were conducted to determine an optimum excitation signal based on the given condition of the ATOM measurement set-up which defines an optimum method for the RIR estimation correspondingly. Finally, the uncertainty of the measuring system utilizing an array of directional sound sources was analyzed.
The thesis addresses journalistic, administrative and judicial historical documentation to analyze the links between aridity and geographical imaginaries in the province of Catamarca (Argentina), from a historical point of view. The research aims to contribute to the understanding of the "non-hegemonic" versions of Modernity, its territoriality and the productions of geographic imaginaries that they involve. To provide a broad purpose, it raises as an object of study the ways in which "modern" practices, actors, links, discourses and expectations about the territory are mobilized when they are located in a space in "other" water conditions. those that are intended to "civilize" it.
The general objective of the research is to analyze time-space controversies around water in the city and valley of Catamarca towards 19th and 20th centuries. The specific objectives derived are a) analyzing how various actors are related to waters behavior - in other words, the local water regime – in Catamarca and the meanings built around it. b) to analyze the controversies about the place of Catamarca and its water regime in the local and national geographic imaginary. c) analyze controversies in which the relationships between actors and materialities involved in modernization projects are put into discussion.
These concerns by the experience of the actors and by the historical-spatial imagination of the territory, combined, led to the construction of an interdisciplinary methodology based on tools from anthropology, sociology, geography and history.
BIM-basierte Digitalisierung von Bestandsgebäuden aus Sicht des FM am Beispiel von Heizungsanlagen
(2022)
Das Ziel der Arbeit ist, für das Facility Management relevante Informationen für die mit Building Information Modeling basierende Erstellung von Bestandsgebäuden am Beispiel einer Hei- zungsanlage zu definieren. Darauf basierend sind die notwendigen Arbeitsschritte der Objek- taufnahme abgeleitet. Für die Definition der Arbeitsschritte wurden das grundlegende Vorge- hen bei einer Objektaufnahme sowie die gesetzlichen Gegebenheiten für den Betrieb einer Heizungsanlage dargelegt. Darüber hinaus sind in der vorliegenden Ausarbeitung die Vorteile und Herausforderungen hinsichtlich des Zusammenspiels von Building Information Modeling und Facility Management analysiert. Die definierten Arbeitsschritte sind anhand eines Beispiel- projektes angewendet worden. Im Rahmen des Beispielprojekts sind die entscheidenden Be- triebsdaten je Anlagenteil in Form von Informationsanforderungen nach DIN 17412 definiert. Das Gebäudemodell ist durch Parameter mit den für das Facility Management relevanten In- formationen ergänzt. Die Resultate des Beispielprojektes sind mit aussagekräftigen Schnitten, Plänen sowie 3-D-Visualisierungen dargestellt. Abschließend sind die Ergebnisse in Bezug auf das FM validiert. Aus den Arbeitsschritten und Ergebnissen ist eine Leitlinie erstellt worden für den Digitalisierungsprozess von Bestandsgebäuden für das Facility Management.
Open Innovation in kleinen und mittleren Unternehmen (KMU) hat sich stark ausdifferenziert. Dabei zeigt die Empirie, dass KMU unterschiedliche Wege in der offenen Entwicklung von Innovationen begehen. Um die bestehende Literatur zu erweitern, wurden mit dieser Dissertation die Ziele verfolgt 1) offene Innovationsaktivitäten in KMU aus einer Prozessperspektive aufzudecken und genau zu beschreiben und 2) zu erklären, warum sich die Öffnung von Innovationsprozessen in KMU unterscheidet. Dafür wurde auf eine multiple Fallstudienanalyse zurückgegriffen. Untersuchungsobjekte waren kleine etablierte High-Tech Unternehmen aus den neuen Bundesländern. Die Ergebnisse zeigen sechs Prozessmodelle der offenen Innovationsentwicklung, beschrieben als Open Innovation Muster. Deskriptionen dieser Muster unter Berücksichtigung von formenden Innovationsaktivitäten, ausgetauschtem Wissen, beteiligten externen Akteuren und Gründen für und gegen Open Innovation vermitteln ein über den bisherigen Forschungsstand hinausgehendes Verständnis von Open Innovation in KMU. Zudem zeigen die Ergebnisse, dass die Entrepreneurial Orientation erklärt, warum KMU bei der Ausgestaltung von offenen Innovationsprozessen unterschiedlich vorgehen. In der Dissertation wird detailliert dargelegt, welche Open Innovation Muster sich anhand der Entrepreneurial Orientation von KMU (nicht-entrepreneurial bis entrepreneurial) zeigen. Die Ergebnisse liefern sowohl wissenschaftliche Implikationen, als auch Handlungsempfehlungen für die Unternehmenspraxis.
Kleine Kommunen im ländlichen Raum sind aufgrund ihrer oft eingeschränkten personellen und finanziellen Kapazitäten bisher eher sporadisch in den Themenfeldern Energieeffizienz und Erneuerbare Energien aktiv. Immer wieder stellt sich daher Frage, wie die Klimaschutzstrategien des Bundes und der Länder dort mit dem verfügbaren Personal kostengünstig realisierbar sind. Vor diesem Hintergrund wird ein Werkzeug entwickelt, mit dessen Hilfe der aktive Einstieg in diese Thematik mit geringen Aufwand und überwiegend barrierefrei möglich ist.
Der Aufbau eines prozessorientierten Entwicklungs- und Moderationsmodells zur Erprobung und Umsetzung bezahlbarer Handlungsoptionen für Energieeinsparungen und effizienten Energieeinsatz im überwiegend ländlichen geprägten Raum ist der Schwerpunkt der Softwarelösung.
Kommunen werden mit deren Hilfe in die Lage versetzt, in die notwendigen Prozesse der Energie- und Wärmewende einzusteigen. Dabei soll der modulare Aufbau die regulären Schritte notwendiger (integrierter) Planungsprozesse nicht vollständig ersetzen. Vielmehr können innerhalb der Online-Anwendung - überwiegend automatisiert - konkrete Maßnahmenvorschläge erstellt werden, die ein solides Fundament der künftigen energetischen Entwicklung der Kommunen darstellen.
Für eine gezielte Validierung der Ergebnisse und der Ableitung potentieller Maßnahmen werden für die Erprobung Modellkommunen in Thüringen, Bayern und Hessen als Reallabore einbezogen.
Das Tool steht bisher zunächst nur den beteiligten Modellkommunen zur Verfügung. Die entwickelte Softwarelösung soll künftig Schritt für Schritt allen interessierten Kommunen mit diversen Hilfsmitteln und einer Vielzahl anderer praktischer Bestandteile zur Verfügung gestellt werden.
Object-Oriented Damage Information Modeling Concepts and Implementation for Bridge Inspection
(2022)
Bridges are designed to last for more than 50 years and consume up to 50% of their life-cycle costs during their operation phase. Several inspections and assessment actions are executed during this period. Bridge and damage information must be gathered, digitized, and exchanged between different stakeholders. Currently, the inspection and assessment practices rely on paper-based data collection and exchange, which is time-consuming and error-prone, and leads to loss of information. Storing and exchanging damage and building information in a digital format may lower costs and errors during inspection and assessment and support future needs, for example, immediate simulations regarding performance assessment, automated maintenance planning, and mixed reality inspections. This study focused on the concept for modeling damage information to support bridge reviews and structural analysis. Starting from the definition of multiple use cases and related requirements, the data model for damage information is defined independently from the subsequent implementation. In the next step, the implementation via an established standard is explained. Functional tests aim to identify problems in the concept and implementation. To show the capability of the final model, two example use cases are illustrated: the inspection review of the entire bridge and a finite-element analysis of a single component. Main results are the definition of necessary damage data, an object-oriented damage model, which supports multiple use cases, and the implementation of the model in a standard. Furthermore, the tests have shown that the standard is suitable to deliver damage information; however, several software programs lack proper implementation of the standard.
Reine Calciumsulfatbindemittel weisen eine hohe Löslichkeit auf. Feuchteinwirkung führt zudem zu starken Festigkeitsverlusten. Aus diesem Grund werden diese Bindemittel ausschließlich für Baustoffe und -produkte im Innenbereich ohne permanenten Feuchtebeanspruchung eingesetzt. Eine Möglichkeit, die Feuchtebeständigkeit zu erhöhen, ist die Beimischung puzzolanischer und zementärer Komponenten. Diese Mischsysteme werden Gips-Zement-Puzzolan-Bindemittel (kurz: GZPB) genannt.
Mischungen aus Calciumsulfaten und Portlandzementen allein sind aufgrund der treibenden Ettringitbildung nicht raumbeständig. Durch die Zugabe von puzzolanischen Stoffen können aber Bedingungen im hydratisierenden System geschaffen werden, welche eine rissfreie Erhärtung ermöglichen. Hierfür ist eine exakte Rezeptierung der GZPB notwendig, um die GZPB-typischen, ettringitbedingten Dehnungen zeitlich zu begrenzen. Insbesondere bei alumosilikatischen Puzzolanen treten während der Hydratation gegenüber rein silikatischen Puzzolanen deutlich höhere Expansionen auf, wodurch die Gefahr einer potenziellen Rissbildung steigt. Für die Erstellung geeigneter GZPB-Zusammensetzungen bedarf es daher einer Methodik, um raumbeständig erhärtende Systeme sicher von destruktiven Mischungen unterscheiden zu können.
Sowohl für die Rezeptierung als auch für die Anwendung der GZPB existieren in Deutschland keinerlei Normen. Darüber hinaus sind die Hydratationsvorgänge sowie die entstehenden Produkte nicht konsistent beschrieben. Auch auf die Besonderheiten der GZPB mit alumosilikatischen Puzzolanen wird in der Literatur nur unzureichend eingegangen.
Ziel war es daher, ein grundlegendes Verständnis der Hydratation sowie eine sichere Methodik zur Rezeptierung raumbeständig und rissfrei erhärtender GZPB, insbesondere in Hinblick auf die Verwendung alumosilikatischer Puzzolane, zu erarbeiten. Darüber hinaus sollte systematisch der Einfluss der Einzelkomponenten auf Hydratation und Eigenschaften dieser Bindemittelsysteme untersucht werden. Dies soll ermöglichen, die GZPB für ein breites Anwendungsspektrum als Bindemittel zu etablieren, und somit vorteilhafte Eigenschaften der Calciumsulfate (geringe Schwindneigung, geringe CO2-Emission etc.) mit der Leistungs-fähigkeit von Zementen (Wasserbeständigkeit, Festigkeit, Dauerhaftigkeit etc.) zu verbinden.
Als Ausgangsstoffe der Untersuchungen zu den GZPB wurden Stuckgips und Alpha-Halbhydrat als Calciumsulfatbindemittel in unterschiedlichen Anteilen im GZPB verwendet. Die Puzzolan-Zement-Verhältnisse wurden ebenfalls variiert. Als Puzzolan kam für den Großteil der Untersuchungen ein alumosilikatisches Metakaolin zum Einsatz. Als kalkspendende Komponente diente ein reiner Portlandzement.
Das Untersuchungsprogramm gliederte sich in 4 Teile. Zuerst wurde anhand von CaO- und pH-Wert-Messungen in Suspensionen sowie dem Längenänderungsverhalten von Bindemittelleimen verschiedener Zusammensetzungen eine Vorauswahl geeigneter GZPB-Rezepturen ermittelt. Danach erfolgten, ebenfalls an Bindemittelleimen, Untersuchungen zu den Eigenschaften der als geeignet eingeschätzten GZPB-Mischungen. Hierzu zählten Langzeitbetrachtungen zur rissfreien Erhärtung bei unterschiedlichen Umgebungsbedingungen sowie die Festigkeitsentwicklung im trockenen und feuchten Zustand. Im nächsten Schritt wurde anhand zweier exemplarischer GZPB-Zusammensetzungen (mit silikatischen und alumosilikatischen Puzzolan) die prinzipiell mögliche Phasenzusammensetzung unter Variation des Puzzolan-Zement-Verhältnisses (P/Z-Verhältnis) und des Calciumsulfatanteils im thermodynamischen Gleichgewichtszustand berechnet. Hier wurde im Besonderen auf Unterschiede der silikatischen und alumosilikatischen Puzzolane eingegangen. Im letzten Teil der Untersuchungen wurden die Hydratationskinetik der GZPB sowie die Gefügeentwicklung näher betrachtet. Hierfür wurden die Porenlösungen chemisch analysiert und Sättigungsindizes berechnet, sowie elektronenmikropische, porosimetrische und röntgenografische Untersuchungen durchgeführt. Abschließend wurden die Ergebnisse gesamtheitlich interpretiert, da die Ergebnisse der einzelnen Untersuchungsprogramme miteinander in Wechselwirkung stehen.
Als hauptsächliche Hydratationsprodukte wurden Calciumsulfat-Dihydrat, Ettringit und
C-(A)-S-H-Phasen ermittelt, deren Anteile im GZPB neben dem Calciumsulfatanteil und dem Puzzolan-Zement-Verhältnis auch deutlich vom Wasserangebot und der Gefügeentwicklung abhängen. Bei Verwendung von alumosilikatischen Puzzolans kommt es wahrscheinlich zur teilweisen Substitution des Siliciums durch Aluminium in den C-S-H-Phasen. Dies erscheint aufgrund des Nachweises der für diese Phasen typischen, folienartigen Morphologie wahrscheinlich. Portlandit wurde in raumbeständigen GZPB-Systemen nur zu sehr frühen Zeitpunkten in geringen Mengen gefunden.
In den Untersuchungen konnte ein Teil der in der Literatur beschriebenen, prinzipiellen Hydratationsabläufe bestätigt werden. Bei Verwendung von Halbhydrat als Calciumsulfatkomponente entsteht zuerst Dihydrat und bildet die Primärstruktur der GZPB. In dieses existierende Grundgefüge kristallisieren dann das Ettringit und die C-(A)-S-H-Phasen. In den GZPB sorgen entgegen der Beschreibungen in der Literatur nicht ausschließlich die
C-(A)-S-H-Phasen zur Verbesserung der Feuchtebeständigkeit und der Erhöhung des Festigkeitsniveaus, sondern auch das Ettringit. Beide Phasen überwachsen im zeitlichen Verlauf der Hydratation die Dihydratkristalle in der Matrix und hüllen diese – je nach Calciumsulfatanteil im GZPB – teilweise oder vollständig ein. Diese Umhüllung sowie die starke Gefügeverdichtung durch die C-(A)-S-H-Phasen und das Ettringit bedingen, dass ein lösender Angriff durch Wasser erschwert oder gar verhindert wird. Gleichzeitig wird die Gleitfähigkeit an den Kontaktstellen der Dihydratkristalle verringert.
Eine rissfreie und raumbeständige Erhärtung ist für die gefahrlose Anwendung eines GZPB-Systems essentiell. Hierfür ist die Kinetik der Ettringitbildung von elementarer Bedeutung. Die gebildete Ettringitmenge spielt nur eine untergeordnete Rolle. Selbst ausgeprägte, ettringitbedingte Dehnungen und hohe sich bildende Mengen führen zu frühen Zeitpunkten, wenn die Dihydratkristalle noch leicht gegeneinander verschiebbar sind, zu keinen Schäden. Bleibt die Übersättigung bezüglich Ettringit und somit auch der Kristallisationsdruck allerdings über einen langen Zeitraum hoch, genügen bereits geringe Ettringitmengen, um das sich stetig verfestigende Gefüge stark zu schädigen.
Die für die raumbeständige Erhärtung der GZPB notwendige, schnelle Abnahme der Ettringitübersättigung wird hauptsächlich durch die Reaktivität des Puzzolans beeinflusst. Die puzzolanische Reaktion führt zur Bindung des aus dem Zement stammenden Calciumhydroxid durch die Bildung von C-(A)-S-H-Phasen und Ettringit. Hierdurch sinkt die Calcium- und Hydroxidionenkonzentration in der Porenlösung im Verlauf der Hydratation, wodurch auch die Übersättigung bezüglich Ettringit abnimmt. Je höher die Reaktivität des Puzzolans ist, desto schneller sinkt der Sättigungsindex des Ettringits und somit auch der Kristallisationsdruck. Nach Unterschreiten eines noch näher zu klärendem Grenzwert der Übersättigung stagnieren die Dehnungen. Das Ettringit kristallisiert bzw. wächst nun bevorzugt in den Poren ohne eine weitere, äußere Volumenzunahme zu verursachen.
Um eine schadensfreie Erhärtung des GZPB zu gewährleisten, muss gerade in der frühen Phase der Hydratation ein ausreichendes Wasserangebot gewährleistet werden, so dass die Ettringitbildung möglichst vollständig ablaufen kann. Andernfalls kann es bei einer Wiederbefeuchtung zur Reaktivierung der Ettringitbildung kommen, was im eingebauten Zustand Schäden verursachen kann. Die Gewährleistung eines ausreichenden Wasserangebots ist im GZPB-System nicht unproblematisch. In Abhängigkeit der GZPB-Zusammensetzung können sich große Ettringitmengen bilden, die einen sehr hohen Wasserbedarf aufweisen. Deshalb kann es, je nach verwendeten Wasser-Bindemittel-Wert, im Bindemittelleim zu einem Wassermangel kommen, welcher die weitere Hydratation verlangsamt bzw. komplett verhindert. Zudem können GZPB-Systeme teils sehr dichte Gefüge ausbilden, wodurch der Wassertransport zum Reaktionsort des Ettringits zusätzlich behindert wird.
Die Konzeption raumbeständiger GZPB-Systeme muss anhand mehrerer aufeinander aufbauender Untersuchungen erfolgen. Zur Vorauswahl geeigneter Puzzolan-Zementverhältnisse eignen sich die Messungen der CaO-Konzentration und des pH-Wertes in Suspensionen. Als alleinige Beurteilungsgrundlage reicht dies allerdings nicht aus. Zusätzlich muss das Längenänderungs-verhalten beurteilt werden. Raumbeständige Mischungen mit alumosilikatischen Puzzolanen zeigen zu frühen Zeitpunkten starke Dehnungen, welche dann abrupt stagnieren. Stetige – auch geringe – Dehnungen weisen auf eine destruktive Zusammensetzung hin.
Mit diesem mehrstufigen Vorgehen können raumbeständige, stabile GZPB-Systeme konzipiert werden, so dass die Zielstellung der Arbeit erreicht wurde und ein sicherer praktischer Einsatz dieser Bindemittelart gewährleistet werden kann.
This report details the development of Horoskopos, a virtual planetarium for astrology. This project was an attempt to develop a learning tool for studying astrological concepts as connected to observational astronomy. The premise that astrology and observational astronomy were once inseparable from each other in ancient times guided the conceptualization of this tool as an interactive planetarium. The main references were existing software and applications for visualization in astrology and astronomy. Professional astrology teachers were consulted in order to understand better the state of astrological teaching and learning, as well as existing tools and practice. Horoskopos was built using the Unity3D development interface, which is based on the C# programming language. It also relied on the Swiss Ephemeris coding interface from Astrodienst. The development process was experimental and many of the needed skills were developed as needed. Usability tests were performed as new features were added to the interface. The final version of Horoskopos is fully usable, with many interactive visualization features and a defined visual identity. It was validated together with professional astrologers for its effectiveness in concept and visualization.
Numerical simulation of physical phenomena, like electro-magnetics, structural and fluid mechanics is essential for the cost- and time-efficient development of mechanical products at high quality. It allows to investigate the behavior of a product or a system far before the first prototype of a product is manufactured.
This thesis addresses the simulation of contact mechanics. Mechanical contacts appear in nearly every product of mechanical engineering. Gearboxes, roller bearings, valves and pumps are only some examples. Simulating these systems not only for the maximal/minimal stresses and strains but for the stress-distribution in case of tribo-contacts is a challenging task from a numerical point of view.
Classical procedures like the Finite Element Method suffer from the nonsmooth representation of contact surfaces with discrete Lagrange elements. On the one hand, an error due to the approximate description of the surface is introduced. On the other hand it is difficult to attain a robust contact search because surface normals can not be described in a unique form at element edges.
This thesis introduces therefore a novel approach, the adaptive isogeometric contact formulation based on polynomial Splines over hierarchical T-meshes (PHT-Splines), for the approximate solution of the non-linear contact problem. It provides a more accurate, robust and efficient solution compared to conventional methods. During the development of this method the focus was laid on the solution of static contact problems without friction in 2D and 3D in which the structures undergo small deformations.
The mathematical description of the problem entails a system of partial differential equations and boundary conditions which model the linear elastic behaviour of continua. Additionally, it comprises side conditions, the Karush-Kuhn-Tuckerconditions, to prevent the contacting structures from non-physical penetration. The mathematical model must be transformed into its integral form for approximation of the solution. Employing a penalty method, contact constraints are incorporated by adding the resulting equations in weak form to the overall set of equations. For an efficient space discretization of the bulk and especially the contact boundary of the structures, the principle of Isogeometric Analysis (IGA) is applied. Isogeometric Finite Element Methods provide several advantages over conventional Finite Element discretization. Surface approximation with Non-Uniform Rational B-Splines (NURBS) allow a robust numerical solution of the contact problem with high accuracy in terms of an exact geometry description including the surface smoothness.
The numerical evaluation of the contact integral is challenging due to generally non-conforming meshes of the contacting structures. In this work the highly accurate Mortar Method is applied in the isogeometric setting for the evaluation of contact contributions. This leads to an algebraic system of equations that is linearized and solved in sequential steps. This procedure is known as the Newton Raphson Method. Based on numerical examples, the advantages of the isogeometric approach
with classical refinement strategies, like the p- and h-refinement, are shown and the influence of relevant algorithmic parameters on the approximate solution of the contact problem is verified. One drawback of the Spline approximations of stresses though is that they lack accuracy at the contact edge where the structures change their boundary from contact to no contact and where the solution features a kink. The approximation with smooth Spline functions yields numerical artefacts in the form of non-physical oscillations.
This property of the numerical solution is not only a drawback for the
simulation of e.g. tribological contacts, it also influences the convergence properties of iterative solution procedures negatively. Hence, the NURBS discretized geometries are transformed to Polynomial Splines over Hierarchical T-meshes (PHT-Splines), for the local refinement along contact edges to reduce the artefact of pressure oscillations. NURBS have a tensor product structure which does not allow to refine only certain parts of the geometrical domain while leaving other parts unchanged. Due to the Bézier Extraction, lying behind the transformation from NURBS to PHT-Splines, the connected mesh structure is broken up into separate elements. This allows an efficient local refinement along the contact edge.
Before single elements are refined in a hierarchical form with cross-insertion, existing basis functions must be modified or eliminated. This process of truncation assures local and global linear independence of the refined basis which is needed for a unique approximate solution. The contact boundary is a priori unknown. Local refinement along the contact edge, especially for 3D problems, is for this reason not straight forward. In this work the use of an a posteriori error estimation procedure, the Super Convergent Recovery Solution Based Error Estimation Scheme, together with the Dörfler Marking Method is suggested for the spatial search of the contact edge.
Numerical examples show that the developed method improves the quality of solutions along the contact edge significantly compared to NURBS based approximate solutions. Also, the error in maximum contact pressures, which correlates with the pressure artefacts, is minimized by the adaptive local refinement.
In a final step the practicability of the developed solution algorithm is verified by an industrial application: The highly loaded mechanical contact between roller and cam in the drive train of a high-pressure fuel pump is considered.
Ob MP3-Player, Elektro-Jet oder Hochgeschwindigkeits-Röntgendetektor – hinter erfolgreichen Produkten stehen wissenschaftliche Erfindungen und Wissenschaftler*innen, die ihre Technologien kommerzialisiert haben.
Auch Ihre Forschungsergebnisse könnten Potenzial für eine Ausgründung bieten. Doch vor dem Wechsel aus der Universität in die Selbstständigkeit stehen viele Fragen: Welche Marktchancen ergeben sich für meine Technologie? Welche Kompetenzen benötige ich in meinem Gründungsteam? Wie entwickle ich ein tragfähiges Geschäftsmodell? Und nicht zuletzt: Welche Förderprogramme und Finanzierungsoptionen gibt es für forschungsbasierte Ausgründungen? Das Workbook der Gründerwerkstatt neudeli möchte Ihnen als Wissenschaftler*in Unterstützung bei der Beantwortung dieser und vieler weiterer Fragen geben.
Liebevoll gestaltet durch die parzelle34 bietet das Workbook den geeigneten Einstieg zum Thema »Ausgründung aus der Wissenschaft«, gibt Ihnen erste Informationen sowie weiterführende Beratungsangebote an die Hand und animiert mit interaktiven Elementen dazu, direkt durchzustarten!
Quantification of cracks in concrete thin sections considering current methods of image analysis
(2022)
Image analysis is used in this work to quantify cracks in concrete thin sections via modern image processing. Thin sections were impregnated with a yellow epoxy resin, to increase the contrast between voids and other phases of the concrete. By the means of different steps of pre-processing, machine learning and python scripts, cracks can be quantified in an area of up to 40 cm2. As a result, the crack area, lengths and widths were estimated automatically within a single workflow. Crack patterns caused by freeze-thaw damages were investigated. To compare the inner degradation of the investigated thin sections, the crack density was used. Cracks in the thin sections were measured manually in two different ways for validation of the automatic determined results. On the one hand, the presented work shows that the width of cracks can be determined pixelwise, thus providing the plot of a width distribution. On the other hand, the automatically measured crack length differs in comparison to the manually measured ones.
Revisiting vernacular technique: Engineering a low environmental impact earth stabilisation method
(2022)
The major drawbacks of earth as a construction material — such as its low water stability and moderate strength — have led mankind to stabilize earth. Different civilizations developed vernacular techniques mainly focussing on lime, pozzolan or gypsum stabilization. Recently, cement has become the most commonly used additive in earth stabilization as it improves the strength and durability of plain earth. Also, it is a familiar and globally available construction material. However, using cement as an additive reduces the environmental advantages of earth and run counter to global targets regarding the reduction of CO2 emissions. Alternatives to cement stabilization are currently neither efficient enough to reduce its environmental impact nor allow the possibility of obtaining better results than those of cement. As such, this thesis deals with the rediscovery of a reverse engineering approach for a low environmental impact earth stabilization technique, aiming to replace cement in earth stabilization.
The first step in the method consists in a comprehensive review of earth stabilization with regards to earthen building standards and soil classification, which allows us to identify the research gap. The review showed that there is great potential in using other additives which result in similar improvements as those achieved by cement. However, the studies that have been conducted so far either use expansive soils, which are not suitable for earth constructions or artificial pozzolans that indirectly contribute to CO2 emissions. This is the main research gap.
The key concept for the development in the second step of the method is to combine vernacular additives to both improve the strength and durability of plain earth and to reduce the CO2 emissions. Various earth-mixtures were prepared and both development and performance tests were done to investigate the performance of this technique. The laboratory analyses on mix-design have proven a high durability and the results show a remarkable increase in strength performance. Furthermore, a significant reduction in CO2 emissions in comparison to cement stabilization could be shown.
The third step of the method discusses the results drawn from the experimental programme. In addition, the potential of the new earth mixture with regards to its usability in the field of building construction and architectural design is further elaborated on.
The method used in this study is the first of its kind that allows investors to avoid the very time-consuming processes such as finding a suitable source for soil excavation and soil classification. The developed mixture has significant workability and suitability for production of stabilized earthen panels — the very first of its kind. Such a panel is practically feasible, reasonable, and could be integrated into earthen building standards in general and in particular to DIN 18948, which is related to earthen boards and published in 2018.
The modern industries of the 19th and 20th centuries had multiple effects on the spatial transformation of cities and regions. The past decade has witnessed increasing scholarly and governmental attempts toward conserving modern industrial heritage in the so-called Global North, with the goal, among others, of leveraging this heritage as a driver for urban economic development. In Egypt, the process continues to lag behind; on the one hand, this is due to the perplexing official recognition of the (in)tangible witnesses of modern industries. On the other hand, the official recognition and previous publications focus predominantly on weighing the significance of industrial structures based on their monumental architectural aesthetics. Their historical urban role and spatial attributes as part of urban heritage have yet to be seriously acknowledged. Accordingly, this hinders the integration of the extant industrial sites into the broader debate surrounding urban conservation, leaving them vulnerable to decay and destruction.
This dissertation steers away from the singular investigation of selective modern industrial sites to recall their historical spatial development on a city scale. This is effected by investigating a case study - the Egyptian port city of Alexandria. With the limited secondary data available on modern industries in Alexandria, this dissertation relied predominantly on primary sources. The author collected and leveraged both quantitative and qualitative data to recontextualize modern industries in terms of their spatial dynamics, order, and rationale within cities’ transformation.
By recalling historical spatial development in Alexandria, the contribution of this dissertation lies in highlighting what the author refers to as the Omitted Heritage. This is defined by the modern industries in Egypt that are intentionally, unintentionally, and forgetfully excluded in terms of physical documentation, evaluation, appreciation, and integration within urban development plans. The method used excavated the richness of the established modern industries in Alexandria in terms of their quantity and diversity, which would have otherwise remained largely forgotten. The contextualization of modern industries unveiled spatial periodization, spatial dynamics, and conceptual development. The study draws on important analytical aspects that transcend the sites’ boundaries, elevating their significance to the municipal, regional, national, and even global levels. Its recommendations for further research are also divided into those levels.
In this paper, we present an open-source code for the first-order and higher-order nonlocal operator method (NOM) including a detailed description of the implementation. The NOM is based on so-called support, dual-support, nonlocal operators, and an operate energy functional ensuring stability. The nonlocal operator is a generalization of the conventional differential operators. Combined with the method of weighed residuals and variational principles, NOM establishes the residual and tangent stiffness matrix of operate energy functional through some simple matrix without the need of shape functions as in other classical computational methods such as FEM. NOM only requires the definition of the energy drastically simplifying its implementation. The implementation in this paper is focused on linear elastic solids for sake of conciseness through the NOM can handle more complex nonlinear problems. The NOM can be very flexible and efficient to solve partial differential equations (PDEs), it’s also quite easy for readers to use the NOM and extend it to solve other complicated physical phenomena described by one or a set of PDEs. Finally, we present some classical benchmark problems including the classical cantilever beam and plate-with-a-hole problem, and we also make an extension of this method to solve complicated problems including phase-field fracture modeling and gradient elasticity material.