Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
- Diploma Thesis (13)
- Other (11)
- Study Thesis (10)
- Habilitation (9)
- Review (7)
- Working Paper (5)
- Course Material (1)
- Lecture (1)
- Magister's Thesis (1)
- Sound (1)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Year of publication
- 2004 (220)
- 2003 (197)
- 2006 (173)
- 1997 (165)
- 2015 (125)
- 2020 (123)
- 2010 (114)
- 2008 (112)
- 2005 (106)
- 2012 (105)
- 2000 (100)
- 2022 (94)
- 2011 (91)
- 2021 (88)
- 2013 (85)
- 2014 (85)
- 2016 (70)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2017 (58)
- 2018 (58)
- 2007 (53)
- 1983 (49)
- 2009 (49)
- 1979 (36)
- 1976 (29)
- 2001 (24)
- 2002 (24)
- 1993 (23)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
We consider a structural truss problem where all of the physical model parameters are uncertain: not just the material values and applied loads, but also the positions of the nodes are assumed to be inexact but bounded and are represented by intervals. Such uncertainty may typically arise from imprecision during the process of manufacturing or construction, or round-off errors. In this case the application of the finite element method results in a system of linear equations with numerous interval parameters which cannot be solved conventionally. Applying a suitable variable substitution, an iteration method for the solution of a parametric system of linear equations is firstly employed to obtain initial bounds on the node displacements. Thereafter, an interval tightening (pruning) technique is applied, firstly on the element forces and secondly on the node displacements, in order to obtain tight guaranteed enclosures for the interval solutions for the forces and displacements.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden Analyse unterschiedlicher Berechnungsansätze zum hydraulischen Grundbruch. Diese wurden zunächst analysiert, an Beispielberechnungen angewandt und schließlich miteinander verglichen. Weiterhin wurde der Einfluss verschiedener Randbedingungen, allem voran der Baugrubenbreite, auf die Sicherheit gegen einen hydraulischen Grundbruch untersucht. Es werden Empfehlungen zur Anwendbarkeit verschiedener Näherungsansätze bei Vorhandensein bestimmter Einflussfaktoren gegeben.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der last- und zeitabhängigen Verformungseigenschaften und der Steifigkeits-Degradation von unbewehrtem Normalbeton und hochfestem, selbstverdichtendem Beton (SVB). Neben experimentellen Untersuchungen werden numerische Simmulationen des Beton-Kriechverhaltens unter kurzzeitiger, quasi-statischer, uniaxialer Druckbeanspruchung vorgenommen.
Zielstellung: Im Rahmen von Verkehrswegebauprojekten werden häufig Dämme aus Felsbruchmaterialien hergestellt. Solche Materialien weisen in der Regel einen hohen Anteil an Steinen und Blöcken auf. Dieses Größtkorn muss zerkleinert werden, um eine hohlraumarme Verdichtung gewährleisten zu können und damit spätere Sackungen durch Verlagerung der Gesteinsblöcke auszuschließen. Die diesbezüglichen Vorgaben der ZTVE-StB sind einzuhalten. Über die eingesetzte Verdichtungstechnologie lassen sich Gesteine bis zu bestimmten maximalen einaxialen Druckfestigkeiten auf entsprechende Korngrößen zertrümmern. Der Unternehmer muss entscheiden, ob mit einer gewählten Verdichtungstechnologie das Felsbruchmaterial ausreichend stark zertrümmert wird, um die Vorgaben zu erfüllen. Gleichzeitig darf der Feinkornanteil durch den Zertrümmerungsvorgang nur geringfügig ansteigen, um den Anforderungen bezüglich Durchlässigkeit und Frostempfindlichkeit gerecht zu werden. Die geforderten Tragfähigkeiten und Dichten müssen sichergestellt sein. Aufgrund fehlender Vergleichsuntersuchungen ist die Beurteilung der geeigneten Verdichtungstechnologie meist problematisch. Größenordnungen und Leistungsansätze können dadurch falsch eingeschätzt werden. Ziel dieser Diplomarbeit ist die Untersuchung der Beziehung zwischen Festigkeit und Zertrümmerung von Felsbruchmaterial in Abhängigkeit der eingesetzten Verdichtungstechnologie. Es soll untersucht werden, inwieweit vorhandene Steine und Gesteinsblöcke durch Verdichtungsvorgänge eine Zertrümmerung erfahren und welche Auswirkungen das auf die Korngrößenverteilung, insbesondere auch hinsichtlich des Feinkornanteils, hat. Ein Zusammenhang zu den erreichten Tragfähigkeiten und Dichten soll hergestellt werden. Dadurch kann die geplante Verdichtungstechnologie im Bezug auf ihre Wirksamkeit besser eingeschätzt und gegebenenfalls optimiert werden. Die Beurteilung von Leistungsansätzen und Kosten im Rahmen der Angebotserarbeitung wird somit deutlich vereinfacht.
Verbundverhalten von GFK-Bewehrungsstäben und Rissentwicklung in GFK-stabbewehrten Betonbauteilen
(2004)
In der vorliegenden Arbeit werden im Rahmen von Ausziehversuchen die Verbundeigenschaften verschiedener Bewehrungsstäbe aus glasfaserverstärkten Kunststoffen (GFK) unter Berücksichti-gung signifikanter Einflussgrößen auf das Verbundverhalten wie Oberflächenprofilierung der Stäbe, Stabdurchmesser, Betonfestigkeit, Verbundlänge sowie Beanspruchungsart unter einheitlichen Versuchsrandbedingungen bestimmt. Es erfolgt eine Bewertung der Einflussgrößen, der Verbundeigenschaften und des Verbundversagens der untersuchten GFK-Bewehrungsstäbe. Basierend auf der Modellbildung zum Verbund zwischen GFK-Stäben und Beton wird die Bestimmung der Verankerungslänge aufgezeigt. Im Rahmen von Versuchen an GFK-stabbewehrten Dehnkörpern und Balken wird die Auswirkung der spezifischen mechanischen Eigenschaften der GFK-Stäbe auf die Rissentwicklung gegenüber stahlbewehrten Bauteilen untersucht. Insbesondere wird betrachtet, welchen Einfluss das Bewehrungsmaterial, der Bewehrungsgrad, die Betonfestigkeit sowie die Belastungsart auf die Mitwirkung des Betons auf Zug zwischen den Rissen sowie auf die Entwicklung des Rissbildes, der Rissbreiten und der Rissabstände haben. Auf Grundlage der experimentellen Untersuchungen wird die Übertragbarkeit der für Stahlbetonbauteile üblichen Ansätze zur Bestimmung der Rissbreite auf GFK-stabbewehrte Betonbauteile bewertet.
Der Schwerpunkt von Forschung und Entwicklung auf dem Gebiet der Tragwerksplanungs-Software lag in den letzten Jahren auf der Erweiterung des funktionalen Umfangs. In der Folge ist es notwendig, den gestiegenen Funktionsumfang einem möglichst breiten Anwenderkreis durch ingenieurgemäß gestaltete Arbeitsumgebungen zugänglich zu machen, so dass ein möglichst effizientes und fehlerarmes Arbeiten ermöglicht wird. Aus der Sicht der Tragwerksplaner muss eine ingenieurgemäß gestaltete Software eine dem spezifischen Arbeitsablauf angepasste Nutzer-Software-Interaktion aufweisen. Dabei sind die benötigten Funktionalitäten in ein einheitliches System zu integrieren und eine Anpassbarkeit durch den Anwender sicherzustellen. Die Berücksichtigung dieser Anforderungen mit herkömmlichen Mitteln würde einen unverhältnismäßig hohen Entwicklungsaufwand erfordern. Infolgedessen muss aus der Sicht der Software-Entwickler eine moderne Software-Architektur für die Tragwerksplanung eine Erhöhung des Wiederverwendungsgrades und eine unabhängige Erweiterbarkeit als zusätzliche Anforderungen erfüllen. In diesem Beitrag wird ein auf Verbunddokumenten basierendes Konzept vorgestellt, mit dem eine Zusammenführung von Standard-Software und fachspezifischen Software-Komponenten zu einer ingenieurgemäßen Arbeitsumgebung ermöglicht wird. Damit kann die Analyse und die Dokumentation eines Tragelementes einschließlich der zugehörigen Datenhaltung innerhalb eines Verbunddokumentes erfolgen. Gleichzeitig kann der software-technische Wiederverwendungsgrad durch die Definition eines Component Frameworks als unabhängig erweiterbare Software-Architektur und durch den Einsatz von Software-Komponenten mit eigener Nutzeroberfläche über das bisher erreichte Niveau hinaus gesteigert werden. Die Umsetzbarkeit des Konzeptes wird durch eine Pilotimplementierung demonstriert.
Das Ziel der Arbeit besteht in der Entwicklung von Konzepten zur effizienten Implementierung von ingenieurgemäßer Tragwerksplanungs-Software. Der vorgeschlagene Lösungsansatz basiert auf einer optimalen Anpassung der Nutzeroberfläche an den spezifischen Arbeitsablauf, der Erhöhung des Wiederverwendungsgrades sowie der Möglichkeit der unabhängigen Erweiterbarkeit von Software-Systemen. Verbunddokumente werden als Nutzeroberfläche und Software-Architektur benutzt, um eine Zusammenführung von Standard-Software und fachspezifischen Software-Komponenten zu ingenieurgemäßer Tragwerksplanungs-Software zu ermöglichen. Die Umsetzbarkeit des Konzeptes wird durch eine Pilotimplementierung verifiziert.
Der Nagel als tragendes Holzverbindungsmittel ist heute gut bekannt. Doch noch vor 100 Jahren war das anders: sein statisch konstruktiver Gebrauch war verboten. Das änderte sich mit Beginn dessen Erforschung Ende der 1920er Jahre. Seit 1933 ist der Nagel Bestandteil der deutschen Regelwerke und findet seitdem breite Verwendung. Über weite Teile des 20. Jahrhunderts diente er in Not- und Sparkonstruktionen wie Brett- und Bohlenbindern als hocheffizientes Verbindungsmittel der Wahl. Diese materialsparenden Tragwerke waren bei der periodisch im-mer wiederkehrenden Ressourcenknappheit sehr gefragt und sind ein wichtiger Bestandteil der Konstruktionsgeschichte des Holzbaus. In dem folgenden Beitrag wird die Erforschung des Na-geltragverhaltens und die einhergehende fortlaufende Normierung behandelt. Die Errungen-schaften einzelner Forschungsvorhaben werden vorgestellt. Anhand eines Zeitstrahls werden Zusammenhänge zwischen Forschung und Normung gezeigt. Tabellen und Grafiken verdeutli-chen die Änderungen innerhalb der Normen von der ersten DIN 1052 im Jahr 1933 über die erste eigenständige Holzbaunorm in der DDR, der TGL 112-0730, aus 1963 bis zur DIN 1052- 1988. Dabei wird immer Bezug zum derzeitigen Entwurf des Eurocode 5 genommen. Allgemein zeigt sich, dass ein Großteil der heutigen Kenntnisse immer noch auf die Grundlagenforschung der 1930er Jahre zurückgeht.
In the past, several types of Fourier transforms in Clifford analysis have been studied. In this paper, first an overview of these different transforms is given. Next, a new equation in a Clifford algebra is proposed, the solutions of which will act as kernels of a new class of generalized Fourier transforms. Two solutions of this equation are studied in more detail, namely a vector-valued solution and a bivector-valued solution, as well as the associated integral transforms.
VARIATIONAL POSITING AND SOLUTION OF COUPLED THERMOMECHANICAL PROBLEMS IN A REFERENCE CONFIGURATION
(2015)
Variational formulation of a coupled thermomechanical problem of anisotropic solids for the case of non-isothermal finite deformations in a reference configuration is shown. The formulation of the problem includes: a condition of equilibrium flow of a deformation process in the reference configuration; an equation of a coupled heat conductivity in a variational form, in which an influence of deformation characteristics of a process on the temperature field is taken into account; tensor-linear constitutive relations for a hypoelastic material; kinematic and evolutional relations; initial and boundary conditions. Based on this formulation several axisymmetric isothermal and coupled problems of finite deformations of isotropic and anisotropic bodies are solved. The solution of coupled thermomechanical problems for a hollow cylinder in case of finite deformation showed an essential influence of coupling on distribution of temperature, stresses and strains. The obtained solutions show the development of stressstrain state and temperature changing in axisymmetric bodies in the case of finite deformations.
VARIATION OF ROTATIONAL RESTRAINT IN GRID DECK CONNECTION DUE TO CORROSION DAMAGE AND STRENGTHENING
(2006)
The approach to assessment of rotational restraint of stringer-to-crossbeam connection in a deck of 100-year old steel truss bridge is presented. Sensitivity of rotational restraint coefficient of the connection to corrosion damage and strengthening is analyzed. Two criteria of the assessment of the rotational restraint coefficient are applied: static and kinematic one. The former is based on bending moment distribution in the considered member, the latter one – on the member rotation at the given joint. 2D-element model of finite element method is described: webs and flanges are modeled with shell elements, while rivets in the connection – with system of beam and spring elements. The method of rivet modeling is verified by T-stub connection test results published in literature. FEM analyses proved that recorded extent of corrosion damage does not alter the initial rotational restraint of stringer-to-crossbeam connection. Strengthening of stringer midspan influences midspan bending moment and stringer end rotation in a different way. Usually restoring member load bearing capacity means strengthening its critical regions (where the highest stress levels occur). This alters flexural stiffness distribution over member length and influences rotational restraint at its connection to other members. The impact depends on criterion chosen for rotational restraint coefficient assessment.
Variantenuntersuchung für eine dauerhafte Bahndammsanierung unter zu Hilfenahme numerischer Methoden
(2004)
Das Ziel der Arbeit war es, die Standsicherheit eines Bahndammes im Vergleich der in Deutschland gültigen Vorschriften (DIN 1054 und Eurocode 7) zu untersuchen. Sollte sich dabei herausstellen, dass der Bahndamm in der gegebenen Situation die Standsicherheitsanforderungen nicht erfüllt sollten verschiedene Sanierungsvarianten vorgeschlagen und für eine Vorzugsvariante die wichtigsten Nachweise durchgeführt werden. Zunächst wurden die Allgemeinen Grundlagen der zur Zeit in Deutschland gültigen Vorschriften erläutert und anschließend auf das konkrete Projekt bezogen gegenübergestellt. Es stellte sich heraus, dass die Anforderungen an die Standsicherheit bei Berechnung nach beiden Vorschriften nicht erfüllt werden konnten. Somit war es notwendig für die gegebene Situation mögliche Sanierungsvorschläge zu entwickeln. Diese wurden anschließend kurz vorgestellt und erläutert. Schließlich wurden für die Vorzugsvariante die wichtigsten Nachweise im Vergleich der Vorschriften (DIN 1054 und Eurocode 7) durchgeführt und verglichen.
Das Innovationsmanagement von Medienorganisationen unterliegt derzeit erheblichen Veränderungen: Im veränderten Marktumfeld erweisen sich Flexibilität, schnelle Richtungswechsel und Anpassungsfähigkeit als zentral. Darauf muss auch die Medienmanagement-Forschung reagieren: Um die Agilität der gegenwärtigen Unternehmenspraxis valide zu erforschen, ist eine ebenso agile, adaptive Forschung gefordert. Zu diesem Zweck schlägt der Beitrag eine praxistheoretische Perspektive auf das Innovationsmanagement von Medienorganisationen vor. Empirische Forschungsdesigns, die aus einem solchen Zugriff resultieren, werden sowohl hinsichtlich ihrer methodischen Herausforderungen als auch ihres Forschungsprojektmanagements diskutiert. Der Beitrag greift außerdem neue Möglichkeitsräume des wissenschaftlichen Publizierens, des Universitätsmanagements sowie der Forschungsorganisation auf, die praxistheoretisch gegründete, empirische Innovationsforschung in der Medienwirtschaft einfordert.
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Utilizing Modern FIB/SEM Technology and EDS for 3D Imaging of Hydrated Alite and its Pore Space
(2021)
The exploration of cementitious materials using scanning electron microscopes (SEM) is mainly done using fractured or polished surfaces. This leads to high-resolution 2D-images that can be combined using EDX and EBSD to unveil details of the microstructure and composition of materials. Nevertheless, this does not provide a quantitative insight into the three-dimensional fine structure of for example C-S-H phases.
The focused ion beam (FIB) technology can cut a block of material in thin layers of less than 10 nm. This gives us a volume of 1000 μm³ with a voxel resolution of down to 4 x 4 x 10 nm³. The results can be combined with simultaneously acquired EDX data to improve image segmentation. Results of the investigation demonstrate that it is possible to obtain close-to-native 3D-visualisation of the spatial distribution of unreacted C3S, C-S-H and CH. Additionally, an optimized preparation method allows us to quantify the fine structure of C-S-H phases (length, aspect ratio, …) and the pore space.
The production of a desired product needs an effective use of the experimental model. The present study proposes an extreme learning machine (ELM) and a support vector machine (SVM) integrated with the response surface methodology (RSM) to solve the complexity in optimization and prediction of the ethyl ester and methyl ester production process. The novel hybrid models of ELM-RSM and ELM-SVM are further used as a case study to estimate the yield of methyl and ethyl esters through a trans-esterification process from waste cooking oil (WCO) based on American Society for Testing and Materials (ASTM) standards. The results of the prediction phase were also compared with artificial neural networks (ANNs) and adaptive neuro-fuzzy inference system (ANFIS), which were recently developed by the second author of this study. Based on the results, an ELM with a correlation coefficient of 0.9815 and 0.9863 for methyl and ethyl esters, respectively, had a high estimation capability compared with that for SVM, ANNs, and ANFIS. Accordingly, the maximum production yield was obtained in the case of using ELM-RSM of 96.86% for ethyl ester at a temperature of 68.48 °C, a catalyst value of 1.15 wt. %, mixing intensity of 650.07 rpm, and an alcohol to oil molar ratio (A/O) of 5.77; for methyl ester, the production yield was 98.46% at a temperature of 67.62 °C, a catalyst value of 1.1 wt. %, mixing intensity of 709.42 rpm, and an A/O of 6.09. Therefore, ELM-RSM increased the production yield by 3.6% for ethyl ester and 3.1% for methyl ester, compared with those for the experimental data.
Adopting the European laws concerning environmental protection will require sustained efforts of the authorities and communities from Romania; implementing modern solutions will become a fast and effective option for the improvement of the functioning systems, in order to prevent disasters. As a part of the urban infrastructure, the drainage networks of pluvial and residual waters are included in the plan of promoting the systems which protect the environmental quality, with the purpose of integrated and adaptive management. The paper presents a distributed control system for sewer network of Iasi town. Unsatisfactory technical state of the actual sewer system is exposed, focusing on objectives related to implementation of the control system. The proposed distributed control system of Iasi drainage network is based on the implementation of the hierarchic control theory for diagnose, sewer planning and management. There are proposed two control levels: coordinating and local execution. Configuration of the distributed control system, including data acquisition and conversion equipment, interface characteristics, local data bus, data communication network, station configuration are widely described. The project wish to be an useful instrument for the local authorities in the preventing and reducing the impact of future natural disasters over the urban areas by means of modern technologies.
Interval analysis extends the concept of computing with real numbers to computing with real intervals. As a consequence, some interesting properties appear, such as the delivery of guaranteed results or confirmed global values. The former property is given in the sense that unknown numerical values are in known to lie in a computed interval. The latter property states that the global minimum value, for example, of a given function is also known to be contained in a interval (or a finite set of intervals). Depending upon the amount computation effort invested in the calculation, we can often find tight bounds on these enclosing intervals. The downside of interval analysis, however, is the mathematically correct, but often very pessimistic size of the interval result. This is in particularly due to the so-called dependency effect, where a single variable is used multiple times in one calculation. Applying interval analysis to structural analysis problems, the dependency has a great influence on the quality of numerical results. In this paper, a brief background of interval analysis is presented and shown how it can be applied to the solution of structural analysis problems. A discussion of possible improvements as well as an outlook to parallel computing is also given.
This paper presents a generic methodology for measurement system configuration when the goal is to identify behaviour models that reasonably explain observations. For such tasks, the best measurement system provides maximum separation between candidate models. In this work, the degree of separation between models is measured using Shannon’s Entropy Function. The location and type of measurement devices are chosen such that the entropy of candidate models is greatest. This methodology is tested on a laboratory structure and, to demonstrate generality, an existing fresh water supply network in a city in Switzerland. In both cases, the methodology suggests an appropriate set of sensors for identifying the state of the system.
Purpose of this study is to evaluate safety impact of the deceleration lane at the Upstream Zone of at-grade U-turns on 4-lane divided Thai highways. A substantial speed reduction is required by vehicles for diverging and making U-turn, and the deceleration lanes are provided for this purpose. These lanes are also providing a storage space for the U-turning vehicles to avoid unnecessary blockage of through lanes and reduce the potential of rear-end collisions. The safety at the U-turn is greatly influenced by the proper or improper use of the deceleration lanes. Subject to their length, full or partial speed adjustment can occur within the deceleration lane also the road users’ behavior is influenced. To assess the safety impact, the four groups of U-turns with the varying length of deceleration lanes were identified. Owing to limitation of availability and reliability of road crash data in Thailand, widely accepted Traffic Conflict Technique (TCT) was used as an alternative and proactive methodology. The U-turns’ geometric data, traffic conflicts and volume data were recorded in the field at 8 locations, 8 hours per location. Severity Conflict Rate (SCR) was assessed by applying a weighing factor (based on the severity grades according to the Czech TCT) to the observed conflicts related to the conflicting traffic volumes. A comparative higher value of SCR represents a lower level of safety. According to the results, increase in the functional length of the deceleration lane yields a lower value of SCR and a higher level of the road safety.
The paper describes further developments of the interactive evolutionary design concept relating to the emergence of mutually inclusive regions of high performance design solutions. These solutions are generated from cluster-oriented genetic algorithm (COGAs) output and relate to a number of objectives introduced during the preliminary design of military airframes. The data-mining of multi-objective COGA (moCOGA) output further defines these regions through the application of clustering algorithms, data reduction and variable attribute relevance analyses. A number of visual representations of the COGA output projected onto both variable and objective space are presented. The multi-objective output of the COGA is compared to output from a Strength Pareto Evolutionary Algorithm (SPEA-II) to illustrate the manner in which moCOGAs can generate good approximations to Pareto frontiers.
Efforts to define standards for representing AEC/FM data have been fairly successful. However defining a standard reference process model has not met with the same success. Yet almost every conceptual modelling or software development project starts by defining the business processes to be supported and the related requirements to be satisfied. This paper describes a new process-centred methodology for user requirements capture developed in the ICCI project (IST-2001-33022). Its essence is in recognising user requirements and use cases in the context of the real construction process, identifying the actors and roles for each individual activity and associating these activities with information, communication and standardisation requirements on the basis of a formalised specification, named the Process Matrix. In the paper we outline the history of process matrix development, introduce the basic structure of the matrix and show how it can be further extended and refined. We present also a web-based software implementation of the developed approach, describe how it has been used in ICCI and outline further perspectives.
This thesis suggests cooperation as a design paradigm for human-computer interaction. The basic idea is that the synergistic co-operation of interfaces through concurrent user activities enables increased interaction fluency and expressiveness. This applies to bimanual interaction and multi-finger input, e.g., touch typing, as well as the collaboration of multiple users. Cooperative user interfaces offer more interaction
flexibility and expressivity for single and multiple users.
Part I of this thesis analyzes the state of the art in user interface design. It explores limitations of common approaches and reveals the crucial role of cooperative action in several established user interfaces and research prototypes. A review of related research in psychology and human-computer interaction offers insights to the cognitive, behavioral, and ergonomic foundations of cooperative user interfaces. Moreover, this thesis suggests a broad applicability of generic cooperation patterns and contributes three high-level design principles.
Part II presents three experiments towards cooperative user interfaces in detail. A study on desktop-based 3D input devices, explores fundamental benefits of cooperative bimanual input and the impact of interface design on bimanual cooperative behavior. A novel interaction technique for multitouch devices is presented that follows the paradigm of cooperative user interfaces and demonstrates advantages over the status quo. Finally, this thesis introduces a fundamentally new display technology that provides up to six users with their individual perspectives of a shared 3D environment. The system creates new possibilities for the cooperative interaction of
multiple users.
Part III of this thesis builds on the research results described in Part II, in particular, the multi-user 3D display system. A series of case studies in the field of collaborative virtual reality provides exemplary evidence for the relevance and applicability of the suggested design principles.
At present time neuronet's technologies have got a wide application in a different fields of technique. At the same time they give insufficient consideration to using neuron nets in the field of building. Use of approximating neuron nets will allow to definite the deflected mode of constructions elements using noticeably less computing facilities then by using universal methods, finite-element method for instance. Today neuron nets are used for calculation separate elements of building constructions. In this work use of neuron nets for calculation deflected mode of construction which consists of many elements is consider. The main idea of suggested analysis is using neuron nets for calculation internal intensities and transferences pieces of model which are selected by there functional destination. For example, a plate is destine for adoption intensity distributed among area, the purpose of core is taking up surface distributed intensity. Elements involved as intensity converter. Plate serve for intensities dispersion and their transfer. A template is associated with functional destination. A template regards as composition of model elements which has define functional destinations. A single template can incarnate several functional destinations. On receipt values of components transference the estimation of their permissibility is put into practice. In the case of detection a violation of permissible limit, in the component database is making a search for component with analogous functional destination, according to the type of violation. If such component is found than a change a previous component into new one is realized. Thus besides control a condition of construction by components there is a possibility to make a search for decisions of revealed problem....
Portugal is one of the European countries with higher spatial and population freeway network coverage. The sharp growth of this network in the last years instigates the use of methods of analysis and the evaluation of their quality of service in terms of the traffic performance, typically performed through internationally accepted methodologies, namely that presented in the Highway Capacity Manual (HCM). Lately, the use of microscopic traffic simulation models has been increasingly widespread. These models simulate the individual movement of the vehicles, allowing to perform traffic analysis. The main target of this study was to verify the possibility of using microsimulation as an auxiliary tool in the adaptation of the methodology by HCM 2000 to Portugal. For this purpose, were used the microscopic simulators AIMSUN and VISSIM for the simulation of the traffic circulation in the A5 Portuguese freeway. The results allowed the analysis of the influence of the main geometric and traffic factors involved in the methodology by HCM 2000. In conclusion, the study presents the main advantages and limitations of the microsimulators AIMSUN and VISSIM in modelling the traffic circulation in Portuguese freeways. The main limitation is that these microsimulators are not able to simulate explicitly some of the factors considered in the HCM 2000 methodology, which invalidates their direct use as a tool in the quantification of those effects and, consequently, makes the direct adaptation of this methodology to Portugal impracticable.
The evolution of urbanism under dictatorship forms the core of the current research. This thesis is part of a research network at Bauhaus-Universität Weimar, which studies the 20th century's urbanism under different dictatorships. The network has provided a cross-cultural and cross-border environment and has enabled the author to communicate with other like-minded researchers. The 2015 published book of this group 'Urbanism and Dictatorship: A European Perspective' strengthens the foundation of this research's theoretical and methodological framework.
This thesis investigates urban policies and plans leading to the advancement of urbanization and the transformation of urban space in Iran during the second Pahlavi (1941-1979) when the country faced a milestone in its history: Nationalization of the Iranian oil industry. By reflecting the influence of economic and socio‐political determinants of the time on urbanism and the urbanization process, this work intends to critically trace the effect of dictatorship on evolved urbanism before and after the oil nationalization in 1951.
The research on the second Pahlavi's urbanism has been limitedly addressed and has only recently expanded. Most of the conducted studies date back to less than a decade ago and could not incorporate all the episodes of the second Pahlavi urbanism. These works have often investigated urbanism and architecture by focusing merely on the physical features and urban products in different years regardless of the importance of urbanism as a tool in the service of hegemony. In other words, the majority of the available literature does not intend to address the socio-economic and political roots of urban transformations and by questioning 'what has been built?' investigates the individual urban projects and plans designed by individual designers without interlinking these projects to the state's urban planning program and tracing the beneficiaries of those projects or questioning 'built for whom?'
Moreover, some chapters of this modern urbanism have rarely been investigated. For instance, scant research has looked into the works of foreign designers and consultants involved in the projects such as Peter Georg Ahrens or Constantinos A. Doxiadis. Similarly, the urbanism of the first decade of the second Pahlavi, including the government of Mossadegh, has mainly been overlooked.
Therefore, by critically analyzing the state's urban planning program and the process of urbanization in Iran during the second Pahlavi, this research aims to bridge the literature gap and to unravel the effect of the power structure on urban planning and products while seeking to find a pattern behind the regime's policies.
The main body of this work is concentrated on studying the history of urbanism in Iran, of which collecting data and descriptions played a crucial role. To prevent the limitations associated with singular methods, this research's methodology is based on methodological triangulation (Denzin, 2017). With the triangulation scheme, the data is gathered by combining different qualitative and quantitative methods such as the library, archival and media research, online resources, non-participatory observation, and photography. For the empirical part, the city of Tehran is selected as the case study. Moreover, individual non-structured interviews with the locals were conducted to gain more insights regarding urban projects.
Urban heritage is at the core of the process of many changes observable in the cities today. The pace of urban change in heritage contexts, however, differs widely across the globe. In some areas, it goes slowly, in others it is astonishingly rapid. In some cases, change is coupled with risks of erosion of heritage and urban areas of value and in others change is synonymous with prosperity and positive impacts. Change in urban heritage areas is not only confined to the physical and tangible aspects, but needs to be regarded as mirroring changes related socio-political practices, economic implications, and cultural impacts. In this regard, the present thematic issue looks at various patterns of the interrelationship between heritage and urban change from both the physical and the non-physical perspectives. This editorial presents the topic of urban heritage and patterns of physical and non-physical transformation in urban heritage contexts and introduces the thematic issue “Urban Heritage and Patterns of Change: Spatial Practices of Physical and Non-Physical Transformation.”
Urban Heat Transition in Berlin: Corporate Strategies, Political Conflicts, and Just Solutions
(2023)
In the field of urban climate policy, heat production and demand are key sectors for achieving a sustainable city. Heat production has to shift from fossil to renewable energies, and the heat demand of most buildings has to be reduced significantly via building retrofits. However, analyses of heat transition still lack its contextualization within entangled urban politico-economic processes and materialities and require critical socio-theoretical examination. Asking about the embeddedness of heat transition within social relations and its implications for social justice issues, this article discusses the challenges and opportunities of heat transition, taking Berlin as an example. It uses an urban political ecology perspective to analyze the materialities of Berlin’s heating-housing nexus, its politico-economic context, implications for relations of inequality and power, and its contested strategies. The empirical analysis identifies major disputes about the future trajectory of heat production and about the distribution of retrofit costs. Using our conceptual approach, we discuss these empirical findings against the idea of a more just heat transition. For this purpose, we discuss three policy proposals regarding cost distribution, urban heat planning, and remunicipalization of heat utilities. We argue that this conceptual approach provides huge benefits for debates around heat transition and, more generally, energy justice and just transitions.
When working on urban planning projects there are usually multiple aspects to consider. Often these aspects are contradictory and it is not possible to choose one over the other; instead, they each need to be fulfilled as well as possible. In this situation ideal solutions are not always found because they are either not sought or the problems are regarded as being too complex for human capabilities.To improve this situation we propose complementing traditional design approaches with a design synthesis process based on evolutionary many-criteria optimization methods that can fulfill formalizable design requirements. In addition we show how self-organizing maps can be used to visualize many-dimensional solution spaces in an easily analyzable and comprehensible form.The system is presented using an urban planning scenario for the placement of building volumes.
Urban design played a central role for the European dictatorships during the 20th century, it served to legitimate the regime, to produce agreement, to demonstrate power, efficiency and speed, it communicated the social, as well as design projects, of the dictatorial regimes domestically and internationally, it tied old experts, as well as new, to the regime. Dictatorial urban design also played an important role after the fall of the dictatorships: It became the object of structural and verbal handling strategies: of demolition, of transformation, of reconstruction, of forgetting, of suppressing, of re-interpretation and of glorification. The topic area is, therefore, both historical and relevant to the present day. The discussion of the topic area is, like it or not, always embedded in the present state of societal engagement with dictatorships.
In order to even be able to discuss all of these aspects, different conceptual decisions are necessary. In retrospect, these may seem to many as self-evident, although they are anything but. Our thesis is that there are three methodological imperatives, especially, which allow an expanded approach to the topic area “urban design and dictatorship”. First and above all, the tunnel view, focused on individual dictatorships and neglecting the international dimension, must be overcome. Second, the differences in urban design over the course of a dictatorship, through an appropriate periodisation, should be emphasised. Third, we must strive for an open, flexible, but complex concept of urban design. The main focus lies on the urban design of the most influential dictatorships of the first half of the 20th century: Soviet Union, Fascist Italy and Nazi Germany, including the urban design of the autarky periods in Portugal and Spain.
After all, urban design is not just a product of specific historic circumstances. It is a form that continues to have long-term effects, which demonstrates its usefulness and adaptability throughout this process. The urban design products undoubtedly still recall the dictatorial rule under which they were created. However, they are more than a memory space. They are also a living space of the present. They can and should be discussed with respect to their spatial and functional utility for today and tomorrow. Such a perspective is a given for the citizens of a city, but also for city marketing, having marvellous consequences. Only when we do not exclude this dimension a priori, even in academic discussions, can we do justice to the products of dictatorships.
And finally, the view of the urban design of dictatorships can and must contribute to the questioning of simplified and naive conceptions of dictatorships. With urban design in mind, we can observe how dictatorships work and how they were able to prevail. In Europe, these questions are of the highest actuality.
The Gated Community (GC) phenomenon in Latin American cities has become an inherent element of their urban development, despite academical debate, their approach thrives within the housing market; not surprisingly, as some of the premises on which GCs are based, namely safety, control and supervision intersperse seamlessly with the insecure conditions of the contexts from which they arise. The current security crisis in Mexico, triggered in 2006 by the so-called war on drugs, has reached its peak with the highest insecurity rates in decades, representing a unique chance to study these interactions. Although the leading term of this research, Urban Agoraphobia, implies a causal dichotomy between the rise in the sense of fear amongst citizens and housing confinement as lineal consequence, I acknowledge that GCs represent a complex phenomenon, a hub of diverse factors and multidimensional processes held on four fundamental levels: global, social, individual and state-related. The focus of this dissertation is set on the individual plane and contributes, from the analysis of the GC’s resident’s perspective, experiences and perceptions, to a debate that has usually been limited to the scrutiny of other drivers, disregarding the role of dweller’s underlying fears, motivations and concerns. Assuming that the current ruling security model in Mexico tends to empower its commodification rather than its collective quality, this research draws upon the use of a methodological triangulation, along conceptual and contextual analyses, to test the hypothesis that insecurity plays an increasingly major role, leading citizens into the belief that acquiring a household in a controlled and surveilled community represents a counterweight against the feared environment of the open city. The focus of the analysis lies on the internal hatch of community ties as potential palliative for the provision of a sense of security, aiming to transcend the unidimensional discourse of GCs as defined mainly by their defensive apparatus. Residents’ perspectives acquired through ethnographical analyses may provide the chance to gain an essential view into a phenomenon that further consolidates without a critical study of its actual implications, not only for Mexican cities, but also for the Latin American and global contexts.
Der Begriff der Zuverlässigkeit spielt eine zentrale Rolle bei der Bewertung von Verkehrsnetzen. Aus der Sicht der Nutzer des öffentlichen Personennahverkehrs (ÖPNV) ist eines der wichtigsten Kriterien zur Beurteilung der Qualität des Liniennetzes, ob es möglich ist, mit einer großen Sicherheit das Reiseziel in einer vorgegebenen Zeit zu erreichen. Im Vortrag soll dieser Zuverlässigkeitsbegriff mathematisch gefasst werden. Dabei wird zunächst auf den üblichen Begriff der Zuverlässigkeit eines Netzes im Sinne paarweiser Zusammenhangswahrscheinlichkeiten eingegangen. Dieser Begriff wird erweitert durch die Betrachtung der Zuverlässigkeit unter Einbeziehung einer maximal zulässigen Reisezeit. In vergangenen Arbeiten hat sich die Ring-Radius-Struktur als bewährtes Modell für die theoretische Beschreibung von Verkehrsnetzen erwiesen. Diese Überlegungen sollen nun durch Einbeziehung realer Verkehrsnetzstrukturen erweitert werden. Als konkretes Beispiel dient das Straßenbahnnetz von Krakau. Hier soll insbesondere untersucht werden, welche Auswirkungen ein geplanter Ausbau des Netzes auf die Zuverlässigkeit haben wird. This paper is involved with CIVITAS-CARAVEL project: "Clean and better transport in cites". The project has received research funding from the Community's Sixth Framework Programme. The paper reflects only the author's views and the Community is not liable for any use that may be made of the information contained therein.
Diese Arbeit belegt, dass die Belastungen auf reversibel arbeitende keramische Materialien sehr gering ausfallen. Die regenerative Sauerstoffbereitstellung stellt damit grundsätzlich niedrigere Anforderungen an die keramischen Perowskit-Materialien zur Sauerstofferzeugung als die Membrantechnologie.
Das Absinken der Diffusionskoeffizienten bei niedrigen Temperaturen ist deutlich weniger nachteilig als bei den Membranen die vergleichbare Materialien nutzen.
Dies konnte gezeigt werde, indem mit der die O 2 -Entladetechnik und -Beladetechnik im Vergleich zur O 2 -Abtrennung durch keramische Membranen bei vergleichsweise niedrigen Temperaturen bereits große O 2 -Mengen erzeugt werden können. Infolge der niedrigen Temperaturen bestehen keine Probleme mit Reaktionen zwischen dem sauerstoffbereitstellenden Material und den Reaktorwerkstoffen. Dadurch gestaltet sich die Einbindung und Nutzung von Festbett-Schüttungen denkbar einfach. Im Vergleich dazu sind die Anbindung und der Betrieb von dünnen keramischen Membranen in einem Reaktor deutlich aufwendiger. Es ist weniger Peripherie und verfahrenstechnischer Aufwand zur Sauerstoffabtrennung durch reversibel arbeitende Materialien nötig als bei der kryogenen Luftzerlegung, der Druckwechseladsorption oder den Membrantechnologien.
Die regenerative Sauerstoffbereitstellung kann sowohl bei neuen als auch bestehenden Anlagen, die Sauerstoff benötigen implementiert werden. Damit ist es möglich den Transport des Sauerstoffs entfallen zu lassen. Eine partielle Phasenumwandlung des BSCF8020 bei erhöhter Temperatur und hohem Sauerstoffangebot spielt für die regenerative Sauerstoffbereitstellung eine untergeordnete Rolle, da die nötigen Zieltemperaturen (450 ggf. bis 650 °C) zur O 2 -Beladung und -Entladung niedriger sind, als der Temperaturbereich in dem die Zersetzung auftreten kann (750 bis 800 °C). Des Weiteren ist die Zeitspanne (O 2 -Beladungsteilzyklus) in der das BSCF8020 ausreichend hohen Sauerstoffgehalten (p O2 > 10 -3 bar) ausgesetzt ist, zu kurz um diese Umwandlungen zu vollziehen. Der O 2 -Entladungsteilzyklus sorgt zusätzlich immer dafür, dass sich u. U. beginnende Zersetzung zurückbildet, da die kubische Phase in Richtung niedrigerer p O2 stabilisiert wird.
Es konnte belegt werden, dass die elektronische Steuerung des zyklischen Sauerstoffausbaus und -einbaus beherrschbar ist. Der hohe Abtrenngrad der keramischen Materialien führt dazu, dass der Sauerstoff elektrolytisch rein zu Verfügung gestellt wird. Grundsätzlich sind weitere Forschungen zur Steigerung der Sauerstoffmengen, die pro eingesetzter Masseeinheit an Keramik gewonnen werden können, immer anzustreben, da damit u. U. der Materialeinsatz weiter gesenkt oder auch die energetischen Aufwendungen weiter reduziert werden können. Bei dem, für die multizyklischen Untersuchungen dieser Arbeit ausgewählten BSCF8020(SVT) hat die Cobalt-Komponente mit ca. 80 % den überwiegenden Kostenanteil am Sauerstoff bereitstellenden Material. BSCF-Keramiken mit höherem Eisen-Anteil sollten für multizyklische Anwendungen in Festbett-Reaktoren einer vertiefenden Charakterisierung unterzogen werden, um weitere geeignete Perowskite mit niedrigen Materialkosten zu erschließen.
Für querkraftbewehrte Elemente aus Porenbeton kann hinsichtlich der Querkrafttragfähigkeit ein gegenüber vergleichbaren Bauteilen aus Normal- oder üblichen Leichtbetonen abweichendes Trag-, Verformungs- und Bruchverhalten festgestellt werden. Bedingt wird dieses Verhalten durch die Interaktion der an der Verbundkonstruktion beteiligten Materialien. Experimentelle Untersuchungen an querkraftbewehrten Elementen aus Porenbeton zeigen, dass die Querkrafttragfähigkeit durch ein lokales Versagen der Verankerungszone der Querkraftbewehrung bedingt wird. Aufgrund der geringen Festigkeit und des spröden Materialverhaltens von Porenbeton ist es nicht möglich, die Querkraftbewehrung durch die Wirkung des kontinuierlichen Verbunds zu realisieren. Ergänzend wird Längs- und Querkraftbewehrung verschweißt. Die Querkrafttragfähigkeit von querkraftbewehrten Elementen aus Porenbeton kann durch Fachwerkmodelle unter Berücksichtigung von Energie- und Deformationsbedingungen abgeleitet werden.
Die Qualität von Beplankungselementen wirkt sich deutlich auf den Feuerwiderstand von Metallständer-Wandkonstruktionen aus. Daher wurde im Rahmen dieser Arbeit der Einfluss von Zusätzen in Gipsplatten bezüglich einer möglichen Verbesserung dieser Eigenschaft untersucht.
Zu diesem Zweck wurden spezielle, den jeweiligen Untersuchungsbedingungen angepasste Probekörper unter Verwendung verschiedenster Zusätze gefertigt. Die Beurteilung deren Auswirkungen erfolgte insbesondere mittels nachfolgender fünf Kriterien:
1) dem Zeitpunkt der Temperaturerhöhung nach der Probekörperentwässerung,
2) dem Maximalwert der Plattenrückseitentemperatur,
3) der Größe und der Anzahl der Risse,
4) der Plattenstabilität nach der Wärmebeanspruchung,
5) der Verkürzung von prismatischen Probekörpern.
Besonders wichtig war hierbei die Charakterisierung der Auswirkungen einer simulierten Brandbeanspruchung von 970 °C über 90 Minuten auf Labor-Gipsplatten. Dabei wurde die Temperaturänderung auf der Plattenrückseite über den gesamten Prüfzeitraum kontinuierlich erfasst. Die Bewertung des Zusammenhalts der Platten nach der thermischen Beanspruchung erfolgte erstmals quantitativ über Anzahl und Größe der an den Proben entstandenen Risse. Ursächlich für die Rissbildung ist die Verringerung des Probekörpervolumens infolge des ausgetriebenen Kristallwassers. Da dieser Parameter im Plattenversuch nicht bestimmt werden kann, wurde ergänzend das Längenänderungsverhalten von Prismen im Ergebnis einer 90minütigen Temperung bei 1000 °C im Muffelofen ermittelt.
Besonders vorteilhaft hat sich die Zugabe von 80 g/m2 Glasfasern und 7,75 % Kalksteinmehl auf das Verhalten von Gipsplatten bei Brandbeanspruchung ausgewirkt. Diese Verbesserung ist insbesondere auf höhere Stabilität und geringere Schrumpfung der Gipsplatte zurückzuführen.
Basierend auf den im Labormaßstab erhaltenen Ergebnissen wurden Rezepturvorschläge zur Verbesserung des Feuerwiderstandsverhaltens von Gipsplatten unter Praxisbedingungen entwickelt. Die Herstellung der erforderlichen großformatigen Platten erfolgte auf der Bandstraße der Knauf Gips KG. Diese Platten wurden als Wandkonstruktion mit zweilagiger Beplankung einer großtechnischen Prüfung erfolgreich unterzogen. Eine geringere Durchbiegung der Wandkonstruktion, eine verminderte Volumenreduzierung der Platten sowie eine erhöhte Plattenstabilität belegen die verbesserten Eigenschaften dieser modifizierten Feuerschutzplatte.
Weitere durchgeführte Untersuchungen ergaben, dass es unerheblich ist, ob die Platten auf Basis von Natur- oder REA-Gips bzw. mit hohem oder niedrigem Flächengewicht gefertigt wurden. Das eindeutig beste Ergebnis mit einer Feuerwiderstandsdauer von 118 Minuten hat eine Wandkonstruktion aus Feuerschutzplatten auf Basis eines Stuckgipses aus 100 % REA-Gips mit einem Anteil von 83,9 g/m2 Glasfasern und 1 % Vermiculit und einem Flächengewicht von 10,77 kg/m2, bei einer Plattenstärke von 12,5 mm.
Die als Ziel vorgebende Feuerwiderstandsdauer von 120 Minuten bei zweilagiger Beplankung ohne Dämmstoff könnte künftig erreicht werden, wenn es gelingt, die Volumenreduzierung noch besser zu kompensieren und die Plattenstabilität zu steigern. Eine Möglichkeit hierzu ist die Substitution der beidseitigen Kartonlagen durch eine Glasfaser-Vliesummantelung. Die Wandkonstruktion W112 ohne Dämmstoff erreicht dabei eine Feuerwiderstandsdauer von weit über 120 Minuten, wobei der Gipskern mit Glasfasern armiert ist.
Experimentelle Untersuchung eines Verfahrens zur optimalen Positionierung von Referenzsensoren bei der experimentellen Modalanalyse mit output-only Methoden nach Brehm (2011). Untersuchung des Einflusses der Referenzsensorpositionierung, -anzahl und der Positionierung der wandernden Sensoren unter Anwendung des Stochastic-Subspace-Verfahrens zur Auswertung der output-only Messdaten.
Bei der direkten thermische Umwandlung von Gips in Stuckgips entstehen texturierte Halbhydratkristallite von geringer Beständigkeit gegen hygro-mechnische Beanspruchung. Überlässt man diese texturierten Kristallite einer natürlichen Alterung, werden \"Heilungseffekte\" beobachtet, die durch lokale Umkristallisierungsreaktion an Oberflächendefekten erklärt werden können. Die gealterten Stuckgipse sind stabiler gegen hygro-mechanische Beanspruchungen. Durch Besprühung von Gips mit verdünnten wässrigen Salzlösungen vor der Calcivierung entsteht aridisierter Stuck geringer texturiert und damit stabiler gegen hygro-mechanische Beanspruchungen.
Zur Verbindung des flächigen Bauteils Brettstapelelement mit mineralischer Deckschicht sind bisher kaum geeignete einfachste Fugenausbildungen untersucht. Bei dieser biegebeanspruchten hybriden Verbundkombination bietet das zugbeanspruchte Holz und die druckbeanspruchte mineralische Deckschicht im Verbund ein günstigeres Biegetragverhalten und verbessert im Vergleich zum reinen Brettstapeldeckenelement dessen Eigenschaften. Für die Steifigkeit und die Tragfähigkeit der Verbundkonstruktion ist die Ausbildung der Verbundfuge, die effektive Übertragung der Schubkraft ausschlaggebend. Die vom Verfasser der Arbeit durchgeführten Versuche haben gezeigt, dass der Einsatz alternativer Verbundfugenausführungen grundsätzlich möglich ist. Mit diesem Wissen scheint neben dem Einsatz nachgiebiger Verbindungsmittel auch die Heranziehung, Erfassung und Optimierung des Flächen- sowie Reibungsverbundes zwischen flächigen Holzelementen und mineralischen Deckschichten eine effiziente und sichere Fugenausbildung darzustellen. Für weiterreichende und genauere Aussagen, sind neben der versuchstechnischen Abklärung der Wirksamkeit möglicher chemischer als auch mechanischer Modifikationen der Holzoberfläche in der Verbundfuge computergestützte Kurzzeit- sowie auch Langzeituntersuchungen zur Abschätzung der Möglichkeiten und Zuverlässigkeit des Flächenverbundes zwischen Brettstapelelement und mineralischer Deckschicht unabdingbar gewesen. Als Deckschichtvarianten kamen Normalbeton, Zementestrich, Anhydritestrich und Geopolymerbeton zur Anwendung. Es konnte durch eine statistische Auswertung im Resultat ein Gesamtüberblick über das Tragverhalten von hybriden Verbundelementen mit mineralischen Deckschichten und spezieller Oberflächenbehandlung des Holzes gegeben werden. Dabei wirkten sich die Vorteile bei der Nutzung des Flächenverbundes vor allem auf den Gebrauchszustand des Bauteils aus. Die Steifigkeit des Verbundbauteils wurde durch den Flächenverbund erhöht und es wurden damit günstigere Voraussetzungen für den Nachweis der Gebrauchstauglichkeit vor allem bei Spannweiten über 5,0 m erzielt. Die Untersuchungen zeigen die grundlegende Anwendbarkeit für Brettstapel im Flächenverbund mit mineralischen Baustoffen.
Im Stahlbeton- und Spannbetonbau kommen in zunehmendem Maße Verbundkonstruktionen aus Betonfertigteilen und Ortbetonergänzungen zum Einsatz. Die Fertigteile werden je nach Spannweite, Belastung und speziellen Anforderungen mit schlaffer oder vorgespannter Be-wehrung ausgeführt. Aufgrund der im Allgemeinen unterschiedlichen Betone der einzelnen Querschnittsanteile sowie bedingt durch den zeitlichen Versatz in der Herstellung der Fertig-teile und der Ortbetonergänzungen ergeben sich Unterschiede im Langzeitverhalten, die bei der Bemessung und Nachweisführung zu berücksichtigen sind. Das Kriechen und Schwinden der Betone als Folge des zeitabhängigen Materialverhaltens und die Spezifik des Verbund-querschnitts können für die Gebrauchstauglichkeit relevant sein, insbesondere wenn die Fer-tigteile vorgespannt sind. Eine hinreichend wirklichkeitsnahe Beschreibung des Langzeitverhaltens von Beton gestattet die Theorie des elastisch-kriechenden Körpers, wobei sich im Allgemeinen keine geschlosse-ne Lösung für bewehrte Betonverbundquerschnitte angeben lässt. Eine Alternative hierzu ergibt sich, wenn für die einzelnen Kriechintervalle ein vereinfachter Ansatz für den Verlauf der Kriechfunktion entsprechend der Theorie des Alterns getroffen wird. Dabei werden die im Zeitintervall (tj-1,tj) umgelagerten Schnittgrößen als neue Belastung der einzelnen Querschnittsanteile im Zeitintervall (tj,tj+1) mit der Kriech-funktion f(tj+1,tj) berücksichtigt. Bei hinreichend kleinen Zeitschritten können die Nachteile der getroffenen Vereinfachung vernachlässigt werden.
Die Entwicklung der Holz-Beton-Verbundbauweise hat gezeigt, dass hybride Holzverbundbauweisen eine sehr effiziente Lösung zur Steigerung der Tragfähigkeit und Steifigkeit von biegebeanspruchten Holzbauteilen darstellen. Bei solchen Holzverbundbauteilen stellt insbesondere die effiziente Gestaltung der Schubkraftübertragung in der Verbundfuge zwischen den Baustoffschichten einen gewissen Schwachpunkt dar. Weiterhin limitieren insbesondere auch die streuenden Festigkeiten sowie wuchs- bzw. fertigungsbedingte Eigenschaften des in der Zugzone angeordneten Holzes die Leistungsfähigkeit solcher hybrider Verbundbauteile merklich. Eine innovative Lösung für diese Problemkreise konnte in der Herstellung von hybriden Verbundkonstruktionen aus Reaktionsharzbeton, faserverstärkten Kunststoffen und der bestehenden Holzkonstruktion gefunden werden. Dabei kommt in der Biegedruckzone ein Hochleistungs-Polymerbeton zum Einsatz. Die Zugzone wird mittels ein- bzw. aufgeklebter Faserverbundwerkstoffe verstärkt und strukturell bedingte Grenzen überwunden. Faserverbundwerkstoffe sind im Vergleich mit homogenen Werkstoffen durch eine strukturelle Anisotropie gekennzeichnet. Zur rechnerischen Beschreibung des Trag- und Bruchverhaltens benötigt man eine schichtenweise Spannungsanalyse, Bruchkriterien für die einzelnen Schichten und Degradationsmodelle zum Erfassen der Auswirkung von Teilbrüchen, die noch nicht zum Bruch oder Ablösen des Laminats führen. Dabei bieten bruchtypbezogene Versagenskriterien wesentliche Vorteile gegenüber Pauschal¬kriterien, da die vorherrschenden Bruchmodi mithilfe ein¬zelner Bruch¬bedingungen unabhängig voneinander beschrieben werden können. Zur Analyse des Verbundverhaltens von faserverstärkten Kunststoffen und Holz wurde deshalb das vereinfachte Puck-Knaust-Kriterium für die Versagensanalyse in ANSYS(R) implementiert. Für die numerische Untersuchung der Verbundträger wurde ein Strukturmodell für Kunstharzbetone im Verbund mit Holz entwickelt, mit dem sich Steifigkeit und Kriechverhalten beliebiger Mischungsverhältnisse abschätzen lassen. Beim Vergleich der Ergebnisse zeigt sich, dass die relativen Kriechverformungen bei den verstärkten Balkenserien um das 1,8- bis 2,5fache größer sind als bei der unverstärkten Serie, was in der Materialspezifik des eingesetzten Polymerbetons begründet liegt. Die Kriech¬verformung steigt dabei mit zunehmendem Verhältnis von Polymerbetonstärke zum Holzgrundquerschnitt und kann mit der angegebenen Gleichung für beliebige Querschnittsverhältnisse ermittelt werden. Im Vergleich der Durchbiegung der Serien bei gleicher Belastung wird deutlich, dass die Steifigkeitsvorteile der verstärkten Balken durch die größere Kriechneigung ganz oder teilweise aufgebraucht werden. Besonders betrifft das die Serien, bei denen die obere Holzschicht mit PC substituiert wurde. Dort wird aus einem anfänglichen Vorteil sogar ein Nachteil. In der numerischen Simulation von hybriden Verbundträgern aus faser¬verstärkten Kunststoffen, Kunstharzbeton und Holz bestätigte sich der eindeutige Vorteil einer zusätzlich aufgebrachten Polymerbetonschicht. Der Beitrag der FVK-Verstärkung am Gesamtsystem fällt im Gegensatz zur PC-Deckschicht jedoch wesentlich geringer aus, da deren Potential erst bei größeren Belastungen voll aktiviert wird. In Hinblick auf Wirtschaftlichkeit und Anwendertauglichkeit insgesamt stellt der Einsatz von faserverstärkten Kunststoffen und Kunstharzbetonen eine wirkliche und praxistaugliche Alternative gegenüber herkömmlichen Baustoffen zur Tragwerksverstärkung dar.
6 Zusammenfassung und Ausblick
Die hydrothermal induzierte Phasentransformation konnte für ATZ-Keramik mit tiefenge-mittelten und tiefenaufgelösten Methoden charkterisiert und quantifiziert werden.
Die zeit- und temperaturabhängige Alterungskinetik von ATZ wurde durch neun Tempera-turstufen in einem Temperaturbereich von 50 °C bis 134 °C untersucht und die kinetischen Parameter nummerisch bestimmt. Für 3Y-TZP wurde diese Prozedur bei drei Temperaturen im Temperaturbereich von 70 °C bis 134 °C angewendet. Aufgrund des ARRHENIUS-Verhaltens der Umwandlungskinetik konnte der zeitliche Verlauf der isotherm stattfinden-den hydrothermal induzierten Phasentransformation bei Körpertemperatur simuliert wer-den. Die Simulation dient zur Bewertung der Langzeitstabilität von medizinischen Implanta-ten aus ATZ bzw. 3Y-TZP. Die Untersuchungen wurden in Wasser und in Wasserdampf bzw. wasserdampfgesättigter Luft durchgeführt. Die Langzeitsimulation für 3Y-TZP wurde an-hand von Explantat-Untersuchungen verifiziert.
ATZ zeigt gegenüber 3Y-TZP eine höhere Alterungsstabilität bezogen auf die zeitliche Ent-wicklung der monoklinen Phase. Im Hinblick auf die Oberflächenhärte, die durch die Pha-senumwandlung stark beeinflusst wird, erweist sich ATZ über einen langen Alterungszeit-raum stabiler als 3Y-TZP. Bis zu einem monoklinen Gehalt von 40 % beweist ATZ einen deutlichen Härtevorteil gegenüber 3Y TZP, dieser entspricht in der Langzeitsimulation für die Wasserlagerung ca. 35 Jahre. Das wirkt sich insbesondere bei Verschleißpaarungen wie beim künstlichen Hüftgelenk positiv aus.
Verschleißuntersuchungen an einer neu entwickelten Kugel-auf-Scheibe-Geometrie mit li-nearer Kinematik, die dem Hüftgelenk nachempfunden wurde, belegen die vorteilhaften Verschleißeigenschaften von ATZ in Form von sehr geringen Abtragsraten und einer intak-ten Oberfläche nach 720 000 absolvierten Zyklen. Dabei wurde sogar eine Aufhärtung der Oberfläche durch die Verschleißbeanspruchung um bis zu 8 % nachgewiesen.
Bei der tiefengemittelten Charakterisierung der hydrothermalen Alterung wurde in beiden Materialtypen festgestellt, dass die Geschwindigkeit der Phasentransformation neben der Temperatur merklich von der Änderung der H2O-Stoffmengenkonzentrantion an der Ober-fläche der Keramik abhängig ist, was sich mit den unterschiedlichen Aktivierungsenergien für Wasser- bzw. Wasserdampflagerung belegen lässt. Die Aktivierungsenergie Ea der hyd-rothermalen Phasentransformation wurde mit Hilfe der ARRHENIUS-Beziehung ermittelt und beträgt für ATZ bei Wasserdampflagerung 102 kJ/mol und bei Wasserlagerung 92 kJ/mol. Für Y-TZP beträgt die Aktivierungsenergie 114 kJ/mol bei Wasserdampflagerung und 102 kJ/mol bei Wasserlagerung. Der resultierende präexponentielle Faktor k0 unterscheidet sich für Wasserlagerung und Wasserdampflagerung um eine Größenordnung, was auf einen leicht andersartigen thermisch aktivierten Gesamtprozess hinweist.
Der Avrami-Exponent n, der einen Hinweis auf den Mechanismus der Keimbildung sowie deren geometrische Ordnung geben kann, zeigte keine signifikante Abhängigkeit von der Temperatur und vom Umgebungsmedium. Er ist dagegen zeitabhängig und fällt mit zuneh-mender Alterungszeit, d.h. mit zunehmendem monoklinem Gehalt von ca. 4 auf 0,5 ab, was auf eine abnehmende Keimbildungsrate hindeutet. In Verbindung mit weiteren Untersu-chungen durch unabhängige und zum Teil tiefenauflösende Methoden wie GIXRD, NRA und Knoop-Mikrohärte-Messungen lässt sich der Alterungsmechanismus, bzw. sein zeitlicher und örtlicher Ablauf, durch die drei Stadien A, B und C beschreiben:
A 0-5 ma. % m-ZrO2 Quasi-homogene Keimbildung an bevorzugten Orten wie Kornkan-ten und Kornecken (n≈4), Wassertransport wahrscheinlich via Korngrenzendiffusion, Aufhärtung der Oberfläche
B 5-40 ma. % m-ZrO2 Keimbildung an den Korngrenzflächen bis zur Keimsättigung (n≈2), monokline Randschicht wächst zeitlich linear, Wassertransport konvektiv über Mikrorisse, deutlicher Härteverlust der Oberfläche
C ≥ 40 ma. % m-ZrO2 Wachstum der monoklinen Kristallite von den Korngrenzflächen in die tetragonalen Kristallite unter starker Verzwillingung (n≈0,5), Abnahme der tetragonalen Kristallitgröße, starke Mikrorissbildung, dramatischer Rückgang der Oberflächenhärte
Die Kristallitgröße der monoklinen Phase verbleibt im ATZ über alle drei Abschnitte bei 30 ±5 nm. Ein Anwachsen der Kristallite ist mechanische behindert. Kleinere monokline Kristallite sind im ATZ thermodynamisch instabil. Die Kristallitgröße der tetragonalen Phase fällt in den Abschnitten A und B sehr langsam und in C sehr schnell bis auf 25 nm ab. Bei dieser Kristallitgröße ist die tetragonale Phase gegenüber der monoklinen Phase thermody-namisch stabil. Diese residualen tetragonalen Kristallite weisen nach vollständigem Reakti-onsablauf einem Anteil von 7 ma. % auf. Der Sättigungsgehalt der monoklinen Phase betrug in beiden Materialen unabhängig von der Temperatur bzw. dem Umgebungsmedium 75 % der ZrO2-Phase.
In Abschnitt C besitzt die residuale tetragonale Phase eine starke Orientierung. Dadurch wird die geometrische Bedingtheit der hydrothermal induzierten Phasenumwandlung ver-deutlicht. Die monokline Phase ist über den gesamten Alterungsprozess stark nach m(1 1 1) orientiert, was mit einer bevorzugten Umklapprichtung der c-Achse zur freien Oberfläche hin verbunden ist.
Mit Hilfe der tiefenaufgelösten Phasenanalyse konnte die Wachstumsgeschwindigkeit der monoklinen Randschicht von der Oberfläche in das Volumen untersucht werden. Die Ge-schwindigkeit des Schichtwachstums ist in Abschnitt B nicht zeit- und tiefenabhängig, son-dern konstant mit ausgeprägtem ARRHENIUS-Verhalten (Temperaturabhängigkeit). Die Akti-vierungsenergie der Schichtwachstumsgeschwindigkeit km liegt in der gleichen Größenord-nung wie die der Transformationskonstante k.
Die Umwandlungszone schreitet also mit konstanter Geschwindigkeit in das Volumen fort und hinterlässt ein verzweigtes Mikro- und Nanoriss-System. FESEM-Aufnahmen bestätigen das Vorhandensein einer porösen Randschicht, durch die das Wasser nahezu ungehindert eindringen kann.
NRA Untersuchungen deuten in Stadium A auf Korngrenzendiffusion hin und bestätigen in Stadium B einen konvektiven Transport des Wassers an die Transformationszone. Eine Dif-fusion über Sauerstoffleerstellen im Gitter konnte anhand von Proben aus 8YSZ nicht nach-gewiesen werden. Dagegen kommt es in dem verzweigten Riss- und Porensystem in der gealterten Randschicht zum Rücktransport des Wassers an die Oberfläche, sobald die Pro-ben aus der hydrothermalen Atmosphäre genommen, an Luft gelagert oder in die Hochva-kuumkammer der NRA-Messapparatur eingeschleust werden.
Mikrostrukturelle Untersuchungen an eigens entwickelten Verschleißpaarungen zeigten nach 720000 Zyklen ähnliche Oberflächeneigenschaften wie im Alterungsstadium A. Man kann daher davon ausgehen, dass die Stadien B und C aus Stabilitätsgründen in der tribolo-gischen Kontaktzone nicht existieren können und es dass sich im Falle einer gleichzeitigen, hydrothermalen und tribologischen Beanspruchung um einen stationären Alterungs- und Verschleißprozess handelt. Durch quasiplastische Deformation der monoklinen und tetra-gonalen Kristallite wird die Verschleißrate und die Abriebpartikel bei einer hart /hart Paa-rung aus ATZ deutlich minimiert, so dass ATZ für die Hüftendoprothetik ein durchaus geeig-neten Werkstoff darstellt, der sich auf der Grundlage der in dieser Arbeit gewonnenen Daten über eine Imlantationsdauer von .mehr als 15 Jahre stabil verhalten kann.
Schwerpunkt der Arbeit ist die Auseinandersetzung mit den Möglichkeiten und Grenzen der Desktop-VR als neue Generation der Benutzerschnittstellen. Besondere Bedeutung bei dieser Art des Interface-Designs kommt den Metaphern zu. Ein großer Teil der Arbeit beschäftigt sich mit der Klassifikation, der Auswahl und dem Einsatz passender Metaphern unter Berücksichtigung der in der Applikation darzustellenden Informationsinhalte. Aus der Kombination dieser beiden Merkmale (Art der Metapher, Informationsinhalt) ergeben sich vier verschiedene virtuelle Umgebungen, deren Eigenschaften und Besonderheiten konkretisiert und an Beispielen aus dem Anwendungsgebiet der Stadtinformationssysteme vorgestellt werden. Als praktischer Untersuchungsgegenstand dient das Anwendungsgebiet der Stadtinformationssysteme. Die theoretisch basierten Erkenntnisse und Schlußfolgerungen werden durch statistische Untersuchungen, in Form von Fragebögen zu Stadtinformationssystemen, überprüft und konkretisiert.
Die thermochemische Wärmespeicherung über reversible Salzhydratation stellt einen aussichtsreichen Weg zur Speicherung von Niedertemperaturwärme, wie z.B. solarer Energie, dar.
Untersuchungen an Magnesiumsulfat-Hydraten zeigen, dass das bei 130°C entwässerte Magnesiumsulfat-Heptahydrat seinen thermodynamisch stabilen Endzustand während der Reaktion mit gasförmigem Wasser nicht wieder erreicht. Um diese kinetische Hemmung zu überwinden und den Einfluss von unterschiedlichen Porenräumen auf die Hydratation bzw. Sorption des Magnesiumsulfates zu charakterisieren, wurde das Magnesiumsulfat in Trägermaterialien auf Basis offenporiger Gläser mit durchschnittlichen Porendurchmessern von 4 nm bis 1,4 µm eingebracht und diese Kompositmaterialien untersucht. Dabei ist festgestellt worden, dass jede salzbezogene Sorptionswärme im Porenraum höher ist, als die des ungeträgerten Salzes und mit kleiner werdendem Porenradius weiter zunimmt.
Weiterhin wurden Teile des Magnesiumsulfates mit niedrig deliqueszierenden Salzen substituiert, um die Wasseraufnahme und somit die Wärmespeicherkapazität zu erhöhen. Dies stellt einen neuen Weg zur Herstellung von Kompositmaterialien dar, über den man Eigenschaften wie Deliqueszenzfeuchte und Desorptionstemperatur einstellen und an die Sorptionsbedingungen eines Speichers anpassen kann. Als niedrig deliqueszierende Salze wurden Magnesiumchlorid und Lithiumchlorid
als Zusätze untersucht, wobei ein Ansteigen der Sorptionswärme und Wasseraufnahme mit steigendem Chloridanteil festgestellt wurde. Aufgrund der geringeren Deliqueszenzfeuchte des Lithiumchlorides gegenüber dem Magnesiumchlorid wurden bei gleichen Massenverhältnissen höhere Sorptionswärmen erzielt. Untersuchungen zu Zinksulfat in Verbindung mit Chloriden bescheinigen diesem Salz -speziell bei tieferen Entwässerungstemperaturen- eine gute Eignung als Aktivstoff zur Wärmespeicherung.
Zusammenfassend konnte festgestellt werden, dass sich die Wärmespeicherkapazitäten über die Porengröße, in die das Salz eingebracht wird, und die gewählte Mischungszusammensetzung steuern lassen. Die gemessenen Sorptionswärmen ermöglichen insbesondere bei niedrigen Sorptionstemperaturen und hohen Luftfeuchtigkeiten den Schluss, dass die Verwendung von Salzmischungen als Aktivkomponente in Kompositmaterialien einen geeigneten Weg zur thermochemischen Speicherung solarer Wärme (≤130 °C) darstellt.
Das Ziel der vorliegenden Diplomarbeit war es, „Untersuchungen hinsichtlich des Einflusses von Phase Change Materials auf die Raumlufttemperatur“ durchzuführen und anschließend die Ergebnisse auszuwerten. Dabei galt es, thermodynamische Grundlagen zu erläutern sowie den derzeitigen Stand der Forschung darzulegen. Dies wurde umfassend bearbeitet, allerdings kann hierbei aufgrund des Umfangs und der Vielfalt im Bereich der internationalen PCM-Forschung kein Anspruch auf Vollständigkeit erhoben werden. Ein Hauptteil dieser Arbeit bestand darin, den Versuchsaufbau der Referenzräume im Eiermann-Bau in Apolda als Grundlage für spätere Messungen detailliert zu beschreiben. Dabei wurde auf die gesamte Messanlage, die eingebrachten PCM sowie auf daraus resultierende physikalische Kenngrößen ausführlich eingegangen. Es galt, geometrische, chemische und physikalische Einflüsse einzuschätzen, aber auch Schwachstellen aufzudecken, um die später folgenden Messreihen exakt auswerten zu können. Als kritisch einzuschätzende Größe fiel dabei besonders das eingebrachte Salzgemisch auf, welches hinsichtlich des Schmelz- und Kristallisationsbereiches als kaum beurteilbar auffiel. Dies konnte auch nach mehreren Untersuchungen, hier ist insbesondere die dynamische Differenzkalorimetrie zu nennen, nicht hinreichend geklärt werden. Basierend auf diesen Erkenntnissen wurden vergleichende Messreihen durchgeführt, welche durch verschiedene Luftwechselraten gestaltet wurden. Im Maximum konnte dabei im PCM-konditionierten Raum eine Reduktion der Temperatur um 6 K erreicht werden. Dabei muss allerdings berücksichtigt werden, dass diese Differenz größtenteils auf die thermische Masse des Salzgemischs zurückgeführt werden kann. Eine abschließende Messung ohne Salzgemisch zeigte, dass aufgrund des latenten Wärmespeichervermögens des PCM-Putzes lediglich eine thermische Differenz von 2 K erreicht werden kann. Hinsichtlich der Luftwechselrate ist anzumerken, dass die erwartete, vergleichsweise zügige Auskühlung trotz Lüftung in der Praxis nicht nachvollzogen werden konnte. Zur Auswertung der gewonnenen Messwerte galt es, das am Lehrstuhl Bauphysik vorhandene mathematische Minimalmodell auf die am Objekt vorhandenen Randbedingungen anzupassen. Aus den Datenwolken der Atmosphärentemperatur sowie der Globalstrahlung mussten Funktionen approximiert werden, da diese äußeren Zwänge einen entscheidenden Einfluss auf den Verlauf der Innenraumtemperatur ausüben. Die Ergebnisse der Berechungen des Temperaturverlaufs können als zufrieden stellend betrachtet werden, jedoch wurde deutlich, dass ein genaues Nachstellen nicht möglich ist. Dies ist vor allem auf die Tatsache zurückzuführen, dass das Minimalmodell lediglich eine Beschreibung der wesentlichen Prozesse mathematisch abbildet. Eine kritische Auseinandersetzung hinsichtlich allgemeiner Standpunkte als auch der Anwendbarkeit auf die Referenzräume wurde abschließend diskutiert.
Untersuchungen adaptiver Modellanpassungen für Probleme dynamischer Bauwerks-Bodeninteraktion
(2009)
Die Eigenschaften des Baugrunds können das dynamische Verhalten eines Bauwerks in erheblichem Maße beeinflussen. Um daraus resultierende Veränderungen der Tragwerksbeanspruchung ermitteln zu können, muss der Boden in den Berechnungsmodellen zur Bestimmung der Tragwerksbeanspruchung berücksichtigt werden. Die möglichen Modellierungsvarianten unterscheiden sich in ihrer Komplexität erheblich. Im Rahmen dieser Arbeit wird das dynamische Verhalten eines konkreten Bauwerks, der Millikan Library, an einem numerischen Modell untersucht. Während das Partialmodell Bauwerk während der Untersuchungen unverändert bleibt, werden für den Boden verschiedene Modellierungsvarianten verwendet. Allen Bodenmodellen gemein ist, dass sie auf einfachen, gekoppelten Feder-Dämpferelementen beruhen. Die mit den unterschiedlichen Modellierungsvarianten des Bodens erzielten Ergebnisse werden einander gegenüber gestellt und mit dem, im Rahmen anderer Arbeiten experimentell bestimmten, dynamischen Verhalten des untersuchten Bauwerks verglichen.
Bei der Untersuchung der Tageslichtnutzung in den Tropen werden zunächst die geschichtliche Entwicklung der Architektur in Rio de Janeiro und ihre klimatische Anpassung, die Tageslichtsituation vor Ort und die Bedingungen für den visuellen Komfort an Bildschirmarbeitsplätzen in Bürogebäuden analysiert. In einem zweiten Schritt werden Auslegungskriterien für Tageslichtkontrollsysteme festgelegt und ein Auslegungskonzept erarbeitet. Auf dieser Grundlage wird über Simulationen mit Siview/Radiance das Potential 12 verschiedener Tageslichtkontrollsysteme für verschiedene Himmelszustände ermittelt. Über eine neu entwickelte Methodik wird die Tageslichtautonomie für verschiedene Fassadenorientierungen unter Einsatz der entwickelten Tageslichtkontrollsysteme für den Standort Rio de Janeiro ermittelt. Der Einfluss der Möblierung wird beispielhaft untersucht. Abschließend wird eine energetische Bilanz, die sowohl die Kunstlichteinsparung als auch die Kühllast durch Kunst- und Tageslicht berücksichtigt, an zwei Systemen beispielhaft erstellt.
Beim Entwurf signalgesteuerter Knotenpunkte werden Signalsteuerung und Knotenpunktgestaltung aufeinander abgestimmt. Die bauliche Gestaltung vorfahrtgeregelter und lichtsignalgesteuerter Knotenpunkte weist demnach Differenzen auf. Ein Ausfall der LSA wie auch das Abschalten dieser während der Nachtstunden stellt eine Abweichung vom ursprünglichen Betriebskonzept dar. Zwei maßgebliche Anforderungen an Knotenpunkte in Hinblick auf die Verkehrssicherheit stellen die Erkennbarkeit und Begreifbarkeit des Knotenpunktes dar. Es wurde ein Kriterienkatalog entwickelt, der die bauliche Ausbildung des Knotenpunktes speziell hinsichtlich dieser beiden Aspekte untersucht und somit Mängel in der Verkehrssicherheit von Knotenpunkten mit ausgefallener und abgeschalteter LSA aufzeigt. Hierbei werden sowohl allgemeingültige Defizite als auch solche, die aus der unterschiedlichen Ausbildung entsprechend der geplanten Verkehrsregelung resultieren, aufgezeigt. Der entwickelte Kriterienkatalog diente als Leitfaden bei der Untersuchung von sechs lichtsignalgesteuerten Knotenpunkten im Stadtgebiet Weimar. Entsprechend der hier aufgezeigten Defizite wurden Maßnahmen entwickelt, die diese Mängel beseitigen sollen und zum Teil auf andere Knotenpunkte übertragbar sind.
Untersuchung zum effizienten Schalungseinsatz bei häufig vorkommenden Sonderaufgaben im Schalungsbau
(2005)
Der Schalungseinsatz auf einer Ortbetonbaustelle hat wesentlichen Einfluß auf die Wirtschaftlichkeit einer Baumaßnahme. Der Arbeitsvorbereitung mit der Auswahl des geeigneten Schalungssystems kommt dabei die größte Bedeutung zu. In Ergänzung zu den Systemschalungen existieren einige Sonderlösungen der Schalungsanbieter, deren Einsatz sich bereits bei wenigen Nutzungen als kostengünstig erweisen kann. Der Kostenvergleich zwischen verschiedenen Varianten ist von vielen Faktoren abhängig. Da jedes Bauvorhaben ein Unikat darstellt, können keine allgemeingültigen Aussagen oder Berechnungen angestellt werden.
In der heutigen Informationsgesellschaft sind alle Geschäftsprozesse in einem Unternehmen geprägt durch die Verwendung der vorhandenen Informations- und Kommunikationstechnologien. Diese haben zur Folge, dass Unternehmen mit einer wahren Flut an Informationen konfrontiert werden, die von extern und intern in das Unternehmen eingetragen wurden. Die erfolgreiche Beherrschung dieser Informationsflut bildet die Basis für das effektive Arbeiten im Unternehmen. Grundvoraussetzung hierfür ist vor allem ein harmonisches Zusammenspiel zwischen Mensch ↔ Organisation ↔ Technik. Dokumentenmanagementsysteme haben sich zur Aufgabe gemacht, den Anwender bei der technologischen Bewältigung dieser Aufgabenstellung zu unterstützen. Der hier vorgestellte Artikel zeigt die Probleme auf, die während der Umsetzung eines Dokumentenmanagementsystems auftreten können und konzentriert sich dabei besonders auf Kleinen und Mittleren Unternehmen (KMU) im Bauwesen. Charakteristisch für diese ist die Schwäche die eigenen Unternehmensstrukturen betriebswirtschaftlich aufzubereiten, woraus später bei einer technologischen Umsetzung schwerwiegende Probleme resultieren. Genau an diesem Punkt setzt der vorgestellte Artikel an und versucht den Zusammenhang zwischen Organisation und Technik herauszuarbeiten, um darauf aufsetzend einen allgemeingültigen Ansatz für die Umsetzung eines Dokumentenmanagementsystems zu liefern.
Die Bruchmechanik hat einen wichtigen Platz im modernen Bauingenieurwesen, um die Ausbreitung von Rissen in Bauteilen und ihre Gefährlichkeit einzuschätzen. Dabei kommen verschiedenste Methoden zum Einsatz. In dieser Arbeit soll die Qualitätsbewertung für einige dieser Methoden untersucht werden. Zu vergleichen sind u. a. die Genauigkeit, die Schnelligkeit, die Komplexität und die Stabilität. In den Vergleich sind die Finite Elemente Methode, die Extended Finite Elemente Methode und eine Kopplungsmethode (analytische Lösung für die Rissspitze und Finite Elemente Lösung für den Rest des Gebietes) einzubeziehen. Als reales Beispiel aus dem Bauingenieurwesen wird ein Betongelenk mit einem vorhandenen Riss betrachtet.
In dieser Diplomarbeit werden – anhand eines Simulationsprogrammes – die diffusen Schallfelder in Atrien untersucht. Diesbezüglich standen Referenzobjekte in Berlin zur Verfügung. Es wurde untersucht, inwieweit sich die Raumgeometrie, die Volumina und die Absorptionseigenschaften der Umhüllungsflächen auf die Energieverteilung im Atriumsraum auswirken. Ziel der Arbeit ist es, Optimierungspotenziale aufzuzeigen und Lösungsvorschläge zu entwickeln, die zeigen, mit welchen Mitteln und Methoden die Raumakustik nachträglich verbessert werden kann.
Wiederkehrende Belastungen, wie sie beispielsweise an Brücken oder Windenergieanlagen auftreten, können innerhalb der Nutzungsdauer solcher Bauwerke bis zu 1.000.000.000 Lastwechsel erreichen. Um das dadurch eintretende Ermüdungsverhalten von Beton zu untersuchen, werden diese zyklischen Beanspruchungen in mechanischen Versuchen mit Prüfzylindern nachgestellt. Damit Versuche mit solch hohen Lastwechselzahlen in akzeptablen Zeitdauern durchgeführt werden können, wird die Belastungsfrequenz erhöht. Als Folge dieser erhöhten Belas-tungsfrequenz erwärmen sich allerdings die Betonprobekörper, was zu einem früheren, unrealistischen Versagenszeitpunkt führen kann, weshalb die Erwärmung begrenzt werden muss. Um die Wärmefreisetzung in der Probe zu untersuchen, wurden Versuche und Simulationen durchgeführt. Im Beitrag wird die analytische und messtechnische Analyse des Wärmeübergangs an erwärmten Betonzylindern vorgestellt. Resultierend daraus wird eine Möglichkeit zur Reduktion der Erwärmung an zyklisch beanspruchten Betonzylindern vorgestellt.
Untersuchung des dynamischen Verhaltens von Eisenbahnbrücken bei wechselnden Umweltbedingungen
(2008)
Im Zuge des Ausbaus von Eisenbahnstrecken für den Hochgeschwindigkeitsverkehr muss sichergestellt werden, dass keine Resonanz zwischen den periodisch einwirkenden Radlasten und den Brückeneigenfrequenzen entsteht. Bei der Untersuchung einzelner Bauwerke wurden teilweise recht große Schwankungen des dynamischen Verhaltens im Verlauf der Jahreszeiten festgestellt. Um diese Beobachtungen zu präzisieren, wurden an zwei ausgewählten Walzträger-in-Beton-Brücken über den Zeitraum von 15 Monaten Beschleunigungsmessungen durchgeführt. Die gewonnenen Daten wurden mit der Stochastic Subspace Methode, die im ersten Teil der Arbeit näher erläutert wird, ausgewertet. Es konnte für alle Eigenmoden ein Absinken der Eigenfrequenz bei steigender Temperatur beobachtet werden. Um die Ursachen hierfür genauer zu untersuchen, wurde für eine der beiden Brücken ein Finite-Elemente-Modell mit dem Programm SLang erstellt. Mittels einer Sensitivitätsanalyse wurden die für das Schwingverhalten maßgebenden Systemeigenschaften identifiziert. Die anschließend durchgeführte Strukturoptimierung unter Nutzung des genetischen Algorithmus sowie des adaptiven Antwortflächenverfahrens konnte die Temperaturabhängigkeit einzelner Materialparameter aufzeigen, die zumindest eine Ursache für Schwankungen der Eigenfrequenzen darstellen.
Immer häufiger setzen Bund, Länder und Kommunen auf die Zusammenarbeit zwi-schen öffentlicher Hand und Privatwirtschaft. Insbesondere in den Bereichen Sport, Freizeit und Kultur sagen die kommunalen Entscheidungsträger dem Instrument PPP eine große Zukunft voraus. In der vorliegenden Diplomarbeit soll die Realisierbarkeit von PPP in einem regiona-len Bädernetzwerk untersucht werden. Da zu diesem Thema bisher keine Untersu-chung durchgeführt wurde, erfolgte einleitend in die Arbeit eine Marktübersicht, in der die geschichtliche Entwicklung des Badewesens, die heutigen Strukturen und Anforderungen an Bäder sowie eine Kategorisierung der Schwimmstätten nach An-zahl und Typus dargestellt werden. Im zweiten Kapitel wird ein Extrakt der derzeitigen und künftigen Marktgegebenhei-ten vorgenommen. Diesem liegt eine Marktabfrage nebst -auswertung zugrunde, welche bei privatrechtlich firmierten Bäderbetreibern recherchiert wurde. Im darauf folgenden dritten Kapitel werden Varianten für eine regionale Zusammen-arbeit dargelegt. Neben allgemeinen Ausführungen und individuellen Bestimmungen sind Voraussetzungen sowie Vor- und Nachteile der einzelnen Alternativen be-schrieben. Um den Leser mit dem Instrument PPP vertraut zu machen, gibt der vierte Teil eine Einführung in dieses Thema. Hierbei wird der Begriff PPP definiert, eine Abgrenzung des PPP-Inhabermodells, PPP-Konzessionsmodells und des PPP-Gesellschaftsmodells vorgenommen sowie Erläuterungen hinsichtlich rechtlicher und finanzieller Rahmenbedingungen gegeben. Abgeschlossen wird dieses Kapitel mit einer Auflistung der Vor- und Nachteile von PPP. Das fünfte Kapitel befasst sich mit der Gegenüberstellung der o.g. drei PPP-Vertragsmodelle. Vorrangig werden die Unterschiede im Risiko sowie finanzielle und rechtliche Differenzen herausgearbeitet. Betrachtet wird bspw. der Defizitausgleich, die Förderfähigkeit, das Vergabe- und Haushaltsrecht u. v. m. Die Umsetzbarkeit von PPP in einem regionalen Bädernetzwerk wird als vorletztes und damit sechstes Kapitel in dieser Diplomarbeit analysiert. Innerhalb dieses Kapi-tels werden positive Aussichten sowie Problemfelder aus der Sichtweise der Privat-wirtschaft und der öffentlichen Hand näher beleuchtet. Im siebten und abschließenden Kapitel wird ein Gesamtresümee die Arbeit abrun-den. Es kann bereits jetzt gesagt werden, dass ein Ergebnis, welches zu einer fina-len Aussage gelangt und bestimmten Projekten eine uneingeschränkte PPP-Eignung attestiert, nicht gegeben werden kann. Dafür ist jedes Projekt zu verschieden und bedarf einer individuellen Untersuchung.
Architektur wird vorwiegend über die den Raum begrenzenden Oberflächen wahrgenommen. Das Oberflächenmaterial kann daher mit seinen sinnlichen Eigenschaften die Entwurfsintention unterstützen, zugleich muss es aber auch zahlreiche technische, ökonomische und ökologische Anforderungen erfüllen. Materialwahl in der Architektur bedeutet somit das Abwägen einer Vielzahl von Parametern, die sich sowohl inhaltlich als auch hinsichtlich ihrer Relevanz stark unterscheiden. Die Entscheidung für ein Material kann dabei durch verschiedene analoge und digitale Ansätze unterstützt werden. Die vorhandenen Systeme sind jedoch allesamt begrenzt: in den von ihnen berücksichtigten Aspekten, den möglichen Suchwegen oder ihren Inhalten. Keines der in dieser Arbeit untersuchten Systeme berücksichtigt zudem die unterschiedliche Wichtigkeit oder gegenseitige Abhängigkeiten und Unschärfen der in die Materialwahl einfließenden Kriterien. Die vorliegende Arbeit formuliert daher eine Gesamtstrategie zur besseren Unterstützung der Entscheidung für ein Oberflächenmaterial. Im Wesentlichen wird dabei eine Methode vorgestellt, wie die inhaltlich höchst unterschiedlichen Kriterien, welche Einfluss auf die Materialwahl ausüben, mit ihrer jeweiligen Relevanz gegeneinander in Ansatz gebracht werden können, um eine umfassende Bewertung der Materialalternativen zu ermöglichen. In einem zweiten Schritt wird mit Multidimensional Scaling eine Technik der Informationsvisualisierung benutzt, die eine zusätzliche Unterstützung durch weitere Analysemöglichkeiten und andere Suchwege eröffnet. Das vorgeschlagene Verfahren ist in einem Software-Prototyp umgesetzt. Die Arbeit leistet damit einen Beitrag, die Auswahl eines geeigneten Materials in der Architektur zu erleichtern, diese Entscheidung plausibel begründen zu können und den Weg der Entscheidungsfindung nachvollziehbar werden zu lassen.
An einem Teil der Topologie architektonischer Räume, dem Volumenadjazenzgraphen (VAG), wird gezeigt wie topologisches Modellieren Anwendungen der Bauplanung integrieren kann. Dazu wird ein Prototyp vorgestellt, der im wesentlichen aus drei Komponenten besteht: Mit dem Anforderungsmanager werden Anforderungen eigegeben, die formal gut handhabbar sind. Mit dem Topologiemanager werden diese Anforderungen mit gezeichneten Räumen kombiniert. Die topologischen Relationen in den Zeichnungen werden mit den entsprechenden Mitteln des GIS berechnet und in eine Datenbank exportiert. Der Anforderungsprüfer vergleicht dann die Anforderungsdaten, die mit Hilfe des Anforderungsmanagers erzeugt wurden, mit den Topologiedaten. Dieser Ansatz soll zeigen, wie topologische Modelle eine Formalisierung semantisch hochstehender Informationen ermöglichen, indem sie als Eigenschaften von Graphen dargestellt werden
Unsynchronized 4D Barcodes
(2007)
We present a novel technique for optical data transfer between public displays and mobile devices based on unsynchronized 4D barcodes. We assume that no direct (electromagnetic or other) connection between the devices can exist. Time-multiplexed, 2D color barcodes are displayed on screens and recorded with camera equipped mobile phones. This allows to transmit information optically between both devices. Our approach maximizes the data throughput and the robustness of the barcode recognition, while no immediate synchronization exists. Although the transfer rate is much smaller than it can be achieved with electromagnetic techniques (e.g., Bluetooth or WiFi), we envision to apply such a technique wherever no direct connection is available. 4D barcodes can, for instance, be integrated into public web-pages, movie sequences or advertisement presentations, and they encode and transmit more information than possible with single 2D or 3D barcodes.
Ungarn und das Bauhaus
(1976)
Fuzzy functions are suitable to deal with uncertainties and fuzziness in a closed form maintaining the informational content. This paper tries to understand, elaborate, and explain the problem of interpolating crisp and fuzzy data using continuous fuzzy valued functions. Two main issues are addressed here. The first covers how the fuzziness, induced by the reduction and deficit of information i.e. the discontinuity of the interpolated points, can be evaluated considering the used interpolation method and the density of the data. The second issue deals with the need to differentiate between impreciseness and hence fuzziness only in the interpolated quantity, impreciseness only in the location of the interpolated points and impreciseness in both the quantity and the location. In this paper, a brief background of the concept of fuzzy numbers and of fuzzy functions is presented. The numerical side of computing with fuzzy numbers is concisely demonstrated. The problem of fuzzy polynomial interpolation, the interpolation on meshes and mesh free fuzzy interpolation is investigated. The integration of the previously noted uncertainty into a coherent fuzzy valued function is discussed. Several sets of artificial and original measured data are used to examine the mentioned fuzzy interpolations.
One of the frequently examined design principles recommendations in multimedia learning is the personalization principle. Based on empirical evidence this principle states that using personalised messages in multimedia learning is more beneficial than using formal language (e.g. using ‘you’ instead of ‘the’). Although there is evidence that these slight changes in regard to the language style affect learning, motivation and the perceived cognitive load, it remains unclear, (1) whether the positive effects of personalised language can be transferred to all kinds of content of learning materials (e.g. specific potentially aversive health issues) and (2) which are the underlying processes (e.g. attention allocation) of the personalization effect. German university students (N= 37) learned symptoms and causes of cerebral haemorrhages either with a formal or a personalised version of the learning material. Analysis revealed comparable results to the few existing previous studies, indicating an inverted personalization effect for potentially aversive learning material. This effect was specifically revealed in regard to decreased average fixation duration and the number of fixations exclusively on the images in the personalised compared to the formal version. This result can be seen as indicators for an inverted effect of personalization on the level of visual attention.
This paper presents a methodology for uncertainty quantification in cyclic creep analysis. Several models- , namely BP model, Whaley and Neville model, modified MC90 for cyclic loading and modified Hyperbolic function for cyclic loading are used for uncertainty quantification. Three types of uncertainty are included in Uncertainty Quantification (UQ): (i) natural variability in loading and materials properties; (ii) data uncertainty due to measurement errors; and (iii) modelling uncertainty and errors during cyclic creep analysis. Due to the consideration of all type of uncertainties, a measure for the total variation of the model response is achieved. The study finds that the BP, modified Hyperbolic and modified MC90 are best performing models for cyclic creep prediction in that order. Further, global Sensitivity Analysis (SA) considering the uncorrelated and correlated parameters is used to quantify the contribution of each source of uncertainty to the overall prediction uncertainty and to identifying the important parameters. The error in determining the input quantities and model itself can produce significant changes in creep prediction values. The variability influence of input random quantities on the cyclic creep was studied by means of the stochastic uncertainty and sensitivity analysis namely the Gartner et al. method and Saltelli et al. method. All input imperfections were considered to be random quantities. The Latin Hypercube Sampling (LHS) numerical simulation method (Monte Carlo type method) was used. It has been found by the stochastic sensitivity analysis that the cyclic creep deformation variability is most sensitive to the Elastic modulus of concrete, compressive strength, mean stress, cyclic stress amplitude, number of cycle, in that order.
Das studentische Projekt Umweltorientiertes Projektmanagement (UWoPM) eröffnet eine neue Generation von Arbeitsweisen im Projektmanagement. Umweltbelange wirken über Rechtsvorschriften immer stärker in das Projektgeschäft hinein. Durch Einbeziehung von rechtsrelevanten Daten in die Projektdatenbasis sowie von Rechtsbestimmungen in die Wissensbasis wird eine Softwareunterstützung für (wenn auch zunächst nur elementare) Rechtsfragen geboten. Eine spezielle Präsentation von Rechtswissen und eine komfortable Unterstützung der Antragstellung sollen dies in die Selbstverständlichkeiten des Projektmanagements einbringen. Gleichzeitig bietet der UWoPM-Prototyp zeitgemäße Systemlösungen für die Kommunikation Antragsteller - Behörde sowie für den Workflow innerhalb der Genehmigungsbehörde. Dieser Vortrag gibt Einführung und Übersicht zu insgesamt 18 Diplomarbeiten, in denen die Einzelkomponenten des UWoPM entwickelt wurden. Zentrales Problem war die Überführung gesetzlicher Vorschriften in Wissensbasen. Durch Beschränkung auf >Kernbestimmungen< und Ausweis von Interpretationsbedarf wurde ein prinzipieller Lösungsweg realisiert. Die technische Realisierung konnte zwar über einen Prototyp noch nicht hinausgehen, weist aber die Realisierbarkeit des Gesamtansatzes nach.
Aktuell findet aufgrund gesellschaftspolitischer Forderungen in vielen Industriezweigen ein Umdenken in Richtung Effizienz und Ökologie aber auch Digitalisierung und Industrie 4.0 statt. In dieser Hinsicht steht die Bauindustrie, im Vergleich zu Industrien wie IT, Automobil- oder Maschinenbau, noch am Anfang.
Dabei sind die Potentiale zur Einsparung und Optimierung gerade in der Bauindustrie aufgrund der großen Mengen an zu verarbeiteten Materialien besonders hoch. Die internationale Ressourcen- und Klimadebatte führt verstärkt dazu, dass auch in der Zement- und Betonherstellung neue Konzepte erstellt und geprüft werden. Einerseits erfolgt intensive Forschung und Entwicklung im Bereich alternativer, klimafreundlicher Zemente. Andererseits werden auch auf Seiten der Betonherstellung innovative materialsparende Konzepte geprüft, wie die aktuelle Entwicklung von 3D-Druck mit Beton zeigt.
Aufgrund der hohen Anforderungen an Konstruktion, Qualität und Langlebigkeit von Bauwerken, besitzen Betonfertigteile oftmals Vorteile gegenüber Ortbeton. Die hohe Oberflächenqualität und Dauerhaftigkeit aber auch die Gleichmäßigkeit und witterungsunabhängige Herstellung sind Merkmale, die im Zusammenhang mit Betonfertigteilen immer wieder erwähnt werden. Dabei ist es essenziell, dass auch der Betonherstellungsprozess im Fertigteilwerk kritisch hinterfragt wird, damit eine effizientere und nachhaltigere Produktion von Betonfertigteilen möglich wird.
Bei der Herstellung von Betonteilen im Fertigteilwerk liegt ein besonderer Fokus auf der Optimierung der Frühfestigkeitsentwicklung. Hohe Frühfestigkeiten sind Voraussetzung für einen hochfrequenten Schalungszyklus, was Arbeiten im 2- bzw. 3-Schichtbetrieb ermöglicht. Oft werden zur Sicherstellung hoher Frühfestigkeiten hochreaktive Zemente in Kombination mit hohen Zementgehalten im Beton und/oder einer Wärmebehandlung eingesetzt. Unter dieser Prämisse ist eine ökologisch nachhaltige Betonproduktion mit verminderter CO2 Bilanz nicht möglich.
In der vorliegenden Arbeit wird ein neues Verfahren zur Beschleunigung von Beton eingeführt. Hierbei werden die Bestandteile Zement und Wasser (Zementsuspension) mit Ultraschall vorbehandelt. Ausgangspunkt der Arbeit sind vorangegangene Untersuchungen zum Einfluss von Ultraschall auf die Hydration von Zement bzw. dessen Hauptbestandteil Tricalciumsilikat (C3S), die im Rahmen dieser Arbeit weiter vertieft werden. Darüber hinaus wird die Produktion von Beton mit Ultraschall im Technikumsmaßstab betrachtet. Die so erlangten Erfahrungen dienten dazu, das Ultraschall-Betonmischsystem weiterzuentwickeln und erstmalig zur industriellen Betonproduktion zu nutzen.
In der vorliegenden Arbeit werden die Auswirkungen von Ultraschall auf die Hydratation von C3S zunächst weitergehend und grundlegend untersucht. Dies erfolgte mittels Messung der elektrischen Leitfähigkeit, Analyse der Ionenkonzentration (ICP-OES), Thermoanalyse, Messung der BET-Oberfläche sowie einer optischen Auswertung mittels Rasterelektronenmikroskopie (REM). Der Fokus liegt auf den ersten Stunden der Hydratation, also der Zeit, die durch die Ultraschallbehandlung am stärksten beeinflusst wird.
In den Untersuchungen zeigt sich, dass die Beschleunigungswirkung von Ultraschall in verdünnten C3S Suspensionen (w/f-Wert = 50) stark von der Portlanditkonzentration der Lösung abhängt. Je niedriger die Portlanditkonzentration, desto größer ist die Beschleunigung. Ergänzende Untersuchungen der Ionenkonzentration der Lösung sowie Untersuchungen am hydratisierten C3S zeigen, dass unmittelbar nach der Beschallung (nach ca. 15 Minuten Hydratation) erste Hydratphasen vorliegen. Die durch Ultraschall initiiere Beschleunigung ist in den ersten 24 Stunden am stärksten und klingt dann sukzessive ab. Die Untersuchungen schließen mit Experimenten an C3S-Pasten (w/f-Wert = 0,50), die die Beobachtungen an den verdünnten Suspensionen bestätigen und infolge der Beschallung ein früheres Auftreten und einen größeren Anteil an C-S-H Phasen zeigen. Es wird gefolgert, dass die unmittelbar infolge von Ultraschall erzeugten C-S-H Phasen als Kristallisationskeim während der folgenden Reaktion dienen und daher Ultraschall als in-situ Keimbildungstechnik angesehen werden kann. Optisch zeigt sich, dass die C-S-H Phasen der beschallten Pasten nicht nur viel früher auftreten, sondern kleiner sind und fein verteilt über die Oberfläche des C3S vorliegen. Auch dieser Effekt wird als vorteilhaft für den sich anschließenden regulären Strukturaufbau angesehen.
Im nächsten Schritt wird daher der Untersuchungsfokus vom Modellsystem mit C3S auf Portlandzement erweitert. Hierbei wird der Frage nachgegangen, wie sich eine Änderung der Zusammensetzung der Zementsuspension (w/z-Wert, Fließmittelmenge) beziehungsweise eine Änderung des Ultraschallenergieeintrag auf die Fließeigenschaften und das Erhärtungsverhalten auswirken.
Um den Einfluss verschiedener Faktoren gleichzeitig zu betrachten, werden mit Hilfe von statistischen Versuchsplänen Modelle erstellt, die das Verhalten der einzelnen Faktoren beschreiben. Zur Beschreibung der Fließeigenschaften wurde das Setzfließ- und Ausbreitmaß von Zementsuspensionen herangezogen. Die Beschleunigung der Erhärtung wurde mit Hilfe der Ermittlung des Zeitpunkts des normalen Erstarrens der Zementsuspension bestimmt.
Die Ergebnisse dieser Untersuchungen zeigen deutlich, dass die Fließeigenschaften und der Erstarrungsbeginn nicht linear mit steigendem Ultraschall-Energieeintrag verändert werden. Es zeigt sich, dass es besonders bei den Verarbeitungseigenschaften der Portlandzementsuspensionen zur Ausbildung eines spezifischen Energieeintrages kommt, bis zu welchem das Setzfließ- und das Ausbreitmaß erhöht werden. Bei Überschreiten dieses Punktes, der als kritischer Energieeintrag definiert wurde, nimmt das Setzfließ- und Ausbreitmaß wieder ab. Das Auftreten dieses Punktes ist im besonderen Maße abhängig vom w/z-Wert. Mit sinkendem w/z-Wert wird der Energieeintrag, der eine Verbesserung der Fließeigenschaften hervorruft, reduziert. Bei sehr niedrigen w/z-Werten (< 0,35), kann keine Verbesserung mehr beobachtet werden.
Wird Fließmittel vor der Beschallung zur Zementsuspension zugegeben, können die Eigenschaften der Zementsuspension maßgeblich beeinflusst werden. In beschallten Suspensionen mit Fließmittel, konnte in Abhängigkeit des Energieeintrages die fließmittelbedingte Verzögerung des Erstarrungsbeginns deutlich reduziert werden. Weiterhin zeigt sich, dass der Energieeintrag, der notwendig ist um den Erstarrungsbeginn um einen festen Betrag zu reduzieren, bei Suspensionen mit Fließmittel deutlich reduziert ist.
Auf Grundlage der Beobachtungen an Zementsuspensionen wird der Einfluss von Ultraschall in einen dispergierenden und einen beschleunigenden Effekt unterteilt. Bei hohen w/z-Werten dominiert der dispergierende Einfluss von Ultraschall und der Erstarrungsbeginn wird moderat verkürzt. Bei niedrigeren w/z-Werten der Zementsuspension, dominiert der beschleunigende Effekt wobei kein oder sogar ein negativer Einfluss auf die Verarbeitungseigenschaften beobachtet werden kann.
Im nächsten Schritt werden die Untersuchungen auf den Betonmaßstab mit Hilfe einer Technikumsanlage erweitert und der Einfluss eines zweistufigen Mischens (also dem Herstellen einer Zementsuspension im ersten Schritt und dem darauffolgenden Vermischen mit der Gesteinskörnung im zweiten Schritt) mit Ultraschall auf die Frisch- und Festbetoneigenschaften betrachtet. Durch die Anlagentechnik, die mit der Beschallung größerer Mengen Zementsuspension einhergeht, kommen weitere Einflussfaktoren auf die Zementsuspension hinzu (z. B. Pumpgeschwindigkeit, Temperatur, Druck). Im Rahmen der Untersuchungen wurde eine Betonrezeptur mit und ohne Ultraschall hergestellt und die Frisch- und Festbetoneigenschaften verglichen. Darüber hinaus wurde ein umfangreiches Untersuchungsprogramm zur Ermittlung wesentlicher Dauerhaftigkeitsparameter durchgeführt. Aufbauend auf den Erfahrungen mit der Technikumsanlage wurde das Ultraschall-Vormischsystem in mehreren Stufen weiterentwickelt und abschließend in einem Betonwerk zur Betonproduktion verwendet.
Die Untersuchungen am Beton zeigen eine deutliche Steigerung der Frühdruckfestigkeiten des Portlandzementbetons. Hierbei kann die zum Entschalen von Betonbauteilen notwendige Druckfestigkeit von 15 MPa deutlich früher erreicht werden. Das Ausbreitmaß der Betone (w/z-Wert = 0,47) wird infolge der Beschallung leicht reduziert, was sich mit den Ergebnissen aus den Untersuchungen an reinen Zementsuspensionen deckt. Bei Applikation eines Überdruckes in der Beschallkammer oder einer Kühlung der Suspension während der Beschallung, kann das Ausbreitmaß leicht gesteigert werden. Allerdings werden die hohen Frühdruckfestigkeiten der ungekühlten beziehungsweise drucklosen Variante nicht mehr erreicht.
In den Untersuchungen kann gezeigt werden, dass das Potential durch die Ultraschall-Beschleunigung genutzt werden kann, um entweder die Festigkeitsklasse des Zementes leitungsneutral zu reduzieren (von CEM I 52,5 R auf CEM I 42,5 R) oder eine 4-stündige Wärmebehandlung vollständig zu substituieren. Die Dauerhaftigkeit der Betone wird dabei nicht negativ beeinflusst. In den Untersuchungen zum Sulfat-, Karbonatisierung-, Chlorideindring- oder Frost/Tauwiderstand kann weder ein positiver noch ein negativer Einfluss durch die Beschallung abgeleitet werden. Ebenso kann in einer Untersuchung zur Alkali-Kieselsäure-Reaktion kein negativer Einfluss durch die Ultraschallbehandlung beobachtet werden.
In den darauf aufbauenden Untersuchungen wird die Anlagentechnik weiterentwickelt, um die Ultraschallbehandlung stärker an eine reale Betonproduktion anzupassen. In der ersten Iterationsstufe wird das in den Betonuntersuchungen verwendete Anlagenkonzept 1 modifiziert (von der In-line-Beschallung zur Batch-Beschallung) und als Analgenkonzept 2 für weitere Untersuchungen genutzt. Hierbei wird eine neue Betonrezeptur mit höherem w/z-Wert (0,52) verwendet, wobei die Druckfestigkeiten ebenfalls deutlich gesteigert werden können. Im Gegensatz zum ersten Beton, wird das Ausbreitmaß dieser Betonzusammensetzung gesteigert, was zur Reduktion von Fließmittel genutzt wird. Dies deckt sich ebenfalls mit den Beobachtungen an reinen Portlandzementsuspensionen, wo eine deutliche Verbesserung der Fließfähigkeit bei höheren w/z-Werten beschrieben wird.
Für diese Betonrezeptur wird ein Vergleich mit einem kommerziell erhältlichen Erhärtungsbeschleuniger (synthetische C-S-H-Keime) angestellt. Hierbei zeigt sich, dass die Beschleunigungswirkung beider Technologien vergleichbar ist. Eine Kombination beider Technologien führt zu einer weiteren deutlichen Steigerung der Frühfestigkeiten, so dass hier von einem synergistischen Effekt ausgegangen werden kann.
In der letzten Iterationsstufe, dem Anlagenkonzept 3, wird beschrieben, wie das Mischsystem im Rahmen einer universitären Ausgründung signifikant weiterentwickelt wird und erstmals in einem Betonwerk zur Betonproduktion verwendet wird. Bei den Überlegungen zur Weiterentwicklung des Ultraschall-Mischsystems wird der Fokus auf die Praktikabilität gelegt und gezeigt, dass das ultraschallgestütze Mischsystem die Druckfestigkeitsentwicklung auch im Werksmaßstab deutlich beschleunigen kann. Damit ist die Voraussetzung für eine ökologisch nachhaltige Optimierung eines Fertigteilbetons unter realen Produktionsbedingungen geschaffen worden.
Vor dem Hintergrund des gesellschaftlichen Wandels sieht sich die Verkehrsforschung mit neuen Anforderungen an die Konzeption, Anpassung, Anwendung usw. von statistischen Ansätzen zur Analyse des Aktivitäten-(Verkehrs-)verhaltens konfrontiert, um auf Basis empirischer Daten adäquat Zusammenhänge der Verkehrsentstehung zu erforschen. Ausgehend von der musterorientierten Perspektive - das heißt Untersuchungsgegenstand sind chronologische Abfolgen von Ortsveränderungen und Tätigkeiten in Form von Wege-Aktivitätenmustern - besteht das Ziel einer möglichst realitätsnahen Abbildung und Erklärung von individuellen Unterschieden im Raum-Zeit-Verhalten. Neu bzw. kaum etabliert sind in diesem Kontext der eigens konzipierte Multimethodenansatz sowie die Optimal Matching Technik, die erweiterte Abbildungseigenschaften zur Distanzmessung zwischen Wege-Aktivitätenmustern aufweist. Erkannt werden durch jene Methode gleiche Tätigkeiten bzw. Ortsveränderungen, die zeitlich an unterschiedlichen Stellen der zu vergleichenden Muster angeordnet sind sowie identische Subsequenzen. Zielführend in der Datenanalyse ist nachstehende Abfolge von Verfahren: Die Klassifikation von Wege-Aktivitätenmustern zur Reduktionen deren immenser Komplexität gelingt durch Einsatz der Optimal Matching Technik. Diese quantifiziert (Un-)ähnlichkeiten zwischen Wege-Aktivitätenmustern („Abstandsmessung“) unterschiedlicher Personen oder zu vergleichender Zeitabschnitte einer Person. Die dadurch berechnete Distanzmatrix bildet den Ausgangspunkt des clusteranalytischen Fusions-algorithmus, dessen Aufgabe die Zusammenfassung der Wege-Aktivitätenmuster ist (explorative Stufe). Die Anwendung eines multinomialen Logit-Modells ermöglicht auf Individualebene die Vorhersage der Affinität zu Wege-Aktivitätenmuster-Typen anhand von Merkmalswerten identifizierter Erklärungsgrößen der Personen, des Haushaltes usw. (induktive Stufe). Im Gegensatz zu einschlägigen Forschungsarbeiten zeichnet sich die gewählte Untersuchungsstrategie durch die Objektivität des Vorgehens aus, da eine a-priori Bildung von Personen-kategorien nicht notwendig ist. Ebenso grenzt die Berücksichtigung der zufälligen und nicht-erklärbaren Verhaltensvariabilität durch das Wahrscheinlichkeitsprinzip des gewählten Logit-Modells das eigene Vorgehen von anderen Untersuchungen ab. Aufgrund der weitgehend ungeklärten Anwendungsgrundlagen der Optimal Matching Technik befasst sich die vorliegende Arbeit zunächst mit dessen inhaltlicher Ausrichtung am Untersuchungsgegenstand. Die Anpassung der festzulegenden Aufwandswerte, welche für die benötigten Aktionen angesetzt werden, um ein Wege-Aktivitätenmuster in ein anderes zu transformieren, erfolgt mit Hilfe einer empirisch Abschätzung, die weit über ein argumentatives Vorgehen hinausgeht. Der ermittelte Sequenzabstand inkludiert dabei die operationsspezifische Distanz bei Übergängen zwischen den konstituierenden Zuständen der zu vergleichenden Wege-Aktivitätenmuster („Zustandsähnlichkeit“). Abstandsmaß für die qualitativen Zustände ist dabei die ermittelte Priorität von wege- und tätigkeitenbezogenen Handlungen. Die Relevanz einer Ausrichtung belegt auch die durchgeführte Sensitivitätsanalyse: Das Ausmaß der Empfindlichkeit der Optimal Matching Technik ist insbesondere gegenüber der Festlegung der Aufwandswerte beträchtlich. Um die Analysepotenziale des Multimethodenansatzes zu demonstrieren, werden exemplarisch interpersonelle Unterschiede im wöchentlichen Aktivitäten-(Verkehrs-)verhaltens (Datenbasis: deutsches Mobilitätspanel) analysiert. Ergebnis der Klassifikation (explorative Analysestufe) ist eine auf den ersten Blick inhaltlich stichhaltige Wege-Aktivitätenmuster-Typologie charakteristischer Wochenabläufe des Aktivitäten-(Verkehrs-)verhaltens: Unterschiedliche Arten, zeitlicher Umfang und zeitliche Lage der Haupt-aktivitäten, unterschiedliche Verkehrsverhaltensweisen sowie unterschiedliche clusterspezifische Tag zu Tag Rhythmen, Gleichförmigkeiten, Schwankungen usw. des Raum-Zeit-Verhaltens kennzeichnen die Wege-Aktivitätenmuster-Typen. Die Abbildungs-eigenschaften der Optimal-Matching Technik zeichnen sich in den erstellten Clustern nur teilweise ab: Während die Zustandselementkomposition - augenscheinlich betrachtet - passabel durch die Wege-Aktivitätenmuster-Typologie abgebildet wird, bleibt ungewiss, ob und inwieweit dies für die Abfolgeähnlichkeit gilt. Aus dem induktiven Analyseschritt geht hervor: Alter, Geschlecht, Verfügbarkeit einer ÖPNV-Zeitkarte, Führerscheinbesitz und mit herausragender Bedeutung der Erwerbsstatus signalisieren als maßgebende Erklärungsgrößen eine Trennwirkung. Überdies zeigt das Gesamtbild der ermittelten Wirkungsrichtungen und Effektstärken überzeugende Erklärungszusammenhänge auf. Damit ist ein Nachweis der Praktikabilität des eigens konzipierten Multimethodenansatzes unter Verwendung der Optimal Matching Technik zur musterorientierten Analyse des Raum-Zeit-Verhaltens erbracht.
Der Autor, Berater und Gutachter für das Thüringer Ministerium für Soziales und Gesundheit und Mitverfasser der Thüringer Landespflegepläne, systematisiert und analysiert die Struktur und Situation pflegebedürftiger Menschen und deren Inanspruchnahme sozialer Pflegeinfrastrukturen im räumlichen und demographischen Kontext. Im Mittelpunkt dieser regionalwissenschaftlichen Forschungsarbeit stehen räumliche Disparitäten der Versorgungs- und Angebotssicherung sowie bisher kaum betrachtete räumliche Strukturen und Interdependenzen der Pflegebedürftigkeit und Pflegeleistungen. Hierzu wurden vom Autor mehrere regional differenzierte Datenerhebungen aller teilstationären und vollstationären pflegebedürftigen Menschen und der Pflegeinfrastruktureinrichtungen im Freistaat Thüringen durchgeführt.Durch die Integration explorativer Analysemethoden in die empirische Regionalforschung wird die Pflegelandschaft Thüringens für den Zeitraum 1994 bis 2000 dokumentiert und anhand eines relationalen Indikatorensystems die Strukturen und räumlichen Muster der Pflegebedürftigkeit und -infrastruktur, soziodemographischen und raumstrukturellen Einflusskomponenten sowie pflegespezifische Interdependenzen exploriert und analysiert. Ein Ergebnis sind typologische Aussagen zum Alter, zur Pflegeart und -schwere oder Struktur der Pflegeleistungen in einer hochauflösenden topologischen Differenzierung nach regionaler Herkunft pflegebedürftiger Menschen. So hat die Einführung der Pflegeversicherung die Situation der meisten pflegebedürftigen Menschen in Thüringen deutlich verbessert. In der Zeitreihenuntersuchung treten diese Anfangserfolge aber hinter identifizierten Problemlagen aus z.B. sukzessiver Polarisierung der Pflegeleistungen, wachsenden Infrastrukturdisparitäten mit exakt quantifizierbaren Wanderungsbewegungen pflegebedürftiger Menschen zurück. Ein Ergebnis topologischer Analysen sind regionale (Versorgungs-) Disparitäten, die zu nachgewiesenen Wanderungsbewegungen pflegebedürftiger Menschen führen.So resultiert die noch nachweisbare Leistungs- bzw. Funktionsfähigkeit der Pflegelandschaft Thüringens (im Sinne der pflegerischen Grundversorgung einer Teilkaskoversicherung) primär aus noch günstigen Rahmenbedingungen wie dem „selbstverständlich“ erbrachten informellen Pflegeleistungen (der Frauen und Töchter) und nur sekundär (oder kaum) aus der durchaus noch guten finanziellen Situation der Pflegeversicherung. Ferner konnte gezeigt werden, dass wachsende Versorgungsdisparitäten nur anteilig eine Infrastrukturproblematik darstellen.Die Ergebnisse werden im Hinblick auf die entwickelten Methoden und weiteren Untersuchungen diskutiert und im Kontext des theoretischen Teils u.a. zur Entwicklung der Altenhilfe, Pflegeversicherung und sozialen Infrastrukturversorgung betrachtet und vor den Konsequenzen des demographischen Wandels reflektiert. Mit den Untersuchungsergebnissen fordert der Autor, dass Alterung und Schrumpfung der Bevölkerung in Teilräumen als dominante Entwicklung nicht verleugnet werden darf, damit durch eine integrative Gesamtsicht einer auch sozial nachhaltigen Raumentwicklung die pflegespezifische Forderung nach einem möglichst selbstbestimmten und selbständigen Leben (im eigenen Haushalt) gewahrt und das Grundrecht auf Würde auch pflegebedürftiger Menschen gewährleistet bleibt.Dazu wird vorgeschlagen, mit einer modernen Regionalforschung, die durch hochauflösende Datenerfassung, neuen explorativen statistischen Analysemethoden und in Verbindung mit aussagekräftigen Visualisierungsverfahren ein qualifiziertes Monitoring- und Analysesystem für die Raumbeobachtung aufzubauen, um Problemregionen rechzeitig identifizieren und Planungen zeitnah initiieren zu können.
The execution of project activities generally requires the use of (renewable) resources like machines, equipment or manpower. The resource allocation problem consists in assigning time intervals to the execution of the project activities while taking into account temporal constraints between activities emanating from technological or organizational requirements and costs incurred by the resource allocation. If the total procurement cost of the different renewable resources has to be minimized we speak of a resource investment problem. If the cost depends on the smoothness of the resource utilization over time the underlying problem is called a resource levelling problem. In this paper we consider a new tree-based enumeration method for solving resource investment and resource levelling problems exploiting some fundamental properties of spanning trees. The enumeration scheme is embedded in a branch-and-bound procedure using a workload-based lower bound and a depth first search. Preliminary computational results show that the proposed procedure is promising for instances with up to 30 activities.
Die Lage oder der Standort eines Bauwerkes ist zweifellos charakteristisch mit diesem verbunden. Die räumliche Einordnung eines exponierten architektonischen Werkes, die Erschließung eines Gebäudes im innerstädtischen Umfeld oder die Verwaltung eines Bestands ist im Bauwesen oder der Architektur immer visuell. Die Interaktion mit Zeichnungen, die Orientierung anhand eines Lageplans oder die Dokumentation mit Fotos sind nur einige Beispiele. Die wirtschaftliche Optimierung unter Nutzung solcher Daten und deren nachfolgende Visualisierung soll hier mittels geeigneter Systeme gezeigt werden. Aber auch die Bewertung durch und Interaktion mit dem Benutzer unterstützt werden. So soll dieser Artikel beispielhaft den Transport und Verkehr fokussieren. Mathematik Graphen und Netze formen dabei Modelle zur Optimierung der zugrundeliegenden Logistikprozesse: Die Baustoffbedarfsplanung mit Bestellwesen, (Ab-)Transport und Lieferung von Material, Tourenzusammenstellung oder Standortauswahl. Informatik Weiterhin wird deren softwaretechnische Umsetzung und Einordung in begleitende Projekte der >Mathematischen Optimierung< vorgestellt.
Urban and building energy simulation models are usually driven by typical meteorological year (TMY) weather data often in a TMY2 or EPW format. However, the locations where these historical datasets were collected (usually airports) generally do not represent the local, site specific micro-climates that cities develop. In this paper, a humid sub-tropical climate context has been considered. An idealised “urban unit model” of 250 m radius is being presented as a method of adapting commonly available weather data files to the local micro-climate. This idealised “urban unit model” is based on the main thermal and morphological characteristics of nine sites with residential/institutional (university) use in Hangzhou, China. The area of the urban unit was determined by the region of influence on the air temperature signal at the centre of the unit. Air temperature and relative humidity were monitored and the characteristics of the surroundings assessed (eg green-space, blue-space, built form). The “urban unit model” was then implemented into micro-climatic simulations using a Computational Fluid Dynamics – Surface Energy Balance analysis tool (ENVI-met, Version 4). The “urban unit model” approach used here in the simulations delivered results with performance evaluation indices comparable to previously published work (for air temperature; RMSE <1, index of agreement d > 0.9). The micro-climatic simulation results were then used to adapt the air temperature and relative humidity of the TMY file for Hangzhou to represent the local, site specific morphology under three different weather forcing cases, (ie cloudy/rainy weather (Group 1), clear sky, average weather conditions (Group 2) and clear sky, hot weather (Group 3)). Following model validation, two scenarios (domestic and non-domestic building use) were developed to assess building heating and cooling loads against the business as usual case of using typical meteorological year data files. The final “urban weather projections” obtained from the simulations with the “urban unit model” were used to compare the degree days amongst the reference TMY file, the TMY file with a bulk UHI offset and the TMY file adapted for the site-specific micro-climate (TMY-UWP). The comparison shows that Heating Degree Days (HDD) of the TMY file (1598 days) decreased by 6 % in the “TMY + UHI” case and 13 % in the “TMY-UWP” case showing that the local specific micro-climate is attributed with an additional 7 % (ie from 6 to 13 %) reduction in relation to the bulk UHI effect in the city. The Cooling Degree Days (CDD) from the “TMY + UHI” file are 17 % more than the reference TMY (207 days) and the use of the “TMY-UWP” file results to an additional 14 % increase in comparison with the “TMY + UHI” file (ie from 17 to 31 %). This difference between the TMY-UWP and the TMY + UHI files is a reflection of the thermal characteristics of the specific urban morphology of the studied sites compared to the wider city. A dynamic thermal simulation tool (TRNSYS) was used to calculate the heating and cooling load demand change in a domestic and a non-domestic building scenario. The heating and cooling loads calculated with the adapted TMY-UWP file show that in both scenarios there is an increase by approximately 20 % of the cooling load and a 20 % decrease of the heating load. If typical COP values for a reversible air-conditioning system are 2.0 for heating and 3.5 for cooling then the total electricity consumption estimated with the use of the “urbanised” TMY-UWP file will be decreased by 11 % in comparison with the “business as usual” (ie reference TMY) case. Overall, it was found that the proposed method is appropriate for urban and building energy performance simulations in humid sub-tropical climate cities such as Hangzhou, addressing some of the shortfalls of current simulation weather data sets such as the TMY.
TRANSFORMING TO EXPERT
(2011)
Katharina Richter holds a degree in Architecture, Urban- and Regional Planning from the Bauhaus-University Weimar, where she is appointed as Assistant Professor at the Chair of Computer Science in Architecture since 2000. She teaches architecture studio in undergraduate and graduate programs and has been supervising several international teaching projects. In Fall 2004 she was teaching and researching at the Washington Alexandria Architecture Consortium - Virginia Polytechnic and State University, Alexandria, VA. Her current research focuses on the investigation of the potential of computer based exchange of experiential knowledge in architecture. Between 2000 and 2006 she coordinated third party verification procedures at the Collaborative Research Center SFB 524 „Materials and Structures in Revitalization of Buildings“, Bauhaus-University Weimar, Germany. Her work has been published at various international conferences as well as in related reviewed journals.
TRANSFORMING TACIT KNOWLEDGE
(2011)
Sabine Ammon studied architecture and philosophy at the Technische Universität Berlin. Study and research visits led her to the University of London, Harvard University and ETH Zürich. Furthermore, she practised building design as a freelance architect. Her dissertation “Wissen verstehen. Perspektiven einer prozessualen Theorie der Erkenntnis”, Weilerswist 2009, develops a theory of knowledge, based on the philosophy of symbols. In her current research project she explores the epistemic dimension of architectural design processes.
Transformation of the Environment: Influence of “Urban Reagents.” German and Russian Case Studies
(2021)
An urban regeneration manifests itself through urban objects operating as change agents. The en-tailed diverse effects on the surroundings demonstrate experimental origin - an experiment as a preplanned but unpredictable method. An understanding of influences and features of urban ob-jects requires scrutiny due to a high potential of the elements to force an alteration and reactions. This dissertation explores the transformation of the milieu and mechanisms of this transformation.
Neuartige Sanitärsysteme zielen auf eine ressourcenorientierte Verwertung von Abwasser ab. Erreicht werden soll dies durch die separate Erfassung von Abwasserteilströmen. In den Fachöffentlichkeiten der Wasserwirtschaft und Raumplanung werden neuartige Sanitärsysteme als ein geeigneter Ansatz für die zukünftige
Sicherung der Abwasserentsorgung in ländlichen Räumen betrachtet. Die Praxistauglichkeit dieser Systeme wurde zwar in Forschungsprojekten nachgewiesen, bisher erschweren jedoch für Abwasserentsorger vielfältige Risiken die Einführung einer ressourcenorientierten Abwasserbewirtschaftung. Ausgehend von einer Untersuchung der Kontexte bei der Umsetzung eines neuartigen Sanitärsystems im ländlichen Raum Thüringens wird in diesem Beitrag der Frage nachgegangen, wie auf Landesebene mit dem abwasserwirtschaftlichen Instrumentarium die Einführung von ressourcenorientierten Systemansätzen unterstützt werden kann. Zentrale Elemente des Beitrags sind die Darstellung der wesentlichen Transformationsrisiken in Bezug auf die Einführung innovativer Lösungsansätze, eine Erläuterung der spezifischen abwasserwirtschaftlichen Instrumente sowie die Darlegung von Steuerungsansätzen,mit denen die Einführung von neuartigen Sanitärsystemen gefördert werden kann. Im Ergebnis wird die Realisierbarkeit von neuartigen Sanitärsystemen durch den strategischen Einsatz des Instrumentariums deutlich, gleichwohl die Wasserwirtschaft durch die Erweiterung der bisherigen Systemgrenzen auf die Kooperation mit anderen Bereichen der Daseinsvorsorge angewiesen ist.
Trans-formal architecture
(1997)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1996 in Weimar an der Bauhaus-Universität zum Thema: ‚Techno-Fiction. Zur Kritik der technologischen Utopien'
Druckbeanspruchte Bauteile aus Beton können mit zugfesten Umschnürungen von außen verstärkt werden. Mit dieser etablierten Methode konnten axiale Traglast und Duktilität von unzureichend bewehrten Stützen bereits verbessert werden. Es wurde jedoch festgestellt, dass der umschnürte Betonkern dennoch an Festigkeit verliert. Um die Wirksamkeit der Umschnürung zu erhöhen, wird deshalb vorgeschlagen, das umschnürende Material vorzuspannen. Dieser Vorschlag wird insbesondere von der neuen Materialgruppe der Formgedächtnislegierungen inspiriert, die thermisch vorspannbar sind.
Bisher sind die Auswirkungen der Vorspannung einer Umschnürung auf das Tragverhalten von Betondruckgliedern kaum untersucht worden. Diese Lücke wird durch systematische Versuche an Betonzylindern mit vorgespannter Umschnürung aus Stahl und kohlenstofffaserverstärktem Kunststoff geschlossen. Die Abbildung der Versuchsergebnisse durch geeignete Modelle ermöglicht auch Aussagen zum Verhalten von Betondruckgliedern mit Umschnürungen aus anderen Materialien, beispielsweise Formgedächtnislegierungen. Um diese in den Berechnungen zu simulieren, wird eine für das Bauwesen infrage kommende eisenbasierte Legierung in separaten axialen Versuchen charakterisiert und thermisch vorgespannt. Die in der vorliegenden Arbeit entwickelten neuen Modelle orientieren sich im Wesentlichen an zwei Zielen: dem Abbilden des mehraxialen Spannungs-Dehnungs-Verhaltens des vorgespannt umschnürten Betons und dem Berechnen der Restfestigkeit des Betons.
Die durchgeführten Versuche und Parameterstudien auf Basis der Modelle zeigen: Die Vorspannung der Umschnürung beeinflusst vor allem die Restfestigkeit des Betons wesentlich. Die gewonnenen Erkenntnisse und neuen Methoden können eingesetzt werden, um das Tragverhalten von Betondruckgliedern mit Umschnürungen aus Stahl, faserverstärktem Kunststoff oder Formgedächtnislegierungen zu bewerten.
Professor Jane Rendell is Director of Architectural Research at the Bartlett, UCL. An architectural designer and historian, art critic and writer, her work has explored various interdisciplinary intersections: feminist theory and architectural history, ne art and architectural design, autobiographical writing and criticism. She is author of Site-Writing: The Architecture of Art Criticism (2010), Art and Architecture (2006), The Pursuit of Pleasure (2002) and co-editor of Pattern (2007), Critical Architecture (2007), Spatial Imagination (2005), The Unknown City (2001), Intersections (2000), Gender Space Architecture (1999) and Strangely Familiar (1995). Her talks and texts have been commissioned by artists such as Daniel Arsham and Bik Van Der Pol, and galleries, as the Baltic, the Hayward, Kunstmuseum Thon, the Serpentine, the Tate and the Whitechapel. She is on the Editorial Board for ARQ (Architectural Research Quarterly), Haecceity, The Happy Hypocrite, The Issues and the Journal of Visual Culture in Britain.
In order to make control decisions, Smart Buildings need to collect data from multiple sources and bring it to a central location, such as the Building Management System (BMS). This needs to be done in a timely and automated fashion. Besides data being gathered from different energy using elements, information of occupant behaviour is also important for a building’s requirement analysis. In this paper, the parameter of Occupant Density was considered to help find behaviour of occupants towards a building space. Through this parameter, support for building energy consumption and requirements based on occupant need and demands was provided. The demonstrator presented provides information on the number of people present in a particular building space at any time, giving the space density. Such collections of density data made over a certain period of time represents occupant behaviour towards the building space, giving its usage patterns. Similarly, inventory items were tracked and monitored for moving out or being brought into a particular read zone. For both, people and inventory items, this was achieved using small, low-cost, passive Ultra-High Frequency (UHF) Radio Frequency Identification (RFID) tags. Occupants were given the tags in a form factor of a credit card to be possessed at all times. A central database was built where occupant and inventory information for a particular building space was maintained for monitoring and providing a central data access.
A central issue for the autonomous navigation of mobile robots is to map unknown environments while simultaneously estimating its position within this map. This chicken-eggproblem is known as simultaneous localization and mapping (SLAM). Asctec’s quadrotor Pelican is a powerful and flexible research UAS (unmanned aircraft system) which enables the development of new real-time on-board algorithms for SLAM as well as autonomous navigation. The relative UAS pose estimation for SLAM, usually based on low-cost sensors like inertial measurement units (IMU) and barometers, is known to be affected by high drift rates. In order to significantly reduce these effects, we incorporate additional independent pose estimation techniques using exteroceptive sensors. In this article we present first pose estimation results using a stereo camera setup as well as a laser range finder, individually. Even though these methods fail in few certain configurations we demonstrate their effectiveness and value for the reduction of IMU drift rates and give an outlook for further works towards SLAM.
Thin elastic plates are the basic constructional elements and are very often subjected to dynamic effects especially in the machine-building structures. Their saving design of resonance conditions of operation is an extremely complicated task which cannot be solved analytically. In the present report an efficient and sufficiently general method for optimal design of thin plates is worked out on the basis of energy resonance method of Wilder, the method of the finite elements for dynamic research and the methods of parameter optimization. By means of these methods various limitations and requirements put by the designer to the plates can be taken into account. A programme module for numerical investigation of the weight variation of the plate depending on the taken variable of the designed thickness at different supporting conditions is developed. The reasons for the considerable quantity and quality difference between the obtained optimal designs are also analysed.
The process of matching data represented in two different data models is a longstanding issue in the exchange of data between different software systems. While the traditional manual matching approach cannot meet today’s demands on data exchange, research shows that a fully automated generic approach for model matching is not likely, and generic semi-automated approaches are not easy to implement. In this paper, we present an approach that focuses on matching data models in a specific domain. The approach combines a basic model matching approach and a version matching approach to deduce new matching rules to enable data transfer between two evolving data models.
This paper describes an ongoing research on the representation and reasoning about construction specifications, which is part of a bigger research project that aims at developing a formalism for automating the identification of deviations and defects on construction sites. We specifically describe the requirements on product and process models and an approach for representing and reasoning about construction specifications to enable automated detection and assessment of construction deviations and defects. This research builds on the previous research on modeling design specifications and extends and elaborates concept of contexts developed in that domain. The paper provides an overview of how the construction specifications are being modele d in this research and points out future steps that need to be accomplished to develop the envisioned automated deviation and defect detection system.
Current disaster management procedures rely primarily on heuristics which result in their strategies being very cautious and sub-optimum in terms of saving life, minimising damage and returning the building to its normal function. Also effective disaster management demands decentralized, dynamic, flexible, short term and across domain resource sharing, which is not well supported by existing distributing computing infrastructres. The paper proposes a conceptual framework for emergency management in the built environment, using Semantic Grid as an integrating platform for different technologies. The framework supports a distributed network of specialists in built environment, including structural engineers, building technologists, decision analysts etc. It brings together the necessary technology threads, including the Semantic Web (to provide a framework for shared definitions of terms, resources and relationships), Web Services (to provide dynamic discovery and integration) and Grid Computing (for enhanced computational power, high speed access, collaboration and security control) to support rapid formation of virtual teams for disaster management. The proposed framework also make an extensive use of modelling and simulation (both numerical and using visualisations), data mining (to find resources in legacy data sets) and visualisation. It also include a variety of hardware instruments with access to real time data. Furthermore the whole framework is centred on collaborative working by the virtual team. Although focus of this paper is on disaster management, many aspects of the discussed Grid and Visualisation technologies will be useful for any other forms of collaboration. Conclusions are drawn about the possible future impact on the built environment.
Leslie Kavanaugh is both an architect and a philosopher. She is a licensed architect in America and the Netherlands, as well as a member of the AIA, but studied philosophy from undergraduate to doctorate at the University of Amsterdam. She has taught philosophy and design at various institutions, including twelve years at TUDelft, and as a guest professor at the Tokyo Science University and Milano Politecnico. Her publications include The Architectonic of Philosophy: Plato, Aristotle, Leibniz (Amsterdam: University of Amsterdam Press, 2007), Crossovers (with A.Graafland), Meditations on Space (2010), Aggregates (2010), and Chronotopologies: Hybrid Spatialities and Multiple Temporalities (Amsterdam: Rodopi Press, forthcoming). Presently she is the founder and director of studiokav.com in Amsterdam, a multi-disciplinary and collaborative atelier. In addition, Kavanaugh is an affiliated Senior Scholar at the Philosophy Institute, Leiden University, the Netherlands.
The aim of our contribution is to clarify the relation between totally regular variables and Appell sequences of hypercomplex holomorphic polynomials (sometimes simply called monogenic power-like functions) in Hypercomplex Function Theory. After their introduction in 2006 by two of the authors of this note on the occasion of the 17th IKM, the latter have been subject of investigations by different authors with different methods and in various contexts. The former concept, introduced by R. Delanghe in 1970 and later also studied by K. Gürlebeck in 1982 for the case of quaternions, has some obvious relationship with the latter, since it describes a set of linear hypercomplex holomorphic functions all power of which are also hypercomplex holomorphic. Due to the non-commutative nature of the underlying Clifford algebra, being totally regular variables or Appell sequences are not trivial properties as it is for the integer powers of the complex variable z=x+ iy. Simple examples show also, that not every totally regular variable and its powers form an Appell sequence and vice versa. Under some very natural normalization condition the set of all para-vector valued totally regular variables which are also Appell sequences will completely be characterized. In some sense the result can also be considered as an answer to a remark of K. Habetha in chapter 16: Function theory in algebras of the collection Complex analysis. Methods, trends, and applications, Akademie-Verlag Berlin, (Eds. E. Lanckau and W. Tutschke) 225-237 (1983) on the use of exact copies of several complex variables for the power series representation of any hypercomplex holomorphic function.