Refine
Document Type
- Conference Proceeding (132)
- Doctoral Thesis (15)
- Article (7)
- Master's Thesis (7)
- Report (4)
- Diploma Thesis (3)
- Preprint (3)
- Book (1)
- Part of a Book (1)
Institute
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (93)
- Institut für Strukturmechanik (ISM) (16)
- Professur Baubetrieb und Bauverfahren (10)
- Professur Angewandte Mathematik (6)
- Institut für Europäische Urbanistik (5)
- Junior-Professur Augmented Reality (5)
- Professur Stahlbau (5)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Informatik in der Architektur (4)
- Professur Computergestütztes kooperatives Arbeiten (3)
Keywords
Year of publication
- 2006 (173) (remove)
Due to economical, technical or political reasons all over the world about 100 nuclear power plants have been disconnected until today. All these power stations are still waiting for their complete dismantling which, considering one reactor, causes cost of up to one Bil. Euros and lasts up to 15 years. In our contribution we present a resource-constrained project scheduling approach minimizing the total discounted cost of dismantling a nuclear power plant. A project of dismantling a nuclear power plant can be subdivided into a number of disassembling activities. The execution of these activities requires time and scarce resources like manpower, special equipment or storage facilities for the contaminated material arising from the dismantling. Moreover, we have to regard several minimum and maximum time lags (temporal constraints) between the start times of the different activities. Finally, each disassembling activity can be processed in two alternative execution modes, which lead to different disbursements and determine the resource requirements of the considered activity. The optimization problem is to determine a start time and an execution mode for each activity, such that the discounted cost of the project is minimum, and neither the temporal constraints are violated nor the activities' resource requirements exceed the availability of any scarce resource at any point in time. In our contribution we introduce an appropriate multi-mode project scheduling model with minimum and maximum time lags as well as renewable and cumulative resources for the described optimization problem. Furthermore, we show that the considered optimization problem is NP-hard in the strong sense. For small problem instances, optimal solutions can be gained from a relaxation based enumeration approach which is incorporated into a branch and bound algorithm. In order to be able to solve large problem instances, we also propose a truncated version of the devised branch and bound algorithm.
Interactive visualization based on 3D computer graphics nowadays is an indispensable part of any simulation software used in engineering. Nevertheless, the implementation of such visualization software components is often avoided in research projects because it is a challenging and potentially time consuming task. In this contribution, a novel Java framework for the interactive visualization of engineering models is introduced. It supports the task of implementing engineering visualization software by providing adequate program logic as well as high level classes for the visual representation of entities typical for engineering models. The presented framework is built on top of the open source visualization toolkit VTK. In VTK, a visualization model is established by connecting several filter objects in a so called visualization pipeline. Although designing and implementing a good pipeline layout is demanding, VTK does not support the reuse of pipeline layouts directly. Our framework tailors VTK to engineering applications on two levels. On the first level it adds new – engineering model specific – filter classes to VTK. On the second level, ready made pipeline layouts for certain aspects of engineering models are provided. For instance there is a pipeline class for one-dimensional elements like trusses and beams that is capable of showing the elements along with deformations and member forces. In order to facilitate the implementation of a graphical user interface (GUI) for each pipeline class, there exists a reusable Java Swing GUI component that allows the user to configure the appearance of the visualization model. Because of the flexible structure, the framework can be easily adapted and extended to new problem domains. Currently it is used in (i) an object-oriented p-version finite element code for design optimization, (ii) an agent based monitoring system for dam structures and (iii) the simulation of destruction processes by controlled explosives based on multibody dynamics. Application examples from all three domains illustrates that the approach presented is powerful as well as versatile.
In this study we introduce a concept of discrete Laplacian on the plane lattice and consider its iteration dynamical system. At first we discuss some basic properties on the dynamical system to be proved. Next making their computer simulations, we show that we can realize the following phenomena quite well:(1) The crystal of waters (2) The designs of carpets, embroideries (3) The time change of the numbers of families of extinct animals, and (4) The echo systems of life things. Hence we may expect that we can understand the evolutions and self organizations by use of the dynamical systems. Here we want to make a stress on the following fact: Although several well known chaotic dynamical systems can describe chaotic phenomena, they have difficulties in the descriptions of the evolutions and self organizations.
For the dynamic behavior of lightweight structures like thin shells and membranes exposed to fluid flow the interaction between the two fields is often essential. Computational fluid-structure interaction provides a tool to predict this interaction and complement or eventually replace expensive experiments. Partitioned analyses techniques enjoy great popularity for the numerical simulation of these interactions. This is due to their computational superiority over simultaneous, i.e. fully coupled monolithic approaches, as they allow the independent use of suitable discretization methods and modular analysis software. We use, for the fluid, GLS stabilized finite elements on a moving domain based on the incompressible instationary Navier-Stokes equations, where the formulation guarantees geometric conservation on the deforming domain. The structure is discretized by nonlinear, three-dimensional shell elements.
Commonly used sequential staggered coupling schemes may exhibit instabilities due to the so-called artificial added mass effect. As best remedy to this problem subiterations should be invoked to guarantee kinematic and dynamic continuity across the fluid-structure interface. Since iterative coupling algorithms are computationally very costly, their convergence rate is very decisive for their usability. To ensure and accelerate the convergence of this iteration the updates of the interface position are relaxed. The time dependent, 'optimal' relaxation parameter is determined automatically without any user-input via exploiting a gradient method or applying an Aitken iteration scheme.
Optimum technological solutions must take into account the entire life cycle of structures including design procedures as well as quality assurance, inspection, maintenance, and repair strategies. Unfortunately, current design standards do not provide a satisfactory basis to ensure expected structural lifetimes. The latter may vary from only a few years for temporary structures to over a century for bridges, water dams or nuclear repositories. Consistent scientific concepts are urgently required to cover this wide spectrum of lifetimes in structural design and maintenance. This was a motivation for a group of scientists at the Ruhr-University Bochum (RUB) to start a special research program supported by the German Research Foundation (DFG) within the Cooperative Research Center SFB 398 since 1996. Institutes of the University Wuppertal and of the University Essen-Duisburg joined the research group. The goal of the Center is to study sources of damage and deterioration in materials and structures, to develop consistent models and simulation methods, to predict structural lifetimes and finally to integrate this predictions into new lifetime-oriented design strategies.
Research activities in our center are organised in three Project Groups as follows:
- Modelling of lifetime effects
- Methods for lifetime-oriented structural analyses
- Future lifespan-oriented design strategies.
Mikroelektronik und Mikrosystemtechnik in Kombination mit Informations- und Kommunikations-technik erlauben es mittlerweile, Rechenleistung und Kommunikationsfähigkeit in kleinsten Formaten, mit geringsten Energien und zu günstigen Preisen nutzbringend in unser privates und berufliches Umfeld einzubringen. Beispiele sind Notebook-PC, PDA, Handy und das Navigationßystem im Auto. Aber auch eingebettete Elektronik in Komponenten, Geräten und Systemen ist nunmehr zur Selbstverständlichkeit geworden. Bekannte Beispiele aus der Haustechnik sind Mikroprozeßoren in Heizungs- und Alarmanlagen und aber auch in Komponenten wie Brand- und Bewegungsmelder. Wir nähern uns dem vor einigen Jahren noch als Vision bezeichneten Zustand der überall vorhandenen elektronischen Rechenleistung (engl. ubiquitous computing) bzw. des von Informationsverarbeitung durchdrungenen täglichen Umfelds (engl. pervasive computing). Werden die TGA-Komponenten genau wie die größeren Computerkomponenten (z.B. PCs, Server) über Datenschnittstellen zu räumlich verteilten Netzwerken verknüpft (z.B. Internet, Intranet) und mit einer systemübergreifenden und adäquaten Intelligenz (Software) programmiert, so können neuartige Funktionalitäten im jeweiligen Anwendungsumfeld (engl. ambient intelligence, kurz AmI, [1]) entstehen. Hier liegt bei Gebäuden und Räumen speziell eine große Chance, die bislang einer ganzheitlichen Systemkonzeption unter Einschluß von Architektur, Gebäudephysik, technischer Gebäudeausrüstung (TGA) und Gebäudeautomation (GA) im Wege stehende Gewerketrennung zu überwinden. Es entstehen für div. Anwendungszwecke systemisch integrierte >smart areas< (nach Prof. Becker, FH Biberach). Im vorliegenden Beitrag erläuterte Beispiele für AmI-Lösungen im Immobilienbereich sind Raumsysteme zur automatischen und sicheren Erkennung von Notfällen, z.B. in Pflegeheimen; sich automatisch an die Nutzung und den Nutzer bzgl. Klima und Beleuchtung adaptierende Raumsysteme im Büro- oder Hotelbereich und die elektronische Aßistenz des Bau- und Betriebsprozeßes von Gebäuden. Im Duisburger inHaus-Innovationszentrum für Intelligente Raum- und Gebäudesysteme der Fraunhofer-Gesellschaft wurden in den letzten Jahren erste Lösungen mit diesem neuartigen Ansatz konzipiert, entwickelt und erprobt. Der Beitrag beschreibt nach einer kurzen Skizzierung des Ambient-Intelligence-Ansatzes an Beispielen Möglichkeiten für den Transfer dieser neuen Technologie in den Raum- und Gebäudebereich. Es folgt eine abschließende Zusammenfaßung und eine Einschätzung der Zukunftspotenziale der Ambient Intelligence in Raum und Bau.
In this paper we evaluate 2D models for soil-water characteristic curve (SWCC), that incorporate the hysteretic nature of the relationship between volumetric water content Θ and suction Ψ. The models are based on nonlinear least squares estimation of the experimental data for sand. To estimate the dependent variable Θ the proposed models include two independent variables, suction and sensors reading position (depth d in the column test). The variable d represents not only the position where suction and water content are measured but also the initial suction distribution before each of the hydraulic loading test phases. Due to this the proposed 2D regression models acquire the advantage that they: (a) can be applied for prediction of Θ for any position along the column and (b) give the functional form for the scanning curves.
The quaternionic operator calculus can be applied very elegantly to solve many important boundary value problems arising in fluid dynamics and electrodynamics in an analytic way. In order to set up fully explicit solutions. In order to apply the quaternionic operator calculus to solve these types of boundary value problems fully explicitly, one has to evaluate two types of integral operators: the Teodorescu operator and the quaternionic Bergman projector. While the integral kernel of the Teodorescu transform is universal for all domains, the kernel function of the Bergman projector, called the Bergman kernel, depends on the geometry of the domain. Recently the theory of quaternionic holomorphic multiperiodic functions and automorphic forms provided new impulses to set up explicit representation formulas for large classes of hyperbolic polyhedron type domains. These include block shaped domains, wedge shaped domains (with or without additional rectangular restrictions) and circular symmetric finite and infinite cylinders as particular subcases. In this talk we want to give an overview over the recent developments in this direction.
Digital models of buildings are widely used in civil engineering. In these models, geometric information is used as leading information. Engineers are used to have geometric information, and, for instance, it is state of the art to specify a point by its three coordinates. However, the traditional approaches have disadvantages. Geometric information is over-determined. Thus, more geometric information is specified and stored than needed. In addition, engineers already deal with topological information. A denotation of objects in buildings is of topological nature. It has to be answered whether approaches where topological information becomes a leading role would be more efficient in civil engineering. This paper presents such an approach. Topological information is modelled independently of geometric information. It is used for denoting the objects of a building. Geometric information is associated to topological information so that geometric information “weights” a topology.
The concept presented in this paper has already been used in surveying existing buildings. Experiences in the use of this concept showed that the number of geometric information that is required for a complete specification of a building could be reduced by a factor up to 100. Further research will show how this concept can be used in planning processes.
DECENTRALIZED APPROACHES TO ADAPTIVE TRAFFIC CONTROL AND AN EXTENDED LEVEL OF SERVICE CONCEPT
(2006)
Traffic systems are highly complex multi-component systems suffering from instabilities and non-linear dynamics, including chaos. This is caused by the non-linearity of interactions, delays, and fluctuations, which can trigger phenomena such as stop-and-go waves, noise-induced breakdowns, or slower-is-faster effects. The recently upcoming information and communication technologies (ICT) promise new solutions leading from the classical, centralized control to decentralized approaches in the sense of collective (swarm) intelligence and ad hoc networks. An interesting application field is adaptive, self-organized traffic control in urban road networks. We present control principles that allow one to reach a self-organized synchronization of traffic lights. Furthermore, vehicles will become automatic traffic state detection, data management, and communication centers when forming ad hoc networks through inter-vehicle communication (IVC). We discuss the mechanisms and the efficiency of message propagation on freeways by short-range communication. Our main focus is on future adaptive cruise control systems (ACC), which will not only increase the comfort and safety of car passengers, but also enhance the stability of traffic flows and the capacity of the road (“traffic assistance”). We present an automated driving strategy that adapts the operation mode of an ACC system to the autonomously detected, local traffic situation. The impact on the traffic dynamics is investigated by means of a multi-lane microscopic traffic simulation. The simulation scenarios illustrate the efficiency of the proposed driving strategy. Already an ACC equipment level of 10% improves the traffic flow quality and reduces the travel times for the drivers drastically due to delaying or preventing a breakdown of the traffic flow. For the evaluation of the resulting traffic quality, we have recently developed an extended level of service concept (ELOS). We demonstrate our concept on the basis of travel times as the most important variable for a user-oriented quality of service.
This contribution will be freewheeling in the domain of signal, image and surface processing and touch briefly upon some topics that have been close to the heart of people in our research group. A lot of the research of the last 20 years in this domain that has been carried out world wide is dealing with multiresolution. Multiresolution allows to represent a function (in the broadest sense) at different levels of detail. This was not only applied in signals and images but also when solving all kinds of complex numerical problems. Since wavelets came into play in the 1980's, this idea was applied and generalized by many researchers. Therefore we use this as the central idea throughout this text. Wavelets, subdivision and hierarchical bases are the appropriate tools to obtain these multiresolution effects. We shall introduce some of the concepts in a rather informal way and show that the same concepts will work in one, two and three dimensions. The applications in the three cases are however quite different, and thus one wants to achieve very different goals when dealing with signals, images or surfaces. Because completeness in our treatment is impossible, we have chosen to describe two case studies after introducing some concepts in signal processing. These case studies are still the subject of current research. The first one attempts to solve a problem in image processing: how to approximate an edge in an image efficiently by subdivision. The method is based on normal offsets. The second case is the use of Powell-Sabin splines to give a smooth multiresolution representation of a surface. In this context we also illustrate the general method of construction of a spline wavelet basis using a lifting scheme.
Für das städtische Leben hat die Existenz sich verändernder Personenströme eine grundlegende Bedeutung.
Ein Werkzeug, das solche kollektiven Bewegungsmuster sichtbar machen kann, wäre dabei ein bedeutendes Hilfsmittel für die Stadtplanung. Im Mittelpunkt der vorliegenden Arbeit steht die Auseinandersetzung mit der Space Syntax Methode.
Diese untersucht den Zusammenhang räumlicher Strukturen mit deren Nutzung. Eine wichtige Erkenntnis ist, dass das kollektive menschliche Verhalten im öffentlichen Raum berechenbar ist. Die Tatsache, dass Passanten bestimmte Wege bevorzugen und andere meiden, führt Space Syntax dabei auf stadträumliche Ursachen zurück. Der Begriff des Natural Movement beschreibt den Anteil dieser räumlich bedingten Nutzung.
Die vorliegende Arbeit gliedert sich in einen theoretischen und einen praktischen Teil. Zunächst werden die für das Verständnis der Space Syntax Methode wichtigen Begriffe und Maßgrößen beschrieben. Der methodische Teil wird ergänzt durch eine Gegenüberstellung nutzer-basierter wissenschaftlicher Ansätze mit der räumlich-orientierten Space Syntax Methode.
Im zweiten Teil der Arbeit wird die praktische Anwendung der Space Syntax Methode am Beispiel des Leipziger City-Tunnels vorgenommen. Das Fallbeispiel ist prädestiniert für die Untersuchung, wie die regionale Vernetzung des Schienenverkehrs aktuell betrieben wird. Von Interesse ist dabei sowohl die Konzeption des zukünftigen Liniennetzes als auch dessen stadträumliche Einbindung.
Wolken
(2006)
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
The importance of modern simulation methods in the mechanical analysis of heterogeneous solids is presented in detail. Thereby the problem is noted that even for small bodies the required high-resolution analysis reaches the limits of today's computational power, in terms of memory demand as well as acceptable computational effort. A further problem is that frequently the accuracy of geometrical modelling of heterogeneous bodies is inadequate. The present work introduces a systematic combination and adaption of grid-based methods for achieving an essentially higher resolution in the numerical analysis of heterogeneous solids. Grid-based methods are as well primely suited for developing efficient and numerically stable algorithms for flexible geometrical modeling. A key aspect is the uniform data management for a grid, which can be utilized to reduce the effort and complexity of almost all concerned methods. A new finite element program, called Mulgrido, was just developed to realize this concept consistently and to test the proposed methods. Several disadvantages which generally result from grid discretizations are selectively corrected by modified methods. The present work is structured into a geometrical model, a mechanical model and a numerical model. The geometrical model includes digital image-based modeling and in particular several methods for the theory-based generation of inclusion-matrix models. Essential contributions refer to variable shape, size distribution, separation checks and placement procedures of inclusions. The mechanical model prepares the fundamentals of continuum mechanics, homogenization and damage modeling for the following numerical methods. The first topic of the numerical model introduces to a special version of B-spline finite elements. These finite elements are entirely variable in the order k of B-splines. For homogeneous bodies this means that the approximation quality can arbitrarily be scaled. In addition, the multiphase finite element concept in combination with transition zones along material interfaces yields a valuable solution for heterogeneous bodies. As the formulation is element-based, the storage of a global stiffness matrix is superseded such that the memory demand can essentially be reduced. This is possible in combination with iterative solver methods which represent the second topic of the numerical model. Here, the focus lies on multigrid methods where the number of required operations to solve a linear equation system only increases linearly with problem size. Moreover, for badly conditioned problems quite an essential improvement is achieved by preconditioning. The third part of the numerical model discusses certain aspects of damage simulation which are closely related to the proposed grid discretization. The strong efficiency of the linear analysis can be maintained for damage simulation. This is achieved by a damage-controlled sequentially linear iteration scheme. Finally a study on the effective material behavior of heterogeneous bodies is presented. Especially the influence of inclusion shapes is examined. By means of altogether more than one hundred thousand random geometrical arrangements, the effective material behavior is statistically analyzed and assessed.
Virtual studio technology plays an important role for modern television productions. Blue-screen matting is a common technique for integrating real actors or moderators into computer generated sceneries. Augmented reality offers the possibility to mix real and virtual in a more general context. This article proposes a new technological approach for combining real studio content with computergenerated information. Digital light projection allows a controlled spatial, temporal, chrominance and luminance modulation of illumination – opening new possibilities for TV studios.
The main hypothesis of this research is that civil society’s participation is able to improve the planning results in the Chinese city of Qingdao in the contemporary age. Qingdao is a young city developed from a German colony in eastern China. Apart from the powers of the government and the market, the 'third power', including mainly the power of volunteer citizens and the citizens’ organisations, also positively promoted the spatial development in Qingdao’s history. Since 1978’s reform, Qingdao’s great progress in urban housing, historic preservation, public space and urban traffic results mainly from the increasing strength of both the government and the market, while the government has always been the dominant promoter for urban construction. The actual planning mechanism – the government formulates 'what to do' itself and decides 'how to do it' with the market – has much limit in reacting to the rapidly changing situation, serving diversified social interests, and raising sufficient funds for the city’s urgent demands in Qingdao. Searching for new development strategies based on the understanding of civil society in the Chinese context can provide a promising perspective on the urban studies of Qingdao. Chinese civil society can be understood as the intermediate sphere of individuals, families, citizen’s organisations, social movements, public communication, and of the non-governmental body’s non-for-profit involvement for the provision of public services between the state and the market. China has its own cultural tradition of civil society, and the modern civil society in China is showing its great potential in improving social integration and urban life. The Chinese government has started to advocate for civil society’s participation in urban construction, and encouraging the 'bottom-up' mechanism in the planning-related issues through political statements and legislative approaches since the last two decades. The existing planning practice in China is able to demonstrate that civil society’s participation helps improve the quality of Chinese urban planning realistically under present conditions, and that moderation of planning experts and the push of the authority are the key factors for successfully integrating the strength of civil society in planning. However, the power of civil society is not yet sufficiently discovered in Qingdao’s planning. For better planning results, the city of Qingdao needs more initiatives to mobilize civil society in the planning practice, as well as more support to enrich the related studies. This thesis recommends that Qingdao establishes the 'Foundation for Collaborative Urban Solutions' through the joint efforts of the authority and civil initiatives, which aims at moderating and facilitating the strength of civil society. The suggested pilot projects include: a. The Community-based Housing Workshop for regenerating the living environment of the run-down communities, where the residents are willing to collaborate with the foundation with own efforts. b. The Heritage Preservation Workshop for suggesting an efficient supervision mechanism involving civil society which protects the historic heritage from being destroyed in the urban construction. c. The Public Space Forum for improving accessibility, quantity and ecologic function in the development of Qingdao’s urban public space with the knowledge and creativity of both the government and the citizens. d. The Mass Transport Forum for a realistic strategy for funding the rail-based traffic system in Qingdao through enabling the civil society - especially the individual citizens and their households to invest. The 'Foundation of Collaborative Urban Solutions' is able to improve Qingdao’s planning to cope with the urban problems the city are facing in its contemporary development, as well as to provide valuable reference for the further research of civil society’s participation in Chinese urban planning.
Moderne Büroarchitektur mit Räumen in Leichtbauweise und großen transparenten Fassa-denanteilen verschärft im Zusammenwirken mit hohen internen Lasten die Problematik der sommerlichen Überhitzung in Gebäuden. Phasenübergangsmaterialien (PCM: phase change materials) stellen eine interessante Möglichkeit dar, sommerliche Überhitzung in Gebäuden ohne aufwändige Anlagentechnik wie beispielsweise Klimaanlagen zu reduzieren. Der thermische Komfort in Räumen, die mit einem PCM-Putz ausgestattet sind, kann signifikant erhöht werden. Die Arbeit untersucht Anwendungsmöglichkeiten und Optimierungspotential eines PCM-Putzes auf experimentelle und numerische Weise. Zur Untersuchung des PCM-Putzes wurden materialtechnische und experimentelle sowie numerische und numerisch-analytische Methoden eingesetzt. Die Kenntnis der thermischen Parameter des PCM-Putzes ist unablässig für die Berechnung der möglichen Temperaturreduktionen. Zur Bestimmung der Latentwärme, des qualitativen Schmelz- und Erstarrungsprozesses sowie des Temperaturintervalls, in dem der Phasenübergang stattfindet, wurden Messungen mit einem Differential Scanning Calorimeter (DSC) durchgeführt. Für die experimentelle Untersuchung des PCM-Putzes wurden zwei identische Testräume in Leichtbauweise erstellt. Die Räume wurden im Verifikationsobjekt „Eiermannbau“ des Sonderforschungsbereiches SFB 524 der Bauhaus-Universität Weimar gemessen. Nach der Überprüfung, dass sich beide Räume thermisch gleich verhalten, wurde ein Raum mit dem PCM-Putz und der zweite Raum mit einem vergleichbaren Innenputz ohne PCM verputzt. Thermoelemente zur Temperaturmessung im Bauteil, an der Oberfläche und zur Raumlufttemperaturbestimmung wurden angebracht und mit einer Messwerterfassungsanlage verbunden. Der Verlauf der Außenlufttemperatur und die Globalstrahlung am Standort der Versuchsräume wurden aufgezeichnet, um einen Klimadatensatz zu erstellen. Für die Berechnung der Temperaturverteilung in einem PCM-Bauteil mit kontinuierlichem Phasenübergang existiert keine geschlossene analytische Lösung. Daher wurde ein numerischer Ansatz gewählt, bei dem der Phasenübergang im Temperaturbereich T1 bis T2 mit Hilfe einer temperaturabhängigen Wärmekapazität c(T) innerhalb der erweiterten Fou-rier’schen Wärmeleitungsgleichung dargestellt wird. Die Funktion c(T) wird auf Basis der DSC-Messungen bestimmt. Die Modellierung erfolgte mit einem Finite-Differenzen-Verfahren auf Grundlage der Fourier’schen Wärmeleitungsgleichung. Im Rahmen der Arbeit wurde ein PCM-Modul entwickelt, das in ein Gebäudesimulationsprogramm implementiert wurde. Mit dem neuen Modul lassen sich sowohl die Temperaturverläufe in einem PCM-Bauteil wie auch seine Wechselwirkung mit dem Raumklima darstellen. Eine Validierung des entwickelten PCM-Moduls anhand von zahlreichen experimentellen Daten der Versuchsräume wurde für das PCM-Modul erfolgreich durchgeführt. Sommerliche Überhitzungsstunden können durch PCM in Wand- und Deckenelementen deutlich reduziert werden. Der PCM-Putz eignet sich vor allem für Anwendungen in Leichtbauten wie z.B. moderne Büroräume. In Räumen, in denen bereits eine ausreichende thermische Masse vorhanden ist, ist die Temperaturreduktion durch PCM nur gering. Kann das PCM während der Nachtstunden nicht erstarren, erschöpft sich seine Fähigkeit zur Latentwärmespeicherung. Erhöhte Nachtlüftung führt bei entsprechend niedrigen Außentemperaturen zu höherem Wärmeübergang und kann damit zur besseren Entladung des PCM beitragen. Im Rahmen der Dissertation konnten Aussagen zur idealen Phasenübergangstemperatur in Abhängigkeit des verwendeten Materials und der Schichtdicke getroffen werden. Die Reduktion der Oberflächentemperaturen, die sich bei Einsatz eines PCM-Putzes unter geeigneten Randbedingungen ergibt, beträgt 2.0 - 3.5 K für eine Putzschicht von 1 cm und 3.0 - 5.0 K für eine Putzschicht von 3 cm. Diese Werte wurden sowohl numerisch als auch durch experimentelle Untersuchungen ermittelt. Die Reduktion der Lufttemperaturen aufgrund einer Konditionierung des Raumes mit PCM-Putz beträgt bei geeigneten thermischen Verhältnissen ca. 1.0 - 2.5 K für eine Putzschicht von 1 cm und 2.0 - 3.0 K für eine Putzschicht von 3 cm. Die operative Temperatur als wichtiger Komfortparameter kann durch den Einsatz des PCM-Putzes um bis zu 4 K gesenkt werden. Damit lässt sich mit Hilfe eines PCM-Putzes die thermische Behaglichkeit in einem Raum deutlich erhöhen.
Strategic Developments
(2006)
Die Instandhaltung der städtischen Trinkwassernetze ist Aufgabenschwerpunkt der Wasserversorgungsunternehmen bzw. Netzbetreiber. Dazu notwendige Rehabilitationsplanungen stützen sich zurzeit weitgehend auf die Trendprognose von Schadensraten und die Erfahrungen der Mitarbeiter. Der Einfluss wesentlicher Kenngrößen wie Werkstoffeigenschaften oder die Resttragfähigkeit des Rohres bleiben hierbei größtenteils unberücksichtigt. Über materialtechnische Untersuchungen werden die notwendigen Kenngrößen ermittelt, die eine zuverlässige Bewertung des technischen Zustands des Rohrstrangs ermöglichen. So lassen sich die Prognose der technischen Nutzungsdauer und Rehabilitationsplanungen auf eine solide Basis stellen. In dieser Dissertationsschrift wird hierzu ein Untersuchungs- und Bewertungsalgorithmus mit integrierten Prognoseverfahren erarbeitet.
Projector-based displays have been evolving tremendously in the last decade. Reduced costs and increasing capabilities have let to a widespread use for home entertainment and scientific visualization. The rapid development is continuing - techniques that allow seamless projection onto complex everyday environments such as textured walls, window curtains or bookshelfs have recently been proposed. Although cameras enable a completely automatic calibration of the systems, all previously described techniques rely on a precise mapping between projector and camera pixels. Global illumination effects such as reflections, refractions, scattering, dispersion etc. are completely ignored since only direct illumination is taken into account. We propose a novel method that applies the light transport matrix for performing an image-based radiometric compensation which accounts for all possible lighting effects. For practical application the matrix is decomposed into clusters of mutually influencing projector and camera pixels. The compensation is modeled as a linear equation system that can be solved separately for each cluster. For interactive compensation rates this model is adapted to enable an efficient implementation on programmable graphics hardware. Applying the light transport matrix's pseudo-inverse allows to separate the compensation into a computational expensive preprocessing step (computing the pseudo-inverse) and an on-line matrix-vector multiplication. The generalized mathematical foundation for radiometric compensation with projector-camera systems is validated with several experiments. We show that it is possible to project corrected imagery onto complex surfaces such as an inter-reflecting statuette and glass. The overall sharpness of defocused projections is increased as well. Using the proposed optimization for GPUs, real-time framerates are achieved.
Datenmodelle zur Bearbeitung von Ingenieuraufgaben am Beispiel von Wohnhäusern in Stahlbauweise
(2006)
Modelle bilden die Grundlage der Planung. Sie repräsentieren die zur Bearbeitung erforderlichen Eigenschaften eines Bauwerks in einer an die spezifische Aufgabe angepassten Form. Zwischen den verschiedenen zur Abbildung des Bauwerks eingesetzten Modellen bestehen fachliche Zusammenhänge bezüglich der darin abgebildeten Aspekte. Diese Abhängigkeiten werden in der praktischen Planungsbearbeitung gegenwärtig auf Grundlage von Erfahrungswerten, normativen Vorgaben und vereinfachenden Annahmen berücksichtigt. Die detailliertere Modellierung von Bauwerkseigenschaften führt zu einer engeren Verzahnung der verschiedenen Modelle. Um eine fachliche Inselbildung zu vermeiden, ist eine entsprechend angepasste Abbildung der zwischen den einzelnen Modellen bestehenden Beziehungen erforderlich. Mit den steigenden Ansprüchen an eine Bearbeitung von Ingenieuraufgaben gewinnt eine über den Zweck der Bereitstellung ausgewählter Informationen zum Bauwerk und der Unterstützung eines Datenaustauschs zwischen verschiedenen Fachplanern hinausgehende datentechnische Abbildung an Bedeutung. Dies setzt eine Diskussion der Anforderungen an eine solche Beschreibung aus fachlicher Sicht voraus. Die Untersuchung der fachlichen Anforderungen wird am Beispiel von Wohnhäusern in Stahlbauweise geführt.
Die Arbeit befasst sich mit der Anwendung faserverstärkter Kunststoffe für Tragwerke des Hochbaus. Es wird ein geschichtlicher Überblick über die Jahre 1950 bis 1980 gegeben und dabei herausgestellt, wie es 1. zur Einführung des bis 1950 unbekannten Werkstoffes im Bauwesen kommen konnte 2. welche Personen und Institute maßgeblich an der Einführung und Entwicklung des Bauens mit FVK beteiligt waren 3. welche Tragwerke verwendet wurden 4. wie die Pioniere diese Tragwerke bemaßen 5. welche konstruktiven Besonderheiten sich mit der Verwendung von FVK in der Tragstruktur ergaben Nach einer Einführung werden im Kapitel 2 die wichtigsten Faktoren der Entwicklung von Tragwerken aus GFK erörtert. Im Kapitel 3 wird die Technik der Fertigung von GFK-Teilen und deren Fügung beschrieben. Im Kapitel 4 werden die Tragwerke beschrieben und einzelne Tragwerkstypen eingehend erörtert. Im Kapitel 5 werden die Bemessungskonzepte und deren Entwicklung erörtert. In der Bilanz werden die Faktoren aufgezählt, die zum Abklingen des Bauens mit FVK in der Tragstruktur geführt haben. Die Arbeit wird ergänzt durch eine ca. 40-seitige Tabelle in der die gebauten Tragwerke in Abhängigkeit von den technischen Parametern Spannweiten und Lasten dargestellt werden. Im Anhang werden 10 exemplarische Bauten detailliert erörtert.
Eine zielführende Anwendung von Zusatzmitteln bei der Ausführung anspruchsvoller Betonbauten setzt einen hohen Kenntnisstand bezüglich der Wirkungsmechanismen und Interaktionen der einzelnen Betonkomponenten voraus. In der vorliegenden Arbeit wurden einige Aspekte der Zementhydratation in Abhängigkeit von der Fließmittelzugabe diskutiert. Im Ergebnis liefern die Teile eins und zwei der vorliegenden Arbeit einen Beitrag dazu, Veränderungen der Fließfähigkeit von Zementleim in Abhängigkeit der Zementhydratation und Fließmittelzugabe besser zu verstehen. Es konnte so z.B. gezeigt werden, dass Bildung langprismatischer Kristalle (z.B. Syngenit, Gips) die Fließfähigkeit von Zementleim und Beton vermindert. Infolge anhaltender Scherung von Zementleimen / Betonen mit langprismatischen Kristallen wird ein Zuwachs an Fließfähigkeit erzielt. Elektronenmikroskopische Untersuchungen zeigen, dass dies darauf zurückzuführen ist, dass die Kristalle in eine Vorzugsorientierung relativ zur Scherbewegung rotieren. Weiterhin wurde der Mechanismus einer so genannten Zement-Fließmittel-Inkompatibilität aufgezeigt. Durch diese Erweiterung des Kenntnisstandes zum Einfluss von Fließmitteln auf die Zementhydratation ist es möglich der Zement-Fließmittel-Inkompatibilität durch gezielte Auswahl des Zementes vorzubeugen. Dabei ist besonders darauf zu achten, dass der Zement ein ausgewogenes Verhältnis an zur Reaktion zur Verfügung stehendem C3A und Menge / Löslichkeit des Abbindereglers besitzt. Fließmittel verändern nicht nur die Verarbeitungseigenschaften sondern auch die Festigkeit und Dauerhaftigkeit von Zementstein und Beton. Im dritten Teil der vorliegenden Arbeit wird daher der Einfluss der Fließmittel und deren verflüssigender Wirkung auf die Festigkeitsentwicklung von Zementstein und C3S untersucht. Es konnte gezeigt werden, dass durch die dispergierende Wirkung der Fließmittel auch ohne Verminderung des Wasserzementwertes, eine Verdichtung des Zementsteingefüges erzielt werden kann. Es konnte weiterhin gezeigt werden, dass durch die Erhöhung der Partikelpackungsdichte am Anfang der Hydratation die Ausbildung der festigkeitsgebenden C-S-H Phasen verändert wird. Ein dichteres Verwachsen dieser nanostrukturierten C-S-H Phasen ermöglicht einen zusätzlichen Festigkeitszuwachs.
Zwischen Transformation und Globalisierung - Immobilienmarkt und Stadtentwicklung in Warschau
(2006)
Nach der politischen Wende Ende der 1980er/Anfang der 1990er Jahre entwickelte sich in Warschau innerhalb kurzer Zeit ein hoch dynamischer Immobilienmarkt kapitalistischer Prägung, dessen Mechanismen grundlegende Auswirkungen auf die Stadtentwicklung Warschaus haben. Im folgenden Aufsatz werden die wesentlichen Eigenschaften des Büro- und Wohnungsmarkts aufgezeigt. Es werden für jeden Sektor die Funktionsweise, die wesentlichen Akteure der Nachfrage- und Angebotsseite, die Rolle der Institutionen und die räumlichen Konsequenzen dargestellt.
Immer häufiger setzen Bund, Länder und Kommunen auf die Zusammenarbeit zwi-schen öffentlicher Hand und Privatwirtschaft. Insbesondere in den Bereichen Sport, Freizeit und Kultur sagen die kommunalen Entscheidungsträger dem Instrument PPP eine große Zukunft voraus. In der vorliegenden Diplomarbeit soll die Realisierbarkeit von PPP in einem regiona-len Bädernetzwerk untersucht werden. Da zu diesem Thema bisher keine Untersu-chung durchgeführt wurde, erfolgte einleitend in die Arbeit eine Marktübersicht, in der die geschichtliche Entwicklung des Badewesens, die heutigen Strukturen und Anforderungen an Bäder sowie eine Kategorisierung der Schwimmstätten nach An-zahl und Typus dargestellt werden. Im zweiten Kapitel wird ein Extrakt der derzeitigen und künftigen Marktgegebenhei-ten vorgenommen. Diesem liegt eine Marktabfrage nebst -auswertung zugrunde, welche bei privatrechtlich firmierten Bäderbetreibern recherchiert wurde. Im darauf folgenden dritten Kapitel werden Varianten für eine regionale Zusammen-arbeit dargelegt. Neben allgemeinen Ausführungen und individuellen Bestimmungen sind Voraussetzungen sowie Vor- und Nachteile der einzelnen Alternativen be-schrieben. Um den Leser mit dem Instrument PPP vertraut zu machen, gibt der vierte Teil eine Einführung in dieses Thema. Hierbei wird der Begriff PPP definiert, eine Abgrenzung des PPP-Inhabermodells, PPP-Konzessionsmodells und des PPP-Gesellschaftsmodells vorgenommen sowie Erläuterungen hinsichtlich rechtlicher und finanzieller Rahmenbedingungen gegeben. Abgeschlossen wird dieses Kapitel mit einer Auflistung der Vor- und Nachteile von PPP. Das fünfte Kapitel befasst sich mit der Gegenüberstellung der o.g. drei PPP-Vertragsmodelle. Vorrangig werden die Unterschiede im Risiko sowie finanzielle und rechtliche Differenzen herausgearbeitet. Betrachtet wird bspw. der Defizitausgleich, die Förderfähigkeit, das Vergabe- und Haushaltsrecht u. v. m. Die Umsetzbarkeit von PPP in einem regionalen Bädernetzwerk wird als vorletztes und damit sechstes Kapitel in dieser Diplomarbeit analysiert. Innerhalb dieses Kapi-tels werden positive Aussichten sowie Problemfelder aus der Sichtweise der Privat-wirtschaft und der öffentlichen Hand näher beleuchtet. Im siebten und abschließenden Kapitel wird ein Gesamtresümee die Arbeit abrun-den. Es kann bereits jetzt gesagt werden, dass ein Ergebnis, welches zu einer fina-len Aussage gelangt und bestimmten Projekten eine uneingeschränkte PPP-Eignung attestiert, nicht gegeben werden kann. Dafür ist jedes Projekt zu verschieden und bedarf einer individuellen Untersuchung.
Die Arbeit beinhaltet die Planungsgrundlage (Modellgesetze)und Herstellung (Modellbau) eines physikalischen Modells eines Flußabschnittes in den Grenzen seiner hydraulischen Wirkung. Ziel der Untersuchungen ist die Ertüchtigung derim Modell dargestellten Hochwasserschutzanlagen unter vorgegebenen Auflagen. Es werden Modelluntersuchungen durchgeführt, die zur Erfassung der Wasserstände bei verschiedenen Durchflüssen dienen. Die dafür eingesetzte Messtechnik wird dokumentiert. Die Messdaten werden hinsichtlich Messgenauigkeit und Messfehlerbehaftung untersucht, um die Ergebnisse im Vergleich mit einem numerischen Modell aufzubereiten.
Die Bauaufgaben der Zukunft liegen in der Auseinandersetzung mit bestehender Architektur. Die planerische Herausforderung besteht im Verzicht auf den Neubau durch die Umnutzung und den Umbau existenter Gebäude. Umnutzung und Umbau sind Werterhaltungsstrategien, die den Lebenszyklus eines Gebäudes als integralen Bestandteil der Planung betrachten und deren Ziel es ist, ungenutzte Bestandsgebäude durch keine oder wenige bauliche Eingriffe so zu verändern, dass sie einer Weiternutzung zugeführt werden können. Die Umnutzung unterliegt der Prämisse, dass an den Gebäuden keine baulichen Veränderungen vorgenommen werden, wohingegen der Umbau bauliche Eingriffe gestattet. Als Alternative zum Neubau ist der Erfolg beider Strategien entscheidend davon abhängig, dass der Architekt schon zu Beginn der Planung zu der Entscheidung gelangt, ob sich ein Gebäude unter Anwendung einer der beiden Strategien weiternutzen lässt. Diese Entscheidung wird vom Architekten in der Praxis durch einen Vergleich des Soll-Zustands (Raumprogramm) mit dem Ist-Zustand (Bestandsgrundriss) des Gebäudes getroffen. Die Analyse und Bewertung des Bestandes erfolgt in dieser frühen Phase der Planung in Form von Vorentwurfsskizzen, welche die organisatorischen oder baulichen Veränderungen der Gebäudegrundrisse im Falle einer Weiternutzung darstellen. In dieser Arbeit wird die Hypothese aufgestellt, dass der Vergleich des Raumprogramms mit dem Gebäudegrundriss im Wesentlichen eine kombinatorische Problemstellung darstellt. Unter dieser Annahme wird untersucht, ob durch den Einsatz von Optimierungsverfahren in der Grundrissplanung Lösungen für Umbau- und Umnutzungsaufgaben automatisiert erzeugt werden können. Ziel ist es, durch den computergestützten Einsatz dieser Verfahren zu plausiblen Planungslösungen, die dem Architekten als Grundlage für die weitere Bearbeitung der Planung dienen, zu gelangen.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Auf der Basis der Literaturrecherche wird in dieser Arbeit eine 5-lagige MAG-geschweißte Stumpfnaht an austenitisch-ferritischen Stahl X2CrNiMoN22-5-3 (Duplex-Stahl 1.4462) mit dem FE-Programm „SYSWELD®“ simuliert. Die Berech-nungen der Temperaturfelder werden unter der Berücksichtigung sowohl von tempe-raturunabhängigen als auch temperaturabhängigen thermophysikalischen Material-eigenschaften am drei-dimensionalen und zwei-dimensionalen Modell durchgeführt. Die berechneten Temperatur-Zeit-Verläufe und Gefügeumwandlungen beim MAG-Schweißen der Stumpfnaht werden hinsichtlich der Einflüsse und Veränderun-gen analysiert und die ermittelten Abkühlzeiten t12/8 werden für jede Schweißlage bewertet. Anschließend werden die Berechnungen des Eigenspannungszustandes für einzelne Schweißlagen untersucht.
Am beispiel der sich im Bau befindlichen U-Bahnstation 'Vijzelgracht' in Amsterdam werden beispielhaft Ablaufkonzepte untersucht und und durch Analyse ihrer Logik geprüft. Der Schwerpunkt der Untersuchung liegt in der Entwicklung von möglichen Konzepten der Kombination von Erdaushub mit der Montage von aussteifenden Elementen. Dazu werden die wesentlichen, relevanten Arbeitsschritte identifiziert und beschrieben. Auf der Basis von Aufwandswerten werden Maschinen und Geräte dimensioniert. Die Mengenermittlung des Erdstoffvolumens ist hierbei ebenso Grundlage für die Erarbeitung von Ablaufkonzepten. Auf diesen Grundlagen werden mehrere Ablaufkonzepte dargestellt. Der Nachweis der logischen Wahrheit erfolgt am Beispiel einer Ablaufvariante. Hier werden die in logische Sprache überführten Arbeitsschritte dargestellt und auf Wahrheit hin geprüft.
Recent radiometric compensation techniques make it possible to project images onto colored and textured surfaces. This is realized with projector-camera systems by scanning the projection surface on a per-pixel basis. With the captured information, a compensation image is calculated that neutralizes geometric distortions and color blending caused by the underlying surface. As a result, the brightness and the contrast of the input image is reduced compared to a conventional projection onto a white canvas. If the input image is not manipulated in its intensities, the compensation image can contain values that are outside the dynamic range of the projector. They will lead to clipping errors and to visible artifacts on the surface. In this article, we present a novel algorithm that dynamically adjusts the content of the input images before radiometric compensation is carried out. This reduces the perceived visual artifacts while simultaneously preserving a maximum of luminance and contrast. The algorithm is implemented entirely on the GPU and is the first of its kind to run in real-time.
Für die Optimierung eines bereits bestehenden Prozesses, z.B. im Hinblick auf den maximal möglichen Durchsatz bei gleich bleibender Qualität der Pyrolyseprodukte oder für die Einstellung der Betriebsparameter bei einem unbekannten Einsatzstoff, kann ein mathematisches Modell eine erste Abschätzung für die Einstellung betrieblicher Parameter, wie z.B. Temperaturprofile im Gas und Feststoff, geben. Darüber hinaus kann man mit einem Modell für neu zu konzipierende Anlagen konstruktive Parameter ermitteln oder überprüfen. In dem hier dargestellten vereinfachten Modellansatz werden u. a. die Umsatzvorgänge für ein Partikelkollektiv mit Hilfe von Summenparametern aus Untersuchungen an einer Thermowaage und ergänzend im Drehrohr ermittelt. Das Prozessmodell basiert auf einem Reaktormodell, das das Verweilzeitverhalten des Einsatzstoffes im Reaktor beschreibt und einem Basismodell, bestehend aus Massen- und Energiebilanzen für Solid und Gas sowie Ansätzen zur Trocknung und zum Umsatz. Im Hinblick auf die Verfügbarkeit von stoffspezifischen Daten von Abfällen sind insbesondere zur Berechnung des Verweilzeitverhaltens und des Umsatzes im Heißbetrieb vereinfachende Ansätze durch die Bildung von Summenparametern hilfreich. Das Prozessmodell wurde schrittweise validiert: Zunächst wurde in Kaltversuchen ein Summenparameter, der u.a. die unbekannten Reibungsverhältnisse im Drehrohr berücksichtigt, durch Vergleich von Experiment und Rechnung für Sand ermittelt. Für heterogene Abfallgemische kann dieser Materialfaktor zwar für Kaltversuche bestimmt werden (soweit dies für Abfälle möglich ist), im Heißbetrieb ändern sich jedoch alle wesentlichen Stoffparameter wie Partikeldurchmesser, Schüttdichte und Schüttwinkel sowie die Reibungsverhältnisse. Für diesen Fall wird der Materialfaktor zu Eins gesetzt und die wesentlichen Stoffgrößen umsatzabhängig modelliert. Dazu ist die Kenntnis der Schüttdichten, statischen Schüttwinkel und mittleren Partikeldurchmesser vom Abfall und Koks aus dem Abfall notwendig. Die mit diesen Stoffdaten berechnete Verweilzeit wurde in einem Heißversuch bei der Pyrolyse von Brennstoff aus Müll- (BRAM) Pellets mit einem Fehler von ca. 20 % erreicht. Das Basismodell wurde zunächst ohne Umsatz an Messergebnisse mit Sand im Drehrohr unter Variation von Temperaturen und Massenstrom angepasst bevor mit diesem Modell die Pyrolyse von einem homogenen Einsatzstoff (Polyethylen mit Sand) im Drehrohr berechnet wurde. Hier konnte bereits gezeigt werden, dass mit diesem vereinfachten Modellansatz gute Ergebnisse beim Vergleich von Modell und Experiment erzielt werden können. Im nächsten Schritt wurde der Sand angefeuchtet, um die Teilmodelle der Trocknung unterhalb und bei Siedetemperatur zu validieren. Die Mess- und Modellierungsergebnisse stimmen gut miteinander überein. Für ein Abfallgemisch aus BRAM-Pellets konnte der Verlauf der Solidtemperaturen unter der Berücksichtigung variabler Stoffwerte des Solids und eines Verschmutzungsfaktors, der den Belag des Drehrohres mit anklebendem Pellets bis zur Verkokung berücksichtigt, gut wiedergegeben werden. Die Gastemperaturen können in erster Näherung ausreichend genau durch das mathematische Modell beschrieben werden. Mit diesem vereinfachten mathematischen Modellansatz steht nun ein Hilfsmittel zur Auslegung und Optimierung von indirekt beheizten Drehrohren zur Verfügung, um bei einem neuen Einsatzstoff mit Daten aus experimentellen Basisuntersuchungen, die Temperaturverläufe im Feststoff und Gas sowie die Gaszusammensetzung in Abhängigkeit der wesentlichen Einflussgrößen abzuschätzen.
In the history of 'villages' in Shenzhen, rich traditional cultural resources that are directly related to the folk life in urban corporate community still exist today, synchronously agricultural economy of urban corporate community is transformed into joint-stock economy, and natural villages are transformed into 'heterogeneous' space of city. The most significant fact in the modern social transition is that modern societies have surpassed traditional societies, and cities have surpassed the country. Weber, Durkheim, Tönnies, Simmel and others devoted themselves to cultivating the essence of social transition. The most influential theory to observe and analyze it is the two-tiered approach of ideal type. Tönnies made distinction between 'Gemeinschaft and Gesellschaft', Durkheim distinguished 'mechanical solidarity and organic solidarity', and Redfield analyzed 'folk society and urban society'. In those classical theories, the former transit to the later is considered to be a general rule of transition from traditional society to modern society, and from traditional community to modern community. However, ever since Redfield used the dependent relationship and interactive framework of 'great tradition' and 'little tradition' to explain various complicated phenomena in the transition from tradition to modern in 1950s, he suggested that a folk-urban continuum can be formed in the transition from folk society to urban society. 'Both terms, ‘city’ and ‘country’, are not and have never been limited or restricted to their obvious denotations: ‘city’ is not and has never been only urban. As a category it always encompasses (includes, embodies, embraces) itself and its opposite, the country' (Hassenpflug 2002, 46). Generally, social groups and culture characterized by weak 'potential' will take their own 'little tradition' as 'bridge' and agency, in order to enter or melt themselves into a 'great tradition' that embodies great 'potential' to seek for space to live and develop. There are many different types of transitions that villagers enter and get melt into 'great tradition' through their individual 'little tradition'. There are exploration and development of traditional resources in 'segmentation', such as the frequent relation between a great flow of peasants to cities and the network of kinship, and of earthbound relations; alternatively, there are assistances and utilization of resources of a whole corporate network, such as the traditional corporate community’s organization of local resources during the process of non-agriculturization of villages; and 'villages' in Shenzhen is of the latter situation. The following conclusion can be made based on the above analyses: urban corporate community formed in the process of non-agricultural development and urbanization is an organizing dependency on which villagers melt into city and adapt to urban life. The unique inner-structure and function determine that comparing with other organizations, it has a better performance, efficiency and more humanity care. Firstly, corporate community which is re-organized in the non-agricultural process currently is the only and the most effective organizational resources that can be utilized and has significant meanings in protecting villagers’ interest and benefit; secondly, in the short term, other approaches do not have the advantage and the effect as urban corporate community has on the focusing degree of public affairs in the comprehensive urbanization process; thirdly, the 'new' key connotation of urban corporate community, including its community management functions, is the main reason for which such community has the rationality of being; fourthly, urban corporate community will inevitably face many problems in the urbanization due to its inner fixed characteristics (lack of external support), but to a certain degree it has the ability to self-repair and problem solving under the precondition that, the government and society have a fair, impersonal view of 'villages', and base on this view providing multi-supports, especially providing rational system arrangement and policy supports. Consequently, in order to preserve and protect social system and cultural heritage within the 'villages', and gradually make the coordinative development of 'great tradition' represented by cities and of 'little tradition' represented by 'villages', 'soft reconstruction' rather than 'hard reconstruction' should be adopted by the government, during the recent reconstruction of 'villages' in Shenzhen.
We propose a novel method that applies the light transport matrix for performing an image-based radiometric compensation which accounts for all possible types of light modulation. For practical application the matrix is decomposed into clusters of mutually influencing projector and camera pixels. The compensation is modeled as a linear system that can be solved with respect to the projector patterns. Precomputing the inverse light transport in combination with an efficient implementation on the GPU makes interactive compensation rates possible. Our generalized method unifies existing approaches that address individual problems. Based on examples, we show that it is possible to project corrected images onto complex surfaces such as an inter-reflecting statuette, glossy wallpaper, or through highly-refractive glass. Furthermore, we illustrate that a side-effect of our approach is an increase in the overall sharpness of defocused projections.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
Die Diplomarbeit leistet einen Betrag zur numerischen Untersuchung des Verzuges eines Feinkornbaustahles beim MAG-Schweißen. Ziel dabei war es, Informationen zu dem schweißbedingten Verzug beeinflussenden Größen zusammenzustellen, Angaben zu möglichen Berechnungsformeln des an einer T-Stoßverbindung durch das Schweißen entstehenden Winkelverzuges des Gurtes zu recherchieren und die Grundlagen für eine Verzugsberechnung mit Hilfe der Finite-Element-Methode darzustellen. Das Hauptinteresse lag dabei jedoch auf den durch das Schweißen von Kehlnähten entstehenden Winkelverzuges des Gurtes an T-Stoßverbindungen. Dieser wurde mit Hilfe numerischer Berechnungen untersucht. Dabei wurden die Einflüsse, welche geometrischen, werkstofflichen oder verfahrensbedingten Ursprungs seien können, betrachtet.
Die Fachtagung richtete sich an Geschäftsführer, Projektleiter, Bauleiter und Projektsteuerer in Planung und Ausführung mit Beiträgen zum Nachtrags- und Änderungsmanagement am Bau, Workflow-Management in der Baupraxis, Integration von Informationsprozessen auf der Basis von Nemetschek Technologien sowie Kompetenzaufbau durch gezielte Weiterbildung.
For efficient distant cooperation the members of workgroups need information about each other. This need for information disclosure often conflicts with the users' wishes for privacy. In the literature often reciprocity is suggested as a solution to this trade-off. Yet, this conception of reciprocity and its enforcement by systems does not match reality. In this paper we present our study's major findings investigating the role of reciprocity among which we found that participants greatly disregarded the above conception. Additionally we discuss their significant implications for the design of systems seeking to disclose personal information.
Early sensor-based infrastructures were often developed by experts with a thorough knowledge of base technology for sensing information, for processing the captured data, and for adapting the system’s behaviour accordingly. In this paper we argue that also end-users should be able to configure Ubiquitous Computing environments. We introduce the CollaborationBus application: a graphical editor that provides abstractions from base technology and thereby allows multifarious users to configure Ubiquitous Computing environments. By composing pipelines users can easily specify the information flows from selected sensors via optional filters for processing the sensor data to actuators changing the system behaviour according to the users’ wishes. Users can compose pipelines for both home and work environments. An integrated sharing mechanism allows them to share their own compositions, and to reuse and build upon others’ compositions. Real-time visualisations help them understand how the information flows through their pipelines. In this paper we present the concept, implementation, and early user feedback of the CollaborationBus application.
In today’s information society the vast technical progress and the sinking cost of information and communication technology provide new opportunities for information supply, and new technical support for communication and cooperation over distance. These trends also entail challenges such as supplying information that is adequate for a particular person in a specific situation as well as managing communication among geographically distributed parties efficiently. Context-aware systems that use sensors in order to analyse their environment and to adapt their behaviour. Yet, adequate tools for developing sensor-based infrastructures are missing. We have designed and developed Sens-ation, an open and generic service-oriented platform, which provides powerful, yet easy-to-use, tools to software developers who want to develop context-aware, sensor-based infrastructures. The service-oriented paradigm of Sens-ation enables standardised communication within individual infrastructures, between infrastructures and their sensors, but also among distributed infrastructures. On a whole, Sens-ation facilitates the development allowing developers to concentrate on the semantics of their infrastructures, and to develop innovative concepts and implementations of context-aware systems.