Refine
Document Type
- Conference Proceeding (336)
- Article (130)
- Doctoral Thesis (12)
- Master's Thesis (2)
- Working Paper (2)
- Preprint (1)
- Study Thesis (1)
Institute
- Professur Informatik im Bauwesen (484) (remove)
Keywords
- Modellierung (62)
- Bauwerk (48)
- Finite-Elemente-Methode (41)
- CAD (40)
- Verteiltes System (38)
- Bautechnik (30)
- Computerunterstütztes Verfahren (24)
- Produktmodell (24)
- Architektur (23)
- Simulation (22)
The presented work focuses on the presentation of a discrete event simulator which can be used for automated sequencing and optimization of building processes. The sequencing is based on the commonly used component–activity–resource relations taking structural and process constraints into account. For the optimization a genetic algorithm approach was developed, implemented and successfully applied to several real life steel constructions. In this contribution we discuss the application of the discrete event simulator including its optimization capabilities on a 4D process model of a steel structure of an automobile recycling facility.
The theory of random matrices, or random matrix theory, RMT in what follows, has been developed at the beginning of the fties to describe the sta- tistical properties of energy levels of complex quantum systems, [1], [2], [3]. In the early eighties it has enjoyed renewed interest since it has been recognized as a very useful tool in the study of numerous physical systems. Specically, it is very useful in the analysis of chaotic quantum systems. In fact, in the last years many papers appeared about the problem of quantum chaos which implies the quantization of systems whose underlying classical dynamics is irregular (i.e. chaotic). The simplest models considered in this eld are billi- ards of various shapes. From the the classical point of view, a point particle in a 2-dimensional billiard displays regular or irregular motion depending on the shape of the billiard; for instance motion in a rectangular or circular billi- ard is regular thanks to the symmetries of the boundary. On the other hand, billiards of arbitrary shapes imply chaotic motion, i.e. exponential diver- gence of initially nearby trajectories. In order to study quantum billiards we have to consider the Schroedinger equation in various 2-dimensional domains. The eigenvalues of the Schroedinger equation represent the allowed energy levels of our quantum particle in the billiard under consideration, while the eigenfunction norms represent the probability density of nding the particle in a certain position. The question of quantum chaos is whether the charac- ter of the classical motion (regular or chaotic) can in uence some properties
The subject of this talk is the problem of surface design based upon a mesh that may contain both triangular and quadrangular domains. We investigate the cases when such a combined mesh occurs more preferable for bivariate data interpolation than a pure triangulation. First we describe a modification of the well-known flipping algorithm that constructs a locally optimal combined mesh with a predefined quality criterion. Then we introduce two quality measures for triangular and quadrangular domains and present the results of a computational experiment that compares integral interpolation errors and errors in gradients caused by the piecewise surface models produced by the flipping algorithm with the introduced quality measures. The experiment shows that triangular meshes with the Delaunay quality measure provide better interpolation accuracy only if the interpolated function is strictly convex, as well as a saddle-shaped function is better interpolated by bilinear patches within a combined mesh. For a randomly shaped function combined meshes demonstrate smaller error values and better stability in compare with pure triangulations. At the end we consider other resources for mesh improvement, such as excluding >bad< points from the input set for the mesh generating procedure. Because the function values at these points should not be lost, some linear or bilinear patches are replaced by nonlinear patches that pass through the excluded points.
Individual views on a building product of people involved in the design process imply different models for planning and calculation. In order to interpret these geometrical, topological and semantical data of a building model we identify a structural component graph, a graph of room faces, a room graph and a relational object graph as aids and we explain algorithms to derive these relations. The application of the technique presented is demonstrated by the analysis and discretization of a sample model in the scope of building energy simulation.
The worldwide growth of communication networks and associated technologies provide the basic infrastructure for new ways of executing the engineering process. Collaboration amongst team members seperated in time and location is of particular importance. Two broad themes can be recognized in research pertaining to distributed collaboration. One theme focusses on the technical and technological aspects of distributed work, while the other emphasises human aspects thereof. The case of finite element structural analysis in a distributed collaboratory is examined in this paper. An approach is taken which has its roots in human aspects of the structural analysis task. Based on experience of how structural engineers currently approach and execute this task while utilising standard software designed for use on local workstations only, criteria are stated for a software architechture that could support collaborative structural analysis. Aspects of a pilot application and the results of qualitative performance measurements are discussed.
A lot of real-life problems lead frequently to the solution of a complicated (large scale, multicriteria, unstable, nonsmooth etc.) nonlinear optimization problem. In order to cope with large scale problems and to develop many optimum plans a hiearchical approach to problem solving may be useful. The idea of hierarchical decision making is to reduce the overall complex problem into smaller and simpler approximate problems (subproblems) which may thereupon treated independently. One way to break a problem into smaller subproblems is the use of decomposition-coordination schemes. For finding proper values for coordination parameters in convex programming some rapidly convergent iterative methods are developed, their convergence properties and computational aspects are examined. Problems of their global implementation and polyalgorithmic approach are discussed as well.
Methods with the convergence order p 2 (Newton`s, tangent hyperbolas, tangent parabolas etc.) and their approximate variants are studied. Conditions are presented under which the approximate variants preserve their convergence rate intrinsic to these methods and some computational aspects (possibilities to organize parallel computation, globalization of a method, the solution of the linear equations versus the matrix inversion at every iteration etc.) are discussed. Polyalgorithmic computational schemes (hybrid methods) combining the best features of various methods are developed and possibilities of their application to numerical solution of two-point boundary-value problem in ordinary differential equations and decomposition-coordination problem in convex programming are analyzed.
In der vorliegenden Arbeit werden dickwandige Schalentragwerke unter statischen Belastungen betrachtet. Die Schale besteht aus verschiedenen Zonen und in jeder Zone wird die Schalenmittelflaeche mittels eines eigenen Geometriegleichungssystems definiert. Das Verzerrungsfeld hat allen 6 unabhaengigen Komponenten unter der Annahme, dass die Querschnittsfasern, die normal zu der Mittelflaeche der unbelasteten Schale sind, geradelinig bleiben. Ein dreidimensionales isoparametrisches finites Element wird vorgeschlagen. Die Berechnung wird mit der Hilfe der Makroelemententechnik durchgefuehrt. In der Arbeit werden die wesentliche Parameter der Schalengeometrie, sowie auch entsprechendes Anteil von Klassen des konstruktiven Modells, definiert. Ein konstruktives Informationsmodell und ein FEM-Informationsmodell, werden entwickelt. Die Informationsverbindungen zwischen den beiden Modellen werden definiert. Diese objektorientierten Modelle werden in Programmiersprache Microsoft Visual C++ v.4.0 unter Windows 95 implementiert. Als numerisches Beispiel wird ein Bogenmauertragwerk betrachtet.
Im Rahmen des sich derzeit vollziehenden Wandels von der segmentierten, zeichnungsorientierten zur integrierten, modellbasierten Arbeitsweise bei der Planung von Bauwerken und ihrer Erstellung werden Computermodelle nicht mehr nur für die physikalische Simulation des Bauwerksverhaltens, sondern auch zur Koordination zwischen den einzelnen Planungsdisziplinen und Projektbeteiligten genutzt. Die gemeinsame Erstellung und Nutzung dieses Modells zur virtuellen Abbildung des Bauwerks und seiner Erstellungsprozesse, das sog. Building Information Modeling (BIM), ist dabei zentraler Bestandteil der Planung. Die Integration der Terminplanung in diese Arbeitsweise erfolgt bisher jedoch nur unzureichend, meist lediglich in der Form einer nachgelagerten 4D-Simulation zur Kommunikation der Planungsergebnisse. Sie weist damit im Verhältnis zum entstehenden Zusatzaufwand einen zu geringen Nutzen für den Terminplaner auf. Gegenstand der vorliegenden Arbeit ist die tiefere Einbettung der Terminplanung in die modellbasierte Arbeitsweise. Auf Basis einer umfassende Analyse der Rahmenbedingungen und des Informationsbedarfs der Terminplanung werden Konzepte zur effizienten Wiederverwendung von im Modell gespeicherten Daten mit Hilfe einer Verknüpfungssprache, zum umfassenden Datenaustausch auf Basis der Industry Foundation Classes (IFC) und für das Änderungsmanagement mittels einer Versionierung auf Objektebene entwickelt.Die für die modellbasierte Terminplanung relevanten Daten und ihre Beziehungen zueinander werden dabei formal beschrieben sowie die Kompatibilität ihrer Granularität durch eine Funktionalität zur Objektteilung sichergestellt. Zur zielgenauen Extraktion von Daten werden zudem Algorithmen für räumliche Anfragen entwickelt. Die vorgestellten Konzepte und ihre Anwendbarkeit werden mittels einer umfangreichen Pilotimplementierung anhand von mehreren Praxisbeispielen demonstriert und somit deren praktische Relevanz und Nutzen nachgewiesen.
The purpose of this research is to develop the method to retrieve a building name from the impression of the building. First, the images of the building are registered as database by the questionnaire. Next, the images of the objective building are compared with the degree of matching in image databases, and the building with high synthetic matching degree is retrieved. This system could get a good retrieval result. Moreover, image processing was done, and image databases are trained by neural network from the amount of characteristics of the image, and the retrieval system by image processing was examined.
An important feature of the 2003 SARS outbreak in Canada, Singapore, and Hong Kong was that many health care workers (HCWs) developed SARS after caring for patients with SARS. This has been ascribed to inadequate or ineffective patient isolation. However, it is difficult for dense cities to provide sufficient isolation facilities within a short period of time. This has raised concerns from the public for new strategies in the planning and design of isolation facilities. Considering that SARS or other infectious diseases could seriously damage our society’s development, isolation facilities that could be rapidly and economically constructed with appropriate environmental controls are essential. For this reason, the design team of the Department of Architecture collaborated with a special task force from the Faculty of Medicine, who are the frontline medical officers treating the SARS patients, to design Rapidly Assembled Isolation Patient Wards. Both architecture and medicine are well established disciplines, but they have little in common in terms of the mode of knowledge construction and practice. This induced much intellectual exploration and research interest in conducting this study. The process has provided an important reference for cross disciplinary studies between the architectural and medical domains.
Complex gridshell structures used in architecturally ambitious constructions remain as appealing as ever in the public realm. This paper describes the theory and approach behind the software realisation of a tool which helps in finding the affine self-weight geometry of gridshell structures. The software tool DOMEdesign supports the formal design process of lattice and grid shell structures based upon the laws of physics. The computer-aided simulation of suspension models is used to derive structurally favourable forms for domes and arches subject to compression load, based upon the input of simple architectonic parameters. Irregular plans, three-dimensional topography, a choice different kinds of shell lattice structures and the desired height of the dome are examples of design parameters which can be used to modify the architectural design. The provision of data export formats for structural dimensioning and visualisation software enables engineers and planners to use the data in future planning and to communicate the design to the client.
In the abstract proposed is the Instrumental System of mechanics problems analysis of the deformed solid body. It supplies the researcher with the possibility to describe the input data on the object under analyses and the problem scheme based upon the variational principles within one task. The particular feature of System is possibility to describe the information concerning the object of any geometrical shape and the computation sheme according to the program defined for purpose. The Methods allow to compute the tasks with indefinite functional and indefinite geometry of the object (or the set of objects). The System provides the possibility to compute the tasks with indefinite sheme based upon the Finite Element Method (FEM). The restrictions of the System usage are therefore determined by the restrictions of the FEM itself. It contrast to other known programms using FEM (ANSYS, LS-DYNA and etc) described system possesses more universality in defining input data and choosing computational scheme. Builtin is an original Subsytem of Numerical Result Analuses. It possesses the possibility to visualise all numerical results, build the epures of the unknown variables, etc. The Subsystem is approved while solving two- and three-dimensional problems of Elasticiti and Plasticity, under the conditions of Geometrical Unlinearity. Discused are Contact Problems of Statics and Dynamics.
Die digitale Unterstützung der Planungsprozesse ist ein aktueller Forschungs- und Arbeitsschwerpunkt der Professur Informatik in der Architektur (InfAR) und der Juniorprofessur Architekturinformatik der Fakultät Architektur an der Bauhaus-Universität Weimar. Verankert in dem DFG Sonderforschungsbereich 524 >Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken< entstehen Konzepte und Prototypen für eine fachlich orientierte Planungsunterstützung. Als ein Teilaspekt wird in diesem Beitrag die Vision eines mitwachsenden Geometriemodells für das computergestützte Bauaufmaß gezeigt, welches den Aufnehmenden von der Erstbegehung an begleitet. Die bei jeder Phase der Bauaufnahme gewonnenen Geometrieinformationen sollen in den anschließenden Phasen wiederverwendet, konkretisiert bzw. korrigiert werden. Aufmaßtechniken und Geometriemodell sind dabei eng gekoppelt. Verschiedene Sichten auf ein gemeinsames Geometriemodell haben zum Ziel, den Nutzer die Vorteile planarer Abbildungen nutzen zu lassen, ohne die dreidimensionale Übersicht zu verlieren oder entsprechende räumliche Manipulationen zu missen. Das Geometriemodell ist dabei in ein dynamisches Bauwerksmodell eingebettet. Der folgende Beitrag bezieht sich auf die Bauaufnahme mit folgenden Vorgaben: - die Bauaufnahme dient der Vorbereitung der Bauplanung im Bestand - es wird nur eine Genauigkeitsstufe (im Bereich von +/- 10 cm) unterstützt - die Geometrieabbildung des aufzunehmenden Bauwerkes beruht ausschließlich auf ebenen Oberflächen
The paper describes a concept for the step-by-step computer-aided capture and representation of geometric building data in the context of planning-oriented building surveying. Selected aspects of the concept have been implemented and tested as prototypes. The process of step-by-step capture and representation is determined by the order in which the user experiences the building. Only the information that the user knows (can see) or can reasonably deduce is represented. In addition approaches to the flexible combination of different measuring techniques and geometric abstractions are described which are based upon geodetic computational adjustment.
Die Planung komplexer Bauwerke erfolgt zunehmend mit rechnergestützten Planungswerkzeugen, die den Export von Bauwerksinformationen im STEP-Format auf Grundlage der Industry Foundation Classes (IFC) ermöglichen. Durch die Verfügbarkeit dieser Schnittstelle ist es möglich, Bauwerksinformationen für eine weiterführende applikationsübergreifende Verarbeitung bereitzustellen. Ein großer Teil der bereitgestellten Informationen bezieht sich auf die geometrische Beschreibung der einzelnen Bauteile. Um den am Bauprozess Beteiligten eine optimale Auswertung und Analyse der Bauwerksinformationen zu ermöglichen, ist deren Visualisierung unumgänglich. Das IFC-Modell stellt diese Daten mit Hilfe verschiedener Geometriemodelle bereit. Der vorliegende Beitrag beschreibt die Visualisierung von IFC-Objekten mittels Java3D. Er beschränkt sich dabei auf die Darstellung von Objekten, deren Geometrie mittels Boundary Representation (Brep) oder Surface-Model-Repräsentation beschrieben wird.
Die Planung von komplexen Bauwerken erfolgt zunehmend mit Planungswerkzeugen, die den Export von Bauwerksinformationen im STEP-Format auf Grundlage der IFC (Industry Foundation Classes) erlauben. Durch die Verfügbarkeit dieser Schnittstelle ist es möglich, Bauwerksinformationen für die weiterführende Verarbeitung zu verwenden. Zur Visualisierung der geometrischen Daten stehen innerhalb der IFC verschiedene geometrische Modelle für die Darstellung von Bauteilen zur Verfügung. Unter anderem werden für das „Ausschneiden“ von Öffnungen aus Bauteilen (z.B. für Fenster und Türen) geometrische boolesche Operationen benötigt.
Gegenstand des Beitrags ist die Vorstellung eines Algorithmus zur Berechnung von booleschen Operationen auf Basis eines triangulierten B-Rep (Boundary Representation) Modells nach HUBBARD (1990). Da innerhalb von IFC-Gebäudemodellen Bauteile oft das Resultat mehrerer boolescher Operationen sind (z.B. um mehrere Fensteröffnungen von einer gegebenen Wand abzuziehen), wurde der Algorithmus von Hubbard angepasst, sodass mehrere boolesche Operationen gleichzeitig berechnet werden können. Durch diese Optimierung wird eine deutliche Reduzierung der benötigten Berechnungen und somit der Rechenzeit erreicht.
Complex buildings and other structures are cumulatively planned with software that supports the export of building information in the STEP-format on the basis of the IFC (Industry Foundation Classes). Because of the availability of this interface, it is possible to use the data of a building for further processing.
Within the IFC, several geometrical models for the visualization of building elements are provided. Among others, geometric Boolean set operations are needed to "subtract" openings from building elements (e.g. for windows or doors) - CSG (Constructive Solid Geometry).
Therefore, software components based on the algorithms [Laidlaw86] and [Hubbard90] were developed at the professorship Informatik im Bauwesen that support these functionalities on the basis of Java3D. However, it turned out in praxis, that these components are numerically instable and that there is no acceptable robustness or tolerance of errors. This is caused by mistakes in the implementation (bugs) as well as the insufficient handling of numerical inaccuracies. Further, a verification and, where applicable, a correction of qualitative substandard initial data is missing.
Prior to this student research project, the implementation of a self-contained application for a visual error control was initiated. This tool visualizes several program steps and their corresponding data. With use of this tool, the implemented algorithms can be analyzed in detail.
The papers [Laidlaw86] and [Hubbard90] are unsatisfactory describing some essential steps of the algorithm as well as implementation details to execute Boolean set operations on the basis of a B-rep (Boundary Representation) model. Hence, the algorithm should be documented comprehensible with the help of figures and pseudo code. Moreover, problems within the existing implementation shall be identified and possible solution strategies shall be provided.
Der inhaltlichen Qualitätssicherung von Bauwerksinformationsmodellen (BIM) kommt im Zuge einer stetig wachsenden Nutzung der verwendeten BIM für unterschiedliche Anwen-dungsfälle eine große Bedeutung zu. Diese ist für jede am Datenaustausch beteiligte Software dem Projektziel entsprechend durchzuführen. Mit den Industry Foundation Classes (IFC) steht ein etabliertes Format für die Beschreibung und den Austausch eines solchen Modells zur Verfügung. Für den Prozess der Qualitätssicherung wird eine serverbasierte Testumgebung Bestandteil des neuen Zertifizierungsverfahrens der IFC sein. Zu diesem Zweck wurde durch das „iabi - Institut für angewandte Bauinformatik” in Zusammenarbeit mit „buildingSMART e.V.“ (http://www.buildingsmart.de) ein Global Testing Documentation Server (GTDS) implementiert. Der GTDS ist eine, auf einer Datenbank basierte, Web-Applikation, die folgende Intentionen verfolgt:
• Bereitstellung eines Werkzeugs für das qualitative Testen IFC-basierter Modelle
• Unterstützung der Kommunikation zwischen IFC Entwicklern und Anwendern
• Dokumentation der Qualität von IFC-basierten Softwareanwendungen
• Bereitstellung einer Plattform für die Zertifizierung von IFC Anwendungen
Gegenstand der Arbeit ist die Planung und exemplarische Umsetzung eines Werkzeugs zur interaktiven Visualisierung von Qualitätsdefiziten, die vom GTDS im Modell erkannt wurden. Die exemplarische Umsetzung soll dabei aufbauend auf den OPEN IFC TOOLS (http://www.openifctools.org) erfolgen.
Vom Bauwerksinformationsmodell zur Terminplanung - Ein Modell zur Generierung von Bauablaufplänen
(2011)
Die effiziente und zielgerichtete Ausführung von Bauvorhaben wird in hohem Maße von der zugrunde liegenden Bauablaufplanung beeinflusst. Dabei ist unter Verwendung herkömmlicher Methoden und Modelle die Planung des Bauablaufs ein zumeist aufwändiger und fehlerträchtiger Prozess. Am Ende der gegenwärtig üblichen Vorgehensweise für die Planung eines Bauablaufs erfolgt lediglich die Dokumentation des Endergebnisses. Mögliche Ablaufalternativen, die im Verlauf der Planung betrachtet wurden, sind im resultierenden Bauablaufplan nicht enthalten und gehen verloren. Eine formale Kontrolle des geplanten Bauablaufs hinsichtlich seiner Vollständigkeit ist nur begrenzt möglich, da beispielsweise existierende Methoden der 4D-Visualisierung derzeit nicht ausreichend in den Prozess der Planung von Bauabläufen integriert sind. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines neuen Modells für die Unterstützung der Bauablaufplanung. Dafür wird der größtenteils manuelle Vorgang der Bauablaufplanung auf Basis verfügbarer Bauwerksinformationsmodelle (BIM) weitestgehend automatisiert und die Methodik der 4D-Animation in den Prozess der Bauablaufplanung integriert. Ausgehend von in einer Erfahrungsdatenbank gespeicherten Informationen werden auf Basis einer Ähnlichkeitsermittlung Bauteilen des betrachteten BIM geeignete Vorgänge zugeordnet und mittels Algorithmen der Graphentheorie ein Workflowgraph aller mög\-lichen Bauablaufvarianten generiert. Aufgrund der vorgenommenen Kopplung des Bauablaufplans mit Bauteilen eines BIM und der visuellen Darstellung des Bauablaufs kann vom Planer im Rahmen der Modellierungsgenauigkeit des BIM auf die Vollständigkeit des Bauablaufplans geschlossen werden. Dies ermöglicht dem Anwender ein hohes Maß an Kontrolle des geplanten Bauablaufs bereits innerhalb der Planungsphase. Weiterhin unterstützt das entwickelte Modell die Integration von Ablaufvarianten, was deren Gegenüberstellung ermöglicht und die Wiederverwendbarkeit bereits geplanter Bauabläufe durch eine entsprechend ausgerichtete Abbildung des Modells. Die Anwendbarkeit des erarbeiteten Modells wird anhand einer prototypischen Implementierung nachgewiesen und anhand eines Praxisbeispiels verifiziert.
Recently, many reseraches on active control systems of building structures are preformed based on modern control theory and are installed real buildings. The authors have already proposed intelligent fuzzy optimal active control (IFOAC) systems. IFOAC systems imitate intelligent activities of human brains such as prediction, adaptation, decision-kaking and so on. In IFOAC systems, objective and subjective judgements on the active control can be taken into account. However, IFOAC systems are considered to be suitable for far-field erathquake and control effect becomes small in case of near-field earthqaukes which include a few velosity pules with large amplitudes. To improve control effect in case of near-souece earthquakes, the authors have also proposed hybrid control (HC) systems, in which IFOAC systems and fuzzy control system are combined. In HC systems, the fuzzy control systems are introduced as a reflective fuzzy active control (RFAC) system and imitates spinal reflection of human. In HC systems, active control forces are activated to buildings in accordance with switching rules on active control forces. In this paper, optimizations on fuzzy control rules in RFAC system and switching rules of active control forces in HC system are performed by Parameter-Free Genetic Algorithms (PfGAs). Here, the optimization is performed by using different earthquake inputs. The results of digital simulations show that the HC system can reduce maximal response displacements under restrictions on strokes of the actuator effectively in case of a near-source earthquake and the effectiveness of the proposed HC system is discussed and clarified.
The truss model for predicting shear resistance of reinforced concrete beams has usually been criticized because of its underestimation of the concrete shear strength especially for beams with low shear reinforcement. Two challengers are commonly encountered in any truss model and are responsible for its inaccurate shear strength prediction. First: the cracking angle is usually assumed empirically and second the shear contribution of the arching action is usually neglected. This research introduces a nouvelle approach, by using Artificial Neural Network (ANN) for accurately evaluating the shear cracking angle of reinforced and prestressed concrete beams. The model inputs include the beam geometry, concrete strength, the shear reinforcement ratio and the prestressing stress if any. ...
Indentation experiments have been carried out over the past century to determine hardness of materials. Modern indentation machines have the capability to continuously monitor load and displacement to high precision and accuracy. In recent years, research interests have focussed on methods to extract material properties from indentation load-displacement curves. Analytical methods to interpret the indentation load-displacement curves are difficult to formulate due to material and geometric nonlinearities as well as complex contact interactions. In the present study, an artificial neural network model was constructed for interpretation of indentation load-displacement curves. Large strain-large deformation finite element analyses were first carried out to simulate indentation experiments. The data from finite element analyses were then used to train the artificial neural network model. The artificial neural network model was able to accurately determine the material properties when presented with load-displacement curves which were not used in the training process. The proposed artificial neural network model is robust and directly relates the characteristics of the indentation loaddisplacement curve to the elasto-plastic material properties.
This paper describes monitoring of the in-valley discharge and underground water level at the place where the tunnel will be constructed and also, the numerical analysis for prediction applying the Tank Model and Linear Filter Method to calculate the prediction. The application of these analyses has actually allowed the change of underground water level to be grasped and more effective information system to be established by comparing the real-time monitoring data with the real-time calculation of prediction.
In the design of a structure, the implementation of reliable soil-foundation-structure interaction into the analysis process plays a very important role. The paper presents a determination of parameters of a suitably chosen soil-foundation model and their influence on the structure response. Since the mechanical data for the structure can be determined with satisfactory accuracy, the properties of the soil-foundation model were identified using measured dynamic response of the real structure. A simple model describing soil-foundation structure was incorporated into the classical 3-D finite element analysis of the structure with commercial software. Results obtained from the measured data on the pier were afterwards compared with those obtained with the finite model of the pier-foundation-soil structure. On the basis of this comparison the coefficients describing the properties in the soil-foundation model were adjusted until the calculated dynamic response coincided with the measured ones. In this way, the difference between both results was reduced to 1%. Full-scale tests measuring eigenmotion of the bridge were performed through all erection stages of the new bridge in Maribor. In this way an effective and experimentally verified 3-D model for a complex dynamic analysis of the bridge under the earthquake loading was obtained. The significant advantage of the obtained model is that it was updated on the basis of the dynamic measurements thus improving the model on the basis of in-situ geomechanical measurements. The model is very accurate in describing the upper structure and economical in describing the soil mass thus representing an optimal solution regarding computational efforts.
The frame of this paper is the development of methods and procedures for the description of the motion of an arbitrary shaped foundation. Since the infinite half-space cannot be properly described by a model of finite dimensions without violating the radiation condition, the basic problems are infinite dimensions of the half-space as well as its non-homogeneous nature. Consequently, an approach has been investigated to solve this problem indirectly by developing Green's function in which the non-homogeneity and the infiniteness of the half-space has been included. When the Green's function is known, the next step will be the evaluation of contact stresses acting between the foundation and the surface of the half-space through an integral equation. The equation should be solved in the area of the foundation using Green's function as the kernel. The derivation of three-dimensional Green's function for the homogeneous half-space (Kobayashi and Sasaki 1991) has been made using the potential method. Partial differential equations occurring in the problem have been made ordinary ones through the Hankel integral transform. The general idea for obtaining the three-dimensional Green's function for the layered half-space is similar. But in that case some additional phenomena may occur. One of them is the possibility of the appearance of Stonely surface waves propagating along the contact surfaces of layers. Their contribution to the final result is in most cases important enough that they should not be neglected. The main advantage of results presented in comparing to other obtained with numerical methods is their accuracy especially in the case of thin layers because all essential steps of Green's function evaluation except of the contour integration along the branch cut have been made analytically. On the other hand the disadvantage of this method is that the mathematical effort for obtaining the Green's function is increasing drastically with the increase of the number of layers. Future work will therefore be directed in simplifying of the above described process
Für die Gestaltung einer durchgängigen Unterstützung des Entwurfsprozesses stehen gegenwärtig deskriptive Modelle der Entwurfsobjekte im Mittelpunkt der Untersuchungen. Diese Modelle gestatten das Ableiten von Repräsentationen sowie eine Weitergabe von Entwurfsergebnissen. Pragmatische Gliederungen des Entwurfsprozesses unterteilen diesen nach organisatorischen und betriebswirtschaftlichen Aspekten (Planbarkeit und Abrechenbarkeit) in eine Sequenz von Entwurfsphasen (HOAI). Diese Gliederungen berücksichtigen nicht das WIE des eigentlichen modellkreierenden Schaffensprozesses. Für ein echtes CADesign bildet dessen Klärung jedoch die erforderliche Voraussetzung. Im Beitrag wird dazu von einem vereinheitlichten Set generischer Entwurfsaktionen ausgegangen. Auch dann, wenn die verschiedenen Entwurfsphasen und die Entwurfshandlungen der einzelnen Ingenieurgewerke mit spezifische Entwurfsmodellen verbunden werden, besteht damit eine Grundlage zur methodischen Fundierung entsprechender CAD-Tools. Die methodische Verfahrensweise ähnelt der, die in Form von Styleguides zur Gestaltung von 'Graphical User Interfaces' vorgeschlagen wird. Wesentliche praktische Benutzungen solche Basisaktivitäten ergeben sich für: die Systematisierung computergestützter Entwurfshandlungen, insbesondere durch Erweiterung des deskriptiven um ein operationales Modell sowie deren erweiterte Interpretierbarkeit die Erzeugung wissensbasierter Werkzeuge zur automatischen Modellgenerierung/-konfiguration die Implementation von leistungsfähigen UNDO- bzw. TMS-Mechanismen.
Due to technological progress and European standardization (e.g. ISO certification) there is an increasing demand to automate the digital recording of building plans. Currently there are two approaches available: (1) labour-intensive redrawing with digitizing tablets or by screen digitizing, (2) automatic scanning and vectorizing where vectorization generally demands an interactive follow-up treatment due to incomplete or ambigues results. This paper proposes a knowledge-based approach for building plan analysis. The procedure reveals the following processing steps: scanning of the building plan, enhancing the image quality and binarization, extraction of lines, line junctions and character fields, knowledge-based interpretation and grouping of image features to domain specific feature aggregates like door symbols, stair symbols etc., optical character recognition and lexicon-based interpretation of character fields, matching of feature aggregates with dimension sets. First results of a prototype implementation are presented. At last an extension of the approach towards a semantic modeling concept showing a coupling between 3D object modeling and an explict 2D modeling of images and technical drawings is presented
In the field of engineering, surrogate models are commonly used for approximating the behavior of a physical phenomenon in order to reduce the computational costs. Generally, a surrogate model is created based on a set of training data, where a typical method for the statistical design is the Latin hypercube sampling (LHS). Even though a space filling distribution of the training data is reached, the sampling process takes no information on the underlying behavior of the physical phenomenon into account and new data cannot be sampled in the same distribution if the approximation quality is not sufficient. Therefore, in this study we present a novel adaptive sampling method based on a specific surrogate model, the least-squares support vector regresson. The adaptive sampling method generates training data based on the uncertainty in local prognosis capabilities of the surrogate model - areas of higher uncertainty require more sample data. The approach offers a cost efficient calculation due to the properties of the least-squares support vector regression. The opportunities of the adaptive sampling method are proven in comparison with the LHS on different analytical examples. Furthermore, the adaptive sampling method is applied to the calculation of global sensitivity values according to Sobol, where it shows faster convergence than the LHS method. With the applications in this paper it is shown that the presented adaptive sampling method improves the estimation of global sensitivity values, hence reducing the overall computational costs visibly.
Increasingly powerful hard- and software allows for the numerical simulation of complex physical phenomena with high levels of detail. In light of this development the definition of numerical models for the Finite Element Method (FEM) has become the bottleneck in the simulation process. Characteristic features of the model generation are large manual efforts and a de-coupling of geometric and numerical model. In the highly probable case of design revisions all steps of model preprocessing and mesh generation have to be repeated. This includes the idealization and approximation of a geometric model as well as the definition of boundary conditions and model parameters. Design variants leading to more resource-efficient structures might hence be disregarded due to limited budgets and constrained time frames.
A potential solution to above problem is given with the concept of Isogeometric Analysis (IGA). Core idea of this method is to directly employ a geometric model for numerical simulations, which allows to circumvent model transformations and the accompanying data losses. Basis for this method are geometric models described in terms of Non-uniform rational B-Splines (NURBS). This class of piecewise continuous rational polynomial functions is ubiquitous in computer graphics and Computer-Aided Design (CAD). It allows the description of a wide range of geometries using a compact mathematical representation. The shape of an object thereby results from the interpolation of a set of control points by means of the NURBS functions, allowing efficient representations for curves, surfaces and solid bodies alike. Existing software applications, however, only support the modeling and manipulation of the former two. The description of three-dimensional solid bodies consequently requires significant manual effort, thus essentially forbidding the setup of complex models.
This thesis proposes a procedural approach for the generation of volumetric NURBS models. That is, a model is not described in terms of its data structures but as a sequence of modeling operations applied to a simple initial shape. In a sense this describes the "evolution" of the geometric model under the sequence of operations. In order to adapt this concept to NURBS geometries, only a compact set of commands is necessary which, in turn, can be adapted from existing algorithms. A model then can be treated in terms of interpretable model parameters. This leads to an abstraction from its data structures and model variants can be set up by variation of the governing parameters.
The proposed concept complements existing template modeling approaches: templates can not only be defined in terms of modeling commands but can also serve as input geometry for said operations. Such templates, arranged in a nested hierarchy, provide an elegant model representation. They offer adaptivity on each tier of the model hierarchy and allow to create complex models from only few model parameters. This is demonstrated for volumetric fluid domains used in the simulation of vertical-axis wind turbines. Starting from a template representation of airfoil cross-sections, the complete "negative space" around the rotor blades can be described by a small set of model parameters, and model variants can be set up in a fraction of a second.
NURBS models offer a high geometric flexibility, allowing to represent a given shape in different ways. Different model instances can exhibit varying suitability for numerical analyses. For their assessment, Finite Element mesh quality metrics are regarded. The considered metrics are based on purely geometric criteria and allow to identify model degenerations commonly used to achieve certain geometric features. They can be used to decide upon model adaptions and provide a measure for their efficacy. Unfortunately, they do not reveal a relation between mesh distortion and ill-conditioning of the equation systems resulting from the numerical model.
Current building product models explicitly represent components, attributes of components, and relationships between components. These designer-focused product models, however, do not represent many of the design conditions that are important for construction, such as component similarity, uniformity, and penetrations. Current design and construction tools offer limited support for detecting these construction-specific design conditions. This paper describes the ontology we developed using the manufacturing concept of features to represent the design conditions that are important for construction. The feature ontology provides the blueprint for the additions and changes needed to transform a standard product model into a constructionspecific product model. The ontology formalizes three classes of features, defines the attributes and functions of each feature type, and represents the relationships between features explicitly. The descriptive semantics of the ontology allows practitioners to represent their varied preferences for naming features, specifying features that result from component intersections and the similarity of components, and grouping features that affect a specific construction domain. A software prototype that implements the ontology enables practitioners to transform designer-focused product models into feature-based product models that represent the construction perspective.
Es wird ein Verfahren vorgestellt, das erlaubt, die Vermessung von Porengrößen in Sichtbetonflächen sowie die Beurteilung von Farbeindrücken automatisiert durchzuführen. Subjektive Einflüsse bei der Bewertung werden ausgeschlossen, gleichzeitig werden Einsparungseffekte von 80% und mehr gegenüber Handauszählungen von Lunkern nachgewiesen. Die verwendeten Techniken sind ein spezieller Markierungsrahmen, eine hochauflösende Digitalkamera und spezielle Bildanalyseprozeduren. Letztere leisten die notwendigen Vorverarbeitungsfunktionen, wie geometrische Entzerrung, Kalibrierung sowie einen Helligkeitsausgleich, und nehmen die durchzuführenden Bewertungen vor. Das sind Porengrößen- und verteilungsanalyse sowie Farbvergleiche mit definierten Normalen zur Beurteilung von Farbhomogenitäten über den zu analysierenden Sichtbetonflächen. Die Ergebnisprotokollierung erfolgt sowohl bildlich als auch datentechnisch, letzteres z. B. in einem Excelfile. Die Durchgängigkeit des Verfahrens wird an einer Reihe von in Sichtbetonbauweise ausgeführten Bauten veranschaulicht, z. B. dem Bundeskanzleramt und dem Hörsaalzentrum der TU-Dresden. Wesentliche Einflussparameter wie Beleuchtungsgeometrie oder Helligkeitsschwellen werden diskutiert und Vergleiche zu durchgeführten Handmessungen gezogen. Der vorgestellte Ansatz ist in weiterer Forschung anwendungsorientiert aufzubereiten, vergleichende Untersuchungen zu durch Experten durchgeführten Messungen sind zu Validierungszwecken vorzunehmen. Der Ansatz kann einen Beitrag zu Normungsfragen liefern. Seine Nutzbarkeit ist auch für spezielle Bereiche der Entwicklung von Betonmischtechnologien oder in der Fertigelementefertigung gegeben. Im Beitrag sind die relevanten Verfahrensschritte bildlich und in tabellarischer Form untersetzt.
The problem F|n=2|F is to minimize the given objective function F(C1,m, C2,m) of completion times Ci,m of two jobs i Î J={1, 2} processed on m machines M={1, 2, …, m}. Both jobs have the same technological route through m machines. Processing time ti,k of job iÎ J on machine kÎ M is known. Operation preemptions are not allowed. Let R2m be space of non-negative 2m-dimensional real vectors t=(t1,1,…, t1,m, t2,1,…, t2,m) with Chebyshev’s distance d(t, t*). To solve problem F|n=2|F, we can use the geometric algorithm, which includes the following steps: 1) construct digraph (V, A) for problem F|n=2|F and find so-called border vertices in (V, A); 2) construct the set of trajectories corresponding to the shortest paths Rt in digraph (V, A) from the origin vertex to each of the border vertices; 3) find an optimal path in the set Rt that represents a schedule with minimal value of the objective function F. Let path tu Î Rt be optimal for the problem F|n=2|F with operation processing times defined by vector t. If for any small positive real number e > 0 there exists vector t*Î R2m such that d(t, t*) = e and path tu is not optimal for the problem F|n=2|F with operation processing times defined by vector t*, then optimality of path tu is not stable. The main result of the paper is the proof of necessary and sufficient conditions for optimality stability of path tu. If objective function F is continuous non-decreasing (e.g., makespan, total completion time, maximal lateness or total tardiness), then to test whether optimality of the path tu Î Rt is stable takes O(m log m) time.
Collaborative Design Processes: A Class on Concurrent Collaboration in Multidisciplinary Design
(2004)
The rise of concurrent engineering in construction demands early team formation and constant communication throughout the project life cycle, but educational models in architecture, engineering and construction have been slow to adjust to this shift in project organization. Most students in these fields spend the majority of their college years working on individual projects that do not build teamwork or communication skills. Collaborative Design Processes (CDP) is a capstone design course where students from the University of Illinois at Urbana-Champaign and the University of Florida learn methods of collaborative design enhanced by the use of information technology. Students work in multidisciplinary teams to collaborate from remote locations via the Internet on the design of a facility. An innovation of this course compared to previous efforts is that students also develop process designs for the integration of technology into the work of multidisciplinary design teams. The course thus combines both active and reflective learning about collaborative design and methods. The course is designed to provide students the experience, tools, and methods needed to improve design processes and better integrate the use of technology into AEC industry work practices. This paper describes the goals, outcomes and significance of this new, interdisciplinary course for distributed AEC education. Differences from existing efforts and lessons learned to promote collaborative practices are discussed. Principal conclusions are that the course presents effective pedagogy to promote collaborative design methods, but faces challenges in both technology and in traditional intra-disciplinary training of students.
This paper is concerned with the numerical treatment of quasilinear elliptic partial differential equations. In order to solve the given equation we propose to use a Galerkin approach, but, in contrast to conventional finite element discretizations, we work with trial spaces that, not only exhibit the usual approximation and good localization properties, but, in addition, lead to expansions of any element in the underlying Hilbert spaces in terms in multiscale or wavelet bases with certain stability properties. Specifically, we select as trial spaces a nested sequence of spaces from an appropriate biorthogonal multiscale analysis. This gives rise to a nonlinear discretized system. To overcome the problems of nonlinearity, we make use of the machinery of interpolating wavelets to obtain knot oriented quadrature rules. Finally, Newton's method is applied to approximate the solution in the given ansatz space. The results of some numerical experiments with different biorthogonal systems, confirming the applicability of our scheme, are presented.
Der Ausbau von digitalen Hochgeschwindigkeitsnetzen ist gekennzeichnet durch neuartige Anforderungen an den Planungsprozess. Diese Anforderungen erfordern wiederum den Einsatz von neuartigen Paradigmen, die eine effiziente und zugleich genaue Planung von flächendeckenden Glasfasernetzen ermöglichen. Hierbei können wiederkehrende Planungsaufgaben durch eine gezielte computergestützte Automatisierung effizienter und genauer ausgeführt, als es mit bisherigen Planungskonzepten möglich ist. Dieses Arbeitspapier beschreibt die computergestützte Ausführung eines Planungsprozesses auf Basis von fünf grundlegenden, iterativen Planungsschritten und gibt Empfehlungen für eine effiziente und genaue Planung von Glasfasernetzen. Der hier vorgestellte Ansatz ermöglicht es Netzbetreibern und Investoren, den Ausbau beliebiger Siedlungs- und Gewerbegebiete auf der zuverlässigen Basis von belastbarem Faktenwissen wirtschaftlich zu priorisieren.
IFC-BASED MONITORING INFORMATION MODELING FOR DATA MANAGEMENT IN STRUCTURAL HEALTH MONITORING
(2015)
This conceptual paper discusses opportunities and challenges towards the digital representation of structural health monitoring systems using the Industry Foundation Classes (IFC) standard. State-of-the-art sensor nodes, collecting structural and environmental data from civil infrastructure systems, are capable of processing and analyzing the data sets directly on-board the nodes. Structural health monitoring (SHM) based on sensor nodes that possess so called “on-chip intelligence” is, in this study, referred to as “intelligent SHM”, and the infrastructure system being equipped with an intelligent SHM system is referred to as “intelligent infrastructure”. Although intelligent SHM will continue to grow, it is not possible, on a well-defined formalism, to digitally represent information about sensors, about the overall SHM system, and about the monitoring strategies being implemented (“monitoring-related information”). Based on a review of available SHM regulations and guidelines as well as existing sensor models and sensor modeling languages, this conceptual paper investigates how to digitally represent monitoring-related information in a semantic model. With the Industry Foundation Classes, there exists an open standard for the digital representation of building information; however, it is not possible to represent monitoring-related information using the IFC object model. This paper proposes a conceptual approach for extending the current IFC object model in order to include monitoring-related information. Taking civil infrastructure systems as an illustrative example, it becomes possible to adequately represent, process, and exchange monitoring-related information throughout the whole life cycle of civil infrastructure systems, which is referred to as monitoring information modeling (MIM). However, since this paper is conceptual, additional research efforts are required to further investigate, implement, and validate the proposed concepts and methods.
Die Bauinformatik ist eine Säule der modernen Bau- und Umweltingenieurwissenschaften und befasst sich mit der Erforschung grundlegender informatorischer Methoden sowie mit der Anwendung und Weiterentwicklung der Informationswissenschaften im Bau- und Umweltbereich. Der Arbeitskreis Bauinformatik konstituiert sich aus Wissenschaftlern, die an Universitäten im deutschsprachigen Raum auf dem Fachgebiet Bauinformatik lehren und forschen. Ausgehend vom erreichten Entwicklungsstand der Bauinformatik skizziert dieses Positionspapier die Aufgaben des Arbeitskreises und formuliert eine Grundlage für eine abgestimmte Weiterentwicklung an den deutschsprachigen Universitäten.
The problem of the computation of stresses and settlements in the half-space under various types of loads is often presented in geotechnical engineering. In 1885 Boussinesq advanced theoretical expressions to determine stresses at a point within an ideal mass. His equation considers a point load on the surface of a semi-infinite, homogeneous, isotropic, weightless, elastic half-space. Newmark in 1942 performed the integration of Boussinesq's equations for the vertical stress under a corner of a rectangular area loaded with a uniform load. The problem of the determination of vertical stresses under a rectangular shaped footing has been satisfactorily solved with renewal integration of the Boussinesq's equation over the arbitrary rectangle on surface of the half-space, with a non-uniform load represented with piecewise linear interpolation functions. The problem of the determination of stresses in the case when the footing shape is an arbitrary quadrilateral however remains unsolved. The paper discusses an approach to the computation of vertical stresses and settlements in an arbitrary point of the half-space, loaded with a uniform load, which shape in the ground plan can be a general four noded form with straight edges. Since the form is transformed into a biunit square and all integrations are performed over this area, all solutions are valid also for an arbitrary triangle by the implementation of the degeneration rule.
To fulfil safety requirements the changes in the static and/or dynamic behaviour of the structure must be analysed with great care. These changes are often caused by local reduction of the stiffness of the structure caused by the irregularities in the structure, as for example cracks. In simple structures such analysis can be performed directly, by solving equations of motion, but for more complex structures a different approach, usually numerical, must be applied. The problem of crack implementation into the structure behaviour has been studied by many authors who have usually modelled the crack as a massless rotational spring of suitable stiffness placed at the beam at the location where the crack occurs. Recently, the numerical procedure for the computation of the stiffness matrix for a beam element with a single transverse crack has been replaced with the element stiffness matrix written in fully symbolic form. A detailed comparison of the results obtained by using 200 2D finite elements with those obtained with a single cracked beam element has confirmed the usefulness of such element.
Particle Simulation and Evaluation of Personal Exposure to Contaminant Sources in an Elevation Space
(2004)
An elevator, which figures a small volume, is normally used by everyone for a short period of time and equipped with simple ventilation system..Any contaminant released within it may cause serious problem. This research adapt a fire and smoke simulation software (FDS) into non-fire indoor airflow scario. Differently from previous research, particles are chosen as a risk evalution unit. A personal and multi-personal exposure model is proposed. The model takes the influence of the human thermal boundary, coughing, inhalation, exhalation, standing position, and the fan factor into account. The model is easy-to-use and suitable for the design of elevator system in practice.
This paper presents an innovative software platform OpenSTEP intended to build advanced distributed integrated systems and to conduct multidisciplinary collaborative projects in both academy and industry. The paper discusses an open system architecture, methodology, component library and CASE toolkit enabling the developers to build a wide range of interoperable applications and systems compliant with STEP and, particularly, with IFC becoming the increasingly important standard for information integration in architecture, engineering and construction.
The paper presents a general map-based approach to prototyping of products in virtual reality environments. Virtual prototyping of products is considered as a consistent simulation and visualization process mapping the source product model into its target visual representations. The approach enables to interrelate formally the product and visual information models with each other by defining mapping rules, to specify a prototyping scenario as a composition of map instances, and then to explore particular product models in virtual reality environments by interpreting the composed scenario. Having been realized, the proposed approach provides for the strongly formalized method and the common software framework to build virtual prototyping applications. As a result, the applications gain in expressiveness, reusability and reliability, as well as take on additional runtime flexibility...
Multimodel Numerical Analysis of the Elasto-Visco-Plastic Deformation of Materials and Constructions
(1997)
At the present time there is no a generally accepted theory of visco-plasticity which is applicable for a wide class of materials and arbitrary paths of loading. The multimodel approach, based on the creation of hierarchical sequence of the models, is the most rational. The developed library of elasto-visco-plastic models includes both simplest and sophistic models demanding numerous experimental data. A unified general form of constitutive equations for all used elasto-visco-plastic models are presented based upon the concept of tensorial internal state variables. It permits to use unified algorithm of boundary tasks solution for different variants of material models. The developed selection criteria system generates the necessary conditions and provides the choice of the simplest variant of theory sufficient for correct problem solution. Formulation of the selection criteria system is based on peculiarities of viscoplastic materials behavior for the wide range thermomechanical loading and numerous computational experiments with structures different complexity levels. A set of effective schemes of integration stress-strain relations and non-linear finite element system solution are discussed for the considered class of material models. Application possibility of different material models is studied both for material element and for complicated structures. Application of the multimodel approach in numerical computations has demonstrated possibility of reliable prediction of stress-strain response under wide variety of combined loading.
Die geometrische Modellierung hat in den Ingenieurwissenschaften eine große Bedeutung erlangt. Die Visualisierung von zwei- oder dreidimensionalen Problemstellungen ist aus heutigen Anwendungen nicht mehr wegzudenken. Zunehmend rücken Aufgabenstellungen aus dem Bereich der geometrischen Modellierung in den Vordergrund, die über die etablierten Dimensionen 1-3 hinausgehen und die nicht mehr rein geometrischer Natur sind. Hierzu zählen Aufgabenstellungen aus den Bereichen numerische Simulation, Parameteridentifikation und Strukturanalyse. Auf diese nicht-geometrischen Aufgabenstellungen sollen geometrische Verfahren, wie z.B. Triangulation, konvexe Hülle, geometrischer Schnitt und Interpolation angewendet werden. Hierzu werden diese Algorithmen, die alle auf der klassischen Geometrie des euklidischen Raumes beruhen, auf ihre Übertragbarkeit hin analysiert und überarbeitet. Am Beispiel einer Parameteridentifikation wird eine systematische Vorgehensweise vorgestellt, die es ermöglicht, trotz weniger Versuchsrechnungen den Bereich der in Frage kommenden Parameter umfassend zu beschreiben. Dies ermöglicht ein besseres Verständnis der Zusammenhänge der Parameter untereinander. Häufig existieren mehr als eine Parameterkombination, so daß diese eine Isolinie formen, die ihrerseits unendlich viele Lösungen des gestellten Problemes im Untersuchungsgebiet beschreibt.
Die Situation in der Immobilienwirtschaft hat sich in den letzten Jahren grundlegend verändert. Die Neubauaktivitäten in ganz Deutschland sind deutlich zurückgegangen. Das Bauen im Bestand mit den Tätigkeitsfeldern der Renovierung, Modernisierung und Instandsetzung rückt daher in den Mittelpunkt der Aktivitäten. Laut Bundesarbeitskreis Altbauerneuerungen werden im nächsten Jahr 74 Prozent des gesamten Bauvolumens auf die Modernisierung von alten Häusern entfallen, der Anteil der Neubaumaßnahmen geht auf 26 Prozent zurück. Dies gilt nicht nur für Wohn-, sondern auch für Gewerbeimmobilien. Die anhaltende Rezession und die Entzauberung der New Economy ziehen in diesem Bereich Leerstände und fallende Mieten nach sich. Auch die Wohnungswirtschaft hat vor allem in den neuen Ländern mit Leerständen zu kämpfen. Diese Tatsache zwingt Immobilienbetreiber zunehmend dazu, Methoden zu ergreifen und Werkzeuge einzusetzen, die die Effizienz im eigenen Unternehmen steigern. Die Aufgabenstellung lautet: Mehr Sanierungsprojekte in der selben Zeit abwickeln. Dies setzt eine prozessorientierte Vorgehensweise und unterstützende Werkzeuge voraus. Mit dem baucommunicator wurde ein Werkzeug entwickelt, dass es dem Gebäudemanager ermöglicht, bei der Abwicklung von Bau- und Sanierungsmaßnahmen im Aufgabenfeld der Koordination dieser Aufgabenstellung zu entsprechen. Die Kernfunktionen der Software sind das Termin-, Kosten und Qualitätsmanagement bei der Abwicklung von Bauprozessen. Die unternehmensübergreifende Konzeption erlaubt sowohl dem Auftraggeber, wie auch den ausführenden Betrieben den Zugriff auf die zentral abgelegten Projektinformationen. Die Workflow-Funktionalität des baucommunicator führt zu einer Reduktion der Prozessaktivitäten. Dadurch werden Kosten eingespart und die Ausführungsqualität gesteigert.
Als Folge des hohen Termindrucks während des Bauablaufes, ist es besonders wichtig den Fortschritt eines Bauvorhabens zeitnah zu überwachen. Auf Großbaustellen kann die effektive Kontrolle nicht mehr ohne technische Hilfsmittel durchgeführt werden. Die Arbeit stellt verschiedene Szenarien für die verteilte Fortschrittserfassung vor und untersucht welche Anforderungen an ein System für die verteilte Erfassung gestellt werden. Dazu wird zuerst das bestehende CVS-System analysiert, um anschließend daraus ein Konzept für die Versionierung von Objekten und den automatischen Abgleich von Objektversionen zu entwickeln. Später wird gezeigt, wie dieses Konzept mit Hilfe von C# und dem Microsoft®-.NET-Framework umgesetzt werden kann.
Für den Entwurf von Ingenieurbauten ist eine zuverlässige Prognose über den Spannungsverlauf im Bauwerk und auf dessen Rand von großer Bedeutung. Eine geschlossene Lösung der elastischen Bestimmungsgleichungen des Bauwerks ist in der Regel nicht verfügbar. Es wird daher unter Verwendung der Methode der gewichteten Reste eine schwache Form der Gleichungen abgeleitet, die zu einem gemischten Arbeitsprinzip führt. Das zugehörige Finite-Elemente-Modell erlaubt es Spannungen am Rand des Bauwerks zu ermitteln, die im Gleichgewicht zu den angreifenden Lasten stehen.
Die Gesamtheit der Produktinformationen im Bauwesen stellt sich als sehr inkonsistente und redundante Informationsmenge dar. Die Hersteller stehen vor der Aufgabe, diese Produktinformationen nicht nur in der üblichen Katalogform sondern auch in neuen Medien wie CD-ROM und WWW zu publizieren. Einmal betriebener Erfassungsaufwand muß sich dabei durch eine einfache Mehrfachverwendung der Daten rentieren. Wegen seiner technologischen Eigenschaften eignet sich das WWW sehr gut als primäre Quelle für Produktinformationen. Vor allem wegen der möglichen Aktualität sollte es Grundlage für Publikationen in den anderen Medien sein. Mit verhältnismäßig geringem Aufwand lassen sich die WWW-Präsentation von Produktdaten so strukturieren, daß eine automatisierte Erfassung und Verarbeitung dieser Daten vereinfacht wird. So kann die Datenkonsistenz von der visuellen Präsentation in herkömmlichen Katalogen bis zur automatisch erstellten Produktdatenbank durchgängig gesichert werden. Vor dem Hintergrund der von Schnittstellenproblemen, heterogener Softwarestruktur und unzureichender Ausnutzung der Möglichkeiten der Informatik gekennzeichneten Situation im Bauwesen wird in generalisierter Ansatz mittels SGML vorgestellt. Mit einem derartigen Datenangebot werden neue, verteilte und vernetzte Anwendungen auf Grundlage derselben Produktdaten ermöglicht.
Vor dem Hintergrund einer sich verschärfenden Umweltgesetzgebung sowie der Erkenntnis, dass Bauabfälle sich grundsätzlich für eine Stoffkreislaufführung eignen, hat der Rückbau von Bauwerken in den letzten Jahren verstärkt an Bedeutung gewonnen. Aufgrund oftmals strenger Zeit- und Kostenvorgaben für einen Rückbau, begrenzter Verfügbarkeit von Personal und Betriebsmitteln, einer weitgehenden Unikatfertigung sowie wechselnder Standorte kommt dabei der projektorientierten Planung von Maßnahmen auf der Baustelle große Bedeutung zu. Im Rahmen des Beitrages werden Ansätze zur Modellierung und Lösung der sich hieraus ergebenden Probleme zur Planung und Optimierung von (Rück-) Bauabläufen unter Verwendung von Projektplanungsmodellen und -methoden vorgestellt. Hierbei werden neben betriebswirtschaftlichen auch umweltrelevante sowie technische Fragestellungen im Zusammenhang mit der Planung von Rückbauprojekten aufgegriffen. Eine Anwendung der Planungsansätze auf reale Gebäude zeigt, dass sich durch Kombination von Gebäuderückbau und Aufbereitungstechnik eine Qualitätsverbesserung von Recyclingbaustoffen erzielen lässt. Zur Umsetzung der hierzu erforderlichen Maßnahmen werden unter Berücksichtigung individueller abfallwirtschaftlicher Rahmenbedingungen der jeweiligen Planungsregion, gebäude- und baustellenbezogener Besonderheiten, technischer sowie kapazitiver Restriktionen Ablaufpläne für den Gebäuderückbau berechnet. Die für unterschiedliche Planungsregionen vorgenommenen Modellrechnungen weisen nach, dass sich die Demontage von Gebäuden gegenüber einem konventionellen Gebäudeabbruch unter bestimmten Rahmenbedingungen bereits wirtschaftlich vorteilhaft realisieren lässt. Abgerundet wird der Beitrag durch einen Ausblick auf Möglichkeiten einer Realisierung komplexer Bauabläufe auch unter strengen Zeitvorgaben sowie bei begrenzten Platzverhältnissen mit Hilfe fertigungssynchroner Ressourceneinsatzplanung sowie auf die Berücksichtigung von Unsicherheiten in der Planung und Ausführung von Rückbauprojekten.