Refine
Has Fulltext
- yes (857) (remove)
Document Type
- Conference Proceeding (857) (remove)
Institute
- Professur Informatik im Bauwesen (336)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (174)
- Professur Baubetrieb und Bauverfahren (104)
- Professur Theorie und Geschichte der modernen Architektur (94)
- Graduiertenkolleg 1462 (32)
- Institut für Strukturmechanik (ISM) (23)
- Professur Angewandte Mathematik (18)
- Institut für Konstruktiven Ingenieurbau (IKI) (12)
- Junior-Professur Computational Architecture (11)
- Bauhaus-Institut für Geschichte und Theorie der Architektur und Planung (10)
Keywords
- Computerunterstütztes Verfahren (286)
- Architektur <Informatik> (200)
- CAD (158)
- Angewandte Informatik (145)
- Angewandte Mathematik (145)
- Computer Science Models in Engineering; Multiscale and Multiphysical Models; Scientific Computing (74)
- Bauhaus (68)
- Arbeitsschutz (61)
- Baustelle (53)
- Architekturtheorie (52)
Der Beitrag basiert auf den Ansätzen und Ergebnissen des Forschungsprojekts >Prozessorientierte Vernetzung von Ingenieurplanungen am Beispiel der Geotechnik<, das im Rahmen des Schwerpunktprogramms 1103 >Vernetzt-kooperative Planungsprozesse im Konstruktiven Ingenieurbau< von der DFG gefördert wird. Ziel des gemeinsam mit dem Institut für Numerische Methoden und Informatik im Bauwesen an der TU Darmstadt durchgeführten Forschungsprojekts ist die Entwicklung einer netzwerkbasierten Kooperationsplattform zur Unterstützung von geotechnischen Ingenieurplanungen. Daher konzentriert sich das Forschungsprojekt auf die Abbildung und Koordination der Planungsprozesse für Projekte des Konstruktiven Ingenieurbaus vor dem Hintergrund der stark arbeitsteiligen Projektbearbeitung in einer verteilten Rechnerumgebung. Der Beitrag stellt die Abstraktion von Prozessmustern im Bauplanungsprozess als Basis für die dynamische Prozessmodellierung in einem Kooperationsmodell dar. Ziel ist es, durch die Identifikation der mit dem Entwurf und der Dimensionierung eines Bauteils verbundenen Planungs- und Abstimmungsprozesse einen bauteilbezogenen Katalog von Prozessmustern zu abstrahieren. Die einzelnen Prozessmuster werden in jedem Bauplanungsprozess dynamisch über geeignete Kopplungsmechanismen in das aktuelle Prozessmodell integriert, so dass die für den Bauplanungsprozess typischen Veränderungen der Konstruktion und der Zusammensetzung des Planungsteams im Prozessmodell berücksichtigt werden können. Dazu werden im Beitrag die bisherigen Ergebnisse der Analyse des Planungsprozesses eines großen innerstädtischen Bauvorhabens, das als Referenzobjekt dient, sowie typischer Planungsszenarien in der Geotechnik vorgestellt. Anschließend werden Grundlagen und methodische Ansätze zur Modellierung von Prozessen mit der Methode der farbigen Petri-Netze mit individuellen Marken vorgestellt. Anhand von Beispielen für bauteilorientierte Prozessmuster wird die Funktionalität der Prozessmuster in sich und im gegenseitigen Zusammenspiel erläutert
The technique of Acoustic travel-time TOMography (ATOM) allows for measuring the distribution of air temperatures throughout the entire room based on the determined sound-travel-times of early reflections, currently up to second order reflections. The number of detected early reflections in the room impulse response (RIR) which stands for the desired sound paths inside the room, has a significant impact on the resolution of reconstructed temperatures. This study investigates the possibility of utilizing an array of directional sound sources for ATOM measurements instead of a single omnidirectional loudspeaker used in the previous studies [1–3]. The developed measurement setup consists of two directional sound sources placed near the edge of the floor in the climate chamber of the Bauhaus-University Weimar and one omnidirectional receiver at center of the room near the ceiling. In order to compensate for the reduced number of sound paths when using directional sound sources, it is proposed to take high-energy early reflections up to third order into account. For this purpose, the simulated travel times up to third-order image sources were implemented in the image source model (ISM) algorithm, by which these early reflections can be detected effectively for air temperature reconstructions. To minimize the uncertainties of travel-times estimation due to the positioning of the sound transducers inside the room, measurements were conducted to determine the exact emitting point of the utilized sound source i.e. its acoustic center (AC). For these measurements, three types of excitation signals (MLS, linear and logarithmic chirp signals) with various frequency ranges were used considering that the acoustic center of a sound source is a frequency dependent parameter [4]. Furthermore, measurements were conducted to determine an optimum excitation signal based on the given condition of the ATOM measurement set-up which defines an optimum method for the RIR estimation correspondingly. Finally, the uncertainty of the measuring system utilizing an array of directional sound sources was analyzed.
Acoustic travel-time tomography (ATOM) determines the distribution of the temperature in a propagation medium by measuring the travel-time of acoustic signals between transmitters and receivers. To employ ATOM for indoor climate measurements, the impulse responses have been measured in the climate chamber lab of the Bauhaus-University Weimar and compared with the theoretical results of its image source model (ISM). A challenging task is distinguishing the reflections of interest in the reflectogram when the sound rays have similar travel-times. This paper presents a numerical method to address this problem by finding optimal positions of transmitter and receiver, since they have a direct impact on the distribution of travel times. These optimal positions have the minimum number of simultaneous arrival time within a threshold level. Moreover, for the tomographic reconstruction, when some of the voxels remain empty of sound-rays, it leads to inaccurate determination of the air temperature within those voxels. Based on the presented numerical method, the number of empty tomographic voxels are minimized to ensure the best sound-ray coverage of the room. Subsequently, a spatial temperature distribution is estimated by simultaneous iterative reconstruction technique (SIRT). The experimental set-up in the climate chamber verifies the simulation results.
The uncertainty existing in the construction industry is bigger than in other industries. Consequently, most construction projects do not go totally as planned. The project management plan needs therefore to be adapted repeatedly within the project lifecycle to suit the actual project conditions. Generally, the risks of change in the project management plan are difficult to be identified in advance, especially if these risks are caused by unexpected events such as human errors or changes in the client preferences. The knowledge acquired from different resources is essential to identify the probable deviations as well as to find proper solutions to the faced change risks. Hence, it is necessary to have a knowledge base that contains known solutions for the common exceptional cases that may cause changes in each construction domain. The ongoing research work presented in this paper uses the process modeling technique of Event-driven Process Chains to describe different patterns of structure changes in the schedule networks. This results in several so called “change templates”. Under each template different types of change risk/ response pairs can be categorized and stored in a knowledge base. This knowledge base is described as an ontology model populated with reference construction process data. The implementation of the developed approach can be seen as an iterative scheduling cycle that will be repeated within the project lifecycle as new change risks surface. This can help to check the availability of ready solutions in the knowledge base for the situation at hand. Moreover, if the solution is adopted, CPSP, “Change Project Schedule Plan „a prototype developed for the purpose of this research work, will be used to make the needed structure changes of the schedule network automatically based on the change template. What-If scenarios can be implemented using the CPSP prototype in the planning phase to study the effect of specific situations without endangering the success of the project objectives. Hence, better designed and more maintainable project schedules can be achieved.
We present recent developments of adaptive wavelet solvers for elliptic eigenvalue problems. We describe the underlying abstract iteration scheme of the preconditioned perturbed iteration. We apply the iteration to a simple model problem in order to identify the main ideas which a numerical realization of the abstract scheme is based upon. This indicates how these concepts carry over to wavelet discretizations. Finally we present numerical results for the Poisson eigenvalue problem on an L-shaped domain.
Major problems of applying selective sensitivity to system identification are requirement of precise knowledge about the system parameters and realization of the required system of forces. This work presents a procedure which is able to deriving selectively sensitive excitation by iterative experiments. The first step is to determine the selectively sensitive displacement and selectively sensitive force patterns. These values are obtained by introducing the prior information of system parameters into an optimization which minimizes the sensitivities of the structure response with respect to the unselected parameters while keeping the sensitivities with respect to the selected parameters as a constant. In a second step the force pattern is used to derive dynamic loads on the tested structure and measurements are carried out. An automatic control ensures the required excitation forces. In a third step, measured outputs are employed to update the prior information. The strategy is to minimize the difference between a predicted displacement response, formulated as function of the unknown parameters and the measured displacements, and the selectively sensitive displacement calculated in the first step. With the updated values of the parameters a re-analysis of selective sensitivity is performed and the experiment is repeated until the displacement response of the model and the actual structure are conformed. As an illustration a simply supported beam made of steel, vibrated by harmonic excitation is investigated, thereby demonstrating that the adaptive excitation can be obtained efficiently.
In engineering science the modeling and numerical analysis of complex systems and relations plays an important role. In order to realize such an investigation, for example a stochastic analysis, in a reasonable computational time, approximation procedure have been developed. A very famous approach is the response surface method, where the relation between input and output quantities is represented for example by global polynomials or local interpolation schemes as Moving Least Squares (MLS). In recent years artificial neural networks (ANN) have been applied as well for such purposes. Recently an adaptive response surface approach for reliability analyses was proposed, which is very efficient concerning the number of expensive limit state function evaluations. Due to the applied simplex interpolation the procedure is limited to small dimensions. In this paper this approach is extended for larger dimensions using combined ANN and MLS response surfaces for evaluating the adaptation criterion with only one set of joined limit state points. As adaptation criterion a combination by using the maximum difference in the conditional probabilities of failure and the maximum difference in the approximated radii is applied. Compared to response surfaces on directional samples or to plain directional sampling the failure probability can be estimated with a much smaller number of limit state points.
In this paper an adaptive heterogeneous multiscale model, which couples two substructures with different length scales into one numerical model is introduced for the simulation of damage in concrete. In the presented approach the initiation, propagation and coalescence of microcracks is simulated using a mesoscale model, which explicitly represents the heterogeneous material structure of concrete. The mesoscale model is restricted to the damaged parts of the structure, whereas the undamaged regions are simulated on the macroscale. As a result an adaptive enlargement of the mesoscale model during the simulation is necessary. In the first part of the paper the generation of the heterogeneous mesoscopic structure of concrete, the finite element discretization of the mesoscale model, the applied isotropic damage model and the cohesive zone model are briefly introduced. Furthermore the mesoscale simulation of a uniaxial tension test of a concrete prism is presented and own obtained numerical results are compared to experimental results. The second part is focused on the adaptive heterogeneous multiscale approach. Indicators for the model adaptation and for the coupling between the different numerical models will be introduced. The transfer from the macroscale to the mesoscale and the adaptive enlargement of the mesoscale substructure will be presented in detail. A nonlinear simulation of a realistic structure using an adaptive heterogeneous multiscale model is presented at the end of the paper to show the applicability of the proposed approach to large-scale structures.
Seit die Datenverarbeitung in ihrer Komplexität sich der Thematik des Computer Integrated Manufacturing widmet gehört die Produktionsplanung und Steuerung zu jenen Bereichen, in denen eine Computerunterstützung am vordringlichsten erschien. Später sind betriebswirtschaftliche Gesamtlösungen entstanden, die (bis heute recht unpräzise) als Enterprise Resource Planning (ERP)-Systeme bezeichnet werden und in ihren Logistik-Modulen auch Funktionen der Produktionsplanung abdecken. Alle bekannten MRP-, PPS- und auch ERP-Systeme beruhen auf einer Sukzessivplanung. Advanced Planning and Scheduling (APS) Systems finden seit etwa 1995 zunehmend Interesse. Neben Demand Planning, Production Planning and Scheduling, Distribution Planning, Transportation Planning und Supply Chain Planning werden Lösungen für Anzahl und Standorte von Produktionsstätten und Auslieferungslagern, Zuordnung zu Produktionsstätten, Kapazitätsbestimmung für Arbeitskräfte und Betriebsmittel je Standort, Lagerhaltung je Teil und Lager, Bestimmung benötigter Transportmittel und Häufigkeit ihres Einsatzes, Zuordnung von Lagern zu Produktionsstätten von Märkten zu Lagern u.a.m. von APS-Systemen erwartet. D.h. APS-Systeme ergänzen ERP-Lösungen, nutzen die bereits durch das ERP-System vorhandenen Daten und benötigen neuartige Algorithmen und (Meta-) Heuristiken. Im Rahmen des Vortrages werden Modelle und Echtzeitalgorithmen zur Optimierung der Logistik für Prozesse mit kurzfristigen Anforderungen, geographisch verteilter Produktion, Lagerhaltung der Ausgangs-, Zwischen- und Endprodukte und wechselnden Transport-Bedingungen aus der Sicht der praktischen Umsetzung und Anwendung in Form einer ASP-Lösung aufgezeigt und diskutiert.
For the dynamic behavior of lightweight structures like thin shells and membranes exposed to fluid flow the interaction between the two fields is often essential. Computational fluid-structure interaction provides a tool to predict this interaction and complement or eventually replace expensive experiments. Partitioned analyses techniques enjoy great popularity for the numerical simulation of these interactions. This is due to their computational superiority over simultaneous, i.e. fully coupled monolithic approaches, as they allow the independent use of suitable discretization methods and modular analysis software. We use, for the fluid, GLS stabilized finite elements on a moving domain based on the incompressible instationary Navier-Stokes equations, where the formulation guarantees geometric conservation on the deforming domain. The structure is discretized by nonlinear, three-dimensional shell elements.
Commonly used sequential staggered coupling schemes may exhibit instabilities due to the so-called artificial added mass effect. As best remedy to this problem subiterations should be invoked to guarantee kinematic and dynamic continuity across the fluid-structure interface. Since iterative coupling algorithms are computationally very costly, their convergence rate is very decisive for their usability. To ensure and accelerate the convergence of this iteration the updates of the interface position are relaxed. The time dependent, 'optimal' relaxation parameter is determined automatically without any user-input via exploiting a gradient method or applying an Aitken iteration scheme.
This ethnographic study reports on emerging work processes and practices observed in the AEC (Architecture/Engineering/Construction) Global Teamwork program, i.e., what people experience when interacting with and through collaboration technologies, why people practice in the way they do, how the practice fits into the environment and changes the work patterns. It presents the experience of two high-performance typical but extreme AEC teamwork cases adopting and adapting to collaboration technologies and how these technologies in practice impact their work processes. The findings illustrate the importance of collaboration technologies in cross-disciplinary, global teamwork. Observations indicate that high performance teams that use the collaboration technologies effectively exhibit collaboration readiness at an early stage and manage to define a “third way” to meet the demands of the cross-disciplinary, multi cultural and geographically distributed AEC workspace. The observations and implications represent the blueprint for yearly innovations and improvements to the design of the AEC Global Teamwork program.
Die heutige Situation in der Tragwerksplanung ist durch das kooperative Zusammenwirken einer größeren Anzahl von Fachleuten verschiedener Disziplinen (Architektur, Tragwerksplanung, etc.) in zeitlich befristeten Projektgemeinschaften gekennzeichnet. Bei der Abstimmung der hierdurch bedingten komplexen, dynamischen und vernetzten Planungsprozesse kommt es dabei häufig zu Planungsmängeln und Qualitätseinbußen. Dieser Artikel zeigt auf, wie mit Hilfe der Agententechnologie Lösungsansätze zur Verbesserung der Planungssituation erreicht werden können. Hierzu wird ein Agentenmodell für die vernetzt-kooperative Tragwerksplanung vorgestellt und anhand der Planung einer Fußgängerbogenbrücke anschaulich demonstriert. Das Agentenmodell erfasst (1) die beteiligten Fachplaner und Organisationen, (2) die tragwerksspezifischen Planungsprozesse, (3) die zugehörigen (Teil-)Produktmodelle und (4) die genutzte (Ingenieur-)Software. Hieraus leiten sich die drei Teilmodelle (1) agentenbasiertes Kooperationsmodell, (2) agentenbasierte Produktmodellintegration und (3) Modell zur agentenbasierten Software-Integration ab. Der Fokus des Artikels liegt auf der Darstellung des agentenbasierten Kooperationsmodells.
Im Rahmen des Sonderforschungsbereiches 524 <Werkstoffe und Konstruktionen für die Revitalisierung von Bauwerken 1> ist das primäre Anliegen des Teilprojektes D2 <Bauplanungsrelevantes digitales Gebäudeaufnahme- und Informationssystem> die Entwicklung von Methoden und Techniken zur Aufnahme von Bestandsdaten vor Ort oder durch Auswertung vorhandener Dokumentationen und deren direkte Integration in ein Bauwerksmodell. [15] Das Vorhaben erarbeitet Grundlagen zu Aspekten der fachplanerischen Nutzung und der wissenschaftlichen Auswertungen arbeitsmethodischer Vorgehensweisen in der Bestandsaufnahme unter Einbeziehung softwaretechnischer Methoden. Dabei finden Sachverhalte der Strukturierung, die Herausarbeitung von Systematiken der wesentlichen Informations-/Datenmengen, die Ableitung von Methoden zur zerstörungsfreien Erfassung und die Darstellung planungsrelevanter Gebäudeinformationen in digitalen Systemen Berücksichtigung. Beim Bauaufmaß werden neben traditionellen Methoden und Techniken längst geodätische Verfahren wie die Tachymetrie, die Photogrammetrie und die Handlaserentfernungsmessung einbezogen. In der Praxis des Bestandsaufmaßes repräsentiert gegenwärtig die Tachymetrie, das am häufigsten zur Innen- und Außenaufnahme von Gebäuden eingesetzte geodätische Vermessungsverfahren. [9] [3] Ausgehend von der heutigen Situation in der Bestandsaufnahme wird aufgezeigt, inwieweit es nach dem gegenwärtigen Stand der Technik möglich ist, die in der Geodäsie verwendeten Tachymeter direkt in der Bestandsaufnahme einzusetzen. In einem weiteren Schwerpunkt wird die Konzeption eines rechnergestützten Bauaufnahmesystems basierend auf reflektorlos messenden tachymetrischen Geräten beschrieben. Das Konzept berücksichtigt nicht nur das Bauaufmaß, sondern unterstützt adäquat den gesamten Prozeß der Bauaufnahme – von der Erstbegehung bis hin zur konstruktiven Gliederung. Abschließend werden tendenzielle Möglichkeiten in der Bauaufnahme diskutiert.
We present an algebraically extended 2D image representation in this paper. In order to obtain more degrees of freedom, a 2D image is embedded into a certain geometric algebra. Combining methods of differential geometry, tensor algebra, monogenic signal and quadrature filter, the novel 2D image representation can be derived as the monogenic extension of a curvature tensor. The 2D spherical harmonics are employed as basis functions to construct the algebraically extended 2D image representation. From this representation, the monogenic signal and the monogenic curvature signal for modeling intrinsically one and two dimensional (i1D/i2D) structures are obtained as special cases. Local features of amplitude, phase and orientation can be extracted at the same time in this unique framework. Compared with the related work, our approach has the advantage of simultaneous estimation of local phase and orientation. The main contribution is the rotationally invariant phase estimation, which enables phase-based processing in many computer vision tasks.
Mikroelektronik und Mikrosystemtechnik in Kombination mit Informations- und Kommunikations-technik erlauben es mittlerweile, Rechenleistung und Kommunikationsfähigkeit in kleinsten Formaten, mit geringsten Energien und zu günstigen Preisen nutzbringend in unser privates und berufliches Umfeld einzubringen. Beispiele sind Notebook-PC, PDA, Handy und das Navigationßystem im Auto. Aber auch eingebettete Elektronik in Komponenten, Geräten und Systemen ist nunmehr zur Selbstverständlichkeit geworden. Bekannte Beispiele aus der Haustechnik sind Mikroprozeßoren in Heizungs- und Alarmanlagen und aber auch in Komponenten wie Brand- und Bewegungsmelder. Wir nähern uns dem vor einigen Jahren noch als Vision bezeichneten Zustand der überall vorhandenen elektronischen Rechenleistung (engl. ubiquitous computing) bzw. des von Informationsverarbeitung durchdrungenen täglichen Umfelds (engl. pervasive computing). Werden die TGA-Komponenten genau wie die größeren Computerkomponenten (z.B. PCs, Server) über Datenschnittstellen zu räumlich verteilten Netzwerken verknüpft (z.B. Internet, Intranet) und mit einer systemübergreifenden und adäquaten Intelligenz (Software) programmiert, so können neuartige Funktionalitäten im jeweiligen Anwendungsumfeld (engl. ambient intelligence, kurz AmI, [1]) entstehen. Hier liegt bei Gebäuden und Räumen speziell eine große Chance, die bislang einer ganzheitlichen Systemkonzeption unter Einschluß von Architektur, Gebäudephysik, technischer Gebäudeausrüstung (TGA) und Gebäudeautomation (GA) im Wege stehende Gewerketrennung zu überwinden. Es entstehen für div. Anwendungszwecke systemisch integrierte >smart areas< (nach Prof. Becker, FH Biberach). Im vorliegenden Beitrag erläuterte Beispiele für AmI-Lösungen im Immobilienbereich sind Raumsysteme zur automatischen und sicheren Erkennung von Notfällen, z.B. in Pflegeheimen; sich automatisch an die Nutzung und den Nutzer bzgl. Klima und Beleuchtung adaptierende Raumsysteme im Büro- oder Hotelbereich und die elektronische Aßistenz des Bau- und Betriebsprozeßes von Gebäuden. Im Duisburger inHaus-Innovationszentrum für Intelligente Raum- und Gebäudesysteme der Fraunhofer-Gesellschaft wurden in den letzten Jahren erste Lösungen mit diesem neuartigen Ansatz konzipiert, entwickelt und erprobt. Der Beitrag beschreibt nach einer kurzen Skizzierung des Ambient-Intelligence-Ansatzes an Beispielen Möglichkeiten für den Transfer dieser neuen Technologie in den Raum- und Gebäudebereich. Es folgt eine abschließende Zusammenfaßung und eine Einschätzung der Zukunftspotenziale der Ambient Intelligence in Raum und Bau.
Low-skilled labor makes a significant part of the construction sector, performing daily production tasks that do not require specific technical knowledge or confirmed skills. Today, construction market demands increasing skill levels. Many jobs that were once considered to be undertaken by low or un-skilled labor, now demand some kind of formal skills. The jobs that require low skilled labor are continually decreasing due to technological advancement and globalization. Jobs that previously required little or no training now require skilful people to perform the tasks appropriately. The study aims at ameliorating employability of less skilled manpower by finding ways to instruct them for performing constructions tasks. A review of exiting task instruction methodologies in construction and the underlying gaps within them warrants an appropriate way to train and instruct low skilled workers for the tasks in construction. The idea is to ensure the required quality of construction with technological and didactic aids seeming particularly purposeful to prepare potential workers for the tasks in construction without exposing them to existing communication barriers. A BIM based technology is considered promising along with the integration of visual directives/animations to elaborate the construction tasks scheduled to be carried on site.
The application of a recent method using formal power series is proposed. It is based on a new representation for solutions of Sturm-Liouville equations. This method is used to calculate the transmittance and reflectance coefficients of finite inhomogeneous layers with high accuracy and efficiency. Tailoring the refraction index profile defining the inhomogeneous media it is possible to develop very important applications such as optical filters. A number of profiles were evaluated and then some of them selected in order to perform an improvement of their characteristics via the modification of their profiles.
The conceptual structure of an application that can support the structural analysis task in a distributed collaboratory is described in (van Rooyen and Olivier 2004). The application described there has a standalone component for executing the finite element method on a local workstation in the absence of network access. This application is comparable to current, local workstation based finite element packages. However, it differs fundamentally from standard packages since the application itself, and its objects, are adapted to support distributed execution of the analysis task. Basic aspects of an object-oriented framework for the development of applications which can be used in similar distributed collaboratories are described in this paper. An important feature of this framework is its application-centred design. This means that an application can contain any number of engineering models, where the models are formed by the collection of objects according to semantic views within the application. This is achieved through very flexible classes Application and Model, which are described in detail. The advantages of the application-centred design approach is demonstrated with reference to the design of steel structures, where the finite element analysis model, member design model and connection design model interact to provide the required functionality.
The promise of lower costs for sensors that can be used for construction inspection means that inspectors will continue to have new choices to consider in creating inspection plans. However, these emerging inspection methods can require different activities, resources, and decisions such that it can be difficult to compare the emerging methods with other methods that satisfy the same inspection needs. Furthermore, the context in which inspection is performed can significantly influence how well certain inspection methods are suited for a given set of goals for inspection. Context information, such as weather, security, and the regulatory environment, can be used to understand what information about a component should be collected and how an inspection should be performed. The research described in this paper is aimed at developing an approach for comparing and selecting inspection plans. This approach consists of (1) refinement of given goals for inspection, if necessary, in order to address any additional information needs due to a given context and in order to reach a level of detail that can be addressed by an inspection activity; (2) development of constraints to describe how an inspection should be achieved; (3) matching of goals to available inspection methods, and generation of activities and resource plans in order to address the goals; and (4) selection of an inspection plan from among the possible plans that have been identified. The authors illustrate this approach with observations made at a local construction site.
Recent research shows that current learning strategies in construction industry have not been effective in implementing lean principles in construction. With that in mind the researchers set to investigate an alternative learning strategy in order to promote learning at the international level. A web-based environment, was developed for this project with the intent of promoting learning and knowledge exchange on the theory and practice of "process transparency" across different countries.
There are many construction projects in China and mass documents are exchanged among the multi-party, including the owner, the contractor and the engineer in the projects. Based on previous studies, an approach to the utilization of the exchanged documents is established by using data warehouse technology and a prototype system called EXPLYZER is developed. The approach and the prototype system are verified through their application in a construction project. It is concluded that the approach can support the decision-making in project management.
In the context of finite element model updating using vibration test data, natural frequencies and mode shapes are used as validation criteria. Consequently, the order of natural frequencies and mode shapes is important. As only limited spatial information is available and noise is present in the measurements, the automatic selection of the most likely numerical mode shape corresponding to a measured mode shape is a difficult task. The most common criterion to indicate corresponding mode shapes is the modal assurance criterion. Unfortunately, this criterion fails in certain cases. In this paper, the pure mathematical modal assurance criterion will be enhanced by additional physical information of the numerical model in terms of modal strain energies. A numerical example and a benchmark study with real measured data are presented to show the advantages of the enhanced energy based criterion in comparison to the traditional modal assurance criterion.
This paper examines the impact of information technology (IT) utilization on construction firm performance. Based on empirical data collected from 74 US construction firms, the analyses provide evidence that IT has a positive impact on overall firm performance, schedule performance, and cost performance. Firm performance is a composite score of several metrics of performance: schedule performance, cost performance, customer satisfaction, safety performance, and profit. No relationship is found between IT utilization and customer satisfaction, safety, or profit, although this may be due to limitations of the study given strong correlations between IT utilization and cost and schedule performnance. The empirical evidence of positive association between performance and IT use provided by this research is significant to both construction practice and research literature. This evidence should encourage firms to adopt and invest in IT tools.
The modeling of crack propagation in plain and reinforced concrete structures is still a field for many researchers. If a macroscopic description of the cohesive cracking process of concrete is applied, generally the Fictitious Crack Model is utilized, where a force transmission over micro cracks is assumed. In the most applications of this concept the cohesive model represents the relation between the normal crack opening and the normal stress, which is mostly defined as an exponential softening function, independently from the shear stresses in tangential direction. The cohesive forces are then calculated only from the normal stresses. By Carol et al. 1997 an improved model was developed using a coupled relation between the normal and shear damage based on an elasto-plastic constitutive formulation. This model is based on a hyperbolic yield surface depending on the normal and the shear stresses and on the tensile and shear strength. This model also represents the effect of shear traction induced crack opening. Due to the elasto-plastic formulation, where the inelastic crack opening is represented by plastic strains, this model is limited for applications with monotonic loading. In order to enable the application for cases with un- and reloading the existing model is extended in this study using a combined plastic-damage formulation, which enables the modeling of crack opening and crack closure. Furthermore the corresponding algorithmic implementation using a return mapping approach is presented and the model is verified by means of several numerical examples. Finally an investigation concerning the identification of the model parameters by means of neural networks is presented. In this analysis an inverse approximation of the model parameters is performed by using a given set of points of the load displacement curves as input values and the model parameters as output terms. It will be shown, that the elasto-plastic model parameters could be identified well with this approach, but require a huge number of simulations.
This paper describes a research project that addresses the difficulties in dealing with regulatory documents such as national and regional codes. These documents tend to be voluminous, heavily cross-referenced, possibly ambiguous and even conflicting at times. There are often multiple documents that need to be consulted and satisfied; however it is a difficult task to locate all of the relevant provisions. In addition, sections dealing with the same or similar conceptual ideas sometimes lay down conflicting requirements. We propose a framework for regulation representation, analysis and comparison with emphasis on the extraction of similarities between provisions. We focus on accessibility regulations, whose intent is to provide the same or equivalent access to a building and its facilities for disabled persons. An XML regulatory repository is developed to extract structural as well as non-structural features from government regulations to help user understanding and computational analysis. A similarity analysis is performed between different sources of regulations. In order to achieve a better comparison between provisions, we employ a combination of feature matching and structural analysis. Results are shown on comparisons between American and European codes, as well as on the domain of electronic-rulemaking.
The general motivation of this research is to develop software to support the handling of the increased complexity of architectural design. In this paper we describe a system providing general support during the whole process. Instead of only developing design tools we are also addressing the problem of the operating environment of these tools. We conclude that design tools have to be integrated in an open, modular, distributed, user friendly and efficient environment. Two major fields have to be addressed - the development of design tools and the realisation of an integrated system as their operation environment. We will briefly focus on the latter by discussing known technologies in the field of information technology and other design disciplines that can be used to realise such an environment. Regarding the first subject we have to state the need of a detailed tool specification. As a solution we suggest a strategy where the tool functions are specified on the basis of a transformation, where a hierarchical process model is mapped into specifications of different design tools realising appropriate support for all sub-processes of architectural design. Using this strategy the main steps to develop such a support system are: implementation of a framework as basis for the integrated design system decision whether the tool specification are already implemented in available tools in this case these tools can be integrated using known methods for tool coupling otherwise new design tools have to be developed according to the framework
Analysis of the reinforced concrete chimney geometry changes and their influence on the stresses in the chimney mantle was made. All the changes were introduced to a model chimney and compared. Relations between the stresses in the mantle of the chimney and the deformations determined by the change of the chimney's vertical axis geometry were investigated. The vertical axis of chimney was described by linear function (corresponding to the real rotation of the chimney together with the foundation), and by parabolic function (corresponding to the real dislocation of the chimney under the influence of the horizontal forces - wind). The positive stress pattern in the concrete as well as the negative stress pattern in the reinforcing steel have been presented. The two cases were compared. Analysis of the stress changes in the chimney mantle depending on the modification in the thickness of the mantle (the thickness of the chimney mantle was altered in the linear or the abrupt way) was carried out. The relation between the stresses and the chimney's diameter change from the bottom to the top of the chimney was investigated. All the analyses were conducted by means of a specially developed computer program created in Mathematica environment. The program makes it also possible to control calculations and to visualize the results of the calculations at every stage of the calculation process.
The paper gives a general overview and concerns with a specified set of computer-aided analysis modules for hybrid structures loaded by extreme excitations. All problems are solved by methods of linear, quadratic or nonlinear mathematical optimization, that leads to very effective and economic design solutions. All approaches are derived from general optimization problem that can be easily altered to conform to specific design tasks. Some advantages and possibilities of hybrid structural modeling (single or mixed model-supported) are discussed. The methods will be illustrated by an example structure and optimization schemes.
The steel structure design codes require to check up the member strength when evaluating plastic deformations. The model of perfectly plastic material is accepted. The strength criteria for simple cross-sections (I section, etc.) of steel members are given in design codes. The analytical strength criteria for steel cross-sections and numerical approaches based on stepwise procedure are investigated in many articles. Another way for checking the carrying capacity of cross-sections is the use of methods that are applied for defining strain-deformed state of elastic perfectly plastic systems. In this paper non-iterative methods are suggested for checking strength of cross-sections. Carrying capacity of cross section is verified according to extremum principle of plastic fail under monotonically loading and the strain-deformed state of cross-section is defined according to extremum energy principals of elastic potential of residual stresses and complementary work of residual displacements. The mathematical expressions of these principals for discrete cross-section are formulated as problems of convex mathematical programming. The cross-section of steel member using finite element method is divided into free form plane elements. The constant distribution of stresses along the finite element is accepted. The relationships of finite elements for static formulation of the problem are formed so, that kinematics formulation relationships could be obtained in a formal way using the theory of duality. Numerical examples of determination of cross-section strength, composition of interactive curves and composition of moment-curvature curves for different axial force levels are presented.
Steel profiles with slender cross-sections are characterized by their high susceptibility to instability phenomena, especially local buckling, which are intensified under fire conditions. This work presents a study on numerical modelling of the behaviour of steel structural elements in case of fire with slender cross-sections. To accurately carry out these analyses it is necessary to take into account those local instability modes, which normally is only possible with shell finite elements. However, aiming at the development of more expeditious methods, particularly important for analysing complete structures in case of fire, recent studies have proposed the use of beam finite elements considering the presence of local buckling through the implementation of a new effective steel constitutive law. The objective of this work is to develop a study to validate this methodology using the program SAFIR. Comparisons are made between the results obtained applying the referred new methodology and finite element analyses using shell elements. The studies were made to laterally restrained beams, unrestrained beams, axially compressed columns and columns subjected to bending plus compression.
A numerical analysis of the mode of deformation of the main load-bearing components of a typical frame sloping shaft headgear was performed. The analysis was done by a design model consisting of plane and solid finite elements, which were modeled in the program «LIRA». Due to the numerical results, the regularities of local stress distribution under a guide pulley bearing were revealed and parameters of a plane stress under both emergency and normal working loads were determined. In the numerical simulation, the guidelines to improve the construction of the joints of guide pulleys resting on sub-pulley frame-type structures were established. Overall, the results obtained are the basis for improving the engineering procedures of designing steel structures of shaft sloping headgear.
This paper presents two new methods for analysis of a technical state of large-panel residential buildings. The first method is based on elements extracted from the classical methods and on data about repairs and modernization collected from building documentations. The technical state of a building is calculated as a sum of several groups of elements defining the technical state. The deterioration in this method depends on: - time, which has passed since last repair of element or time which has passed since construction, - estimate of the state of element groups which can be determined on basis of yearly controls. This is a new unique method. it is easy to use, does not need expertise. The required data could be extracted easily from building documentations. For better accuracy the data from building inspections should be applied (in Poland inspections are made every year). The second method is based on the extracted data processing by means of the artificial neural networks. The aim is to learn the artificial neural network configurations for a set of data containing values of the technical state and information about building repairs for last years (or other information and building parameters) and next to analyse new buildings by the instructed neural network. The second profit from using artificial neural networks is the reduction of number of parameters. Instead of more then 40 parameters describing building, about 6-12 are usually sufficient for satisfactory accuracy. This method could have lower accuracy but it is less prone to data errors.
Procedures of a construction of general solutions for some classes of partial differential equations (PDEs) are proposed and a symmetry operators approach to the raising the orders of the polynomial solutions to linear PDEs are develops. We touch upon an ''operator analytic function theory'' as the solution of a frequent classes of the equations of mathematical physics, when its symmetry operators forms vast enough space. The MAPLE© package programs for the building the operator variables is elaborated also.
Petri-Netze und deren Erweiterungen stellen ein leistungsfähiges Instrument zur Model-lierung, Simulation und Animation von Systemen bzw. Prozessen dar. Mathematische Methoden die sowohl analytisch beschreibbar als auch graphisch darstellbar sind, wie z. B. Warteschlangenprobleme, Netzpläne, Suche optimaler Wege in Netzen bzw. Dynamische Optimierung, können mit Hilfe von Petri-Netzen modelliert werden. Werden Petri-Netze zur graphischen Darstellung gewählt, so können die Stellen (passive Knoten) mit Markenverweilzeiten sowie die Transitionen (aktive Knoten) mit Schaltzeiten belegt werden. Für die Zeiten sind deterministische bzw. stochastische Größen einsetzbar. Wird dem Gesamtnetz eine zentrale Uhr und den einzelnen zeitbehafteten Knoten jeweils eine lokale Uhr zugeordnet, so lassen sich die Prozeßabläufe mittels Animation sichtbar machen. Ein an der Professur Computergestützte Techniken entwickeltes Programmsystem dient zur Demonstration der einzelnen Probleme. In anschaulicher Weise kann damit das Ver-ständnis für die genannten Methoden sowie die mit ihrer Hilfe dargestellten Prozesse erleichtert werden.
Die technische Entwicklung, insbesondere auf dem Gebiet der Digitaltechnik eröffnet heute neue und sehr weitreichende Möglichkeiten für die Automatisierung in Zweck- und Wohnbauten. Die zur Verfügung stehenden technischen Komponenten (intelligente Sensoren und Aktoren sowie ein hausinternes Netz für die Datenübertragung -Feldbus-) unterscheiden sich für diese Einsatzfälle kaum. Die Zielstellungen sind jedoch gänzlich andere. Intelligenz im Wohnbau bedeutet vor allem intelligente Alltagsbewältigung (z.B. Zeiteinsparung), Komfort und Wohlbefinden. Daß im Heimbereich nichtfunktionale Faktoren (Human Interface, Ästhetik, Preis, Attraktivität) eine große Rolle spielen, ist in das Problembewußtsein der Gerätehersteller und Käufer getreten. Im Bereich der Heimautomatisierung werden zunehmend moderne, die Möglichkeiten der konventioellen Steuerungs- und Regelungstechnik ergänzende Technologien wie Fuzzy- Steuerungen zur Optimierung der internen Arbeitsweise von Geräten eingesetzt. Die informatorische Vernetzung im Wohnbau unterstützt darüberhinaus wichtige Anliegen des Gebäudemanagements (energetische, ergonomische und ökologische Betrachtungen der Gebäudenutzung unter wirtschaftlichen Gesichtspunkten).
Die technische Entwicklung, insbesondere auf dem Gebiet der Digitaltechnik eröffnet heute neue und sehr weitreichende Möglichkeiten für die Automatisierung in Zweck- und Wohnbauten. Die zur Verfügung stehenden technischen Komponenten (intelligente Sensoren und Aktoren sowie ein hausinternes Netz für die Datenübertragung -Feldbus-) unterscheiden sich für diese Einsatzfälle kaum. Die Zielstellungen sind jedoch gänzlich andere. Intelligenz im Wohnbau bedeutet vor allem intelligente Alltagsbewältigung (z.B. Zeiteinsparung), Komfort und Wohlbefinden. Daß im Heimbereich nichtfunktionale Faktoren (Human Interface, Ästhetik, Preis, Attraktivität) eine große Rolle spielen, ist in das Problembewußtsein der Gerätehersteller und Käufer getreten. Im Bereich der Heimautomatisierung werden zunehmend moderne, die Möglichkeiten der konventioellen Steuerungs- und Regelungstechnik ergänzende Technologien wie Fuzzy- Steuerungen zur Optimierung der internen Arbeitsweise von Geräten eingesetzt. Die informatorische Vernetzung im Wohnbau unterstützt darüberhinaus wichtige Anliegen des Gebäudemanagements (energetische, ergonomische und ökologische Betrachtungen der Gebäudenutzung unter wirtschaftlichen Gesichtspunkten).
In den zurückliegenden Jahren wurden an der Professur Massivbau I umfangreiche Untersuchungen zur Modellbildung und rechnerischen Erfassung des Tragverhaltens von Tragwerken und Tragwerkselementen aus Stahlbeton und Spannbeton unter Berücksichtigung von Rißbildungen und Plastizierungen durchgeführt. Diesen Untersuchungen liegt als einheitliches methodisches Konzept der mathematischen Problembeschreibung und Problemlösung die mathematische Optimierung zugrunde. Bereits anläßlich des IKM 1994 [1] hatte der Verfasser Gelegenheit, zusammenfassend über Ergebnisse bei der Anwendung der mathematischen Optimierung im Bereich der nichtlinearen Tragwerksanalyse zu berichten. Der vorliegende Beitrag, soll einen Überblick über seitdem untersuchte Problemkreise und dabei gewonnene Ergebnisse und Erfahrungen vermitteln. Bei der Anwendung der linearen und quadratischen Optimierung sind wegen der geforderten Linearität der Nebenbedingungen Vereinfachungen bei der Modellbildung des stahlbetonspezifischen Tragverhaltens unumgänglich. Besonders betroffen sind die Ansätze zur Beschreibungen des Materialverhaltens. Durch den Einsatz allgemeiner nichtlinearer mathematischer Optimierungsmethoden lässt sich eine methodisch bedingte Linearisierung des Berechnungsmodells umgehen....
Moderne Bemessungskonzepte für seismisch beanspruchte Hochbauten, wie die Methode der Kapazitäts-bemessung, planen inelastisches Verhalten einzelner Bereiche der Konstruktion beim Entwurf bewußt ein, um so einen Teil der durch das Beben eingetragenen Energie als inelastische Formänderungsarbeit zu absorbieren. Wird bei Akzeptanz inelastischen Verhaltens eine bestimmte Belastungsintensität, die als adaptive Grenzlast oder Einspiellast bezeichnet wird, überschritten, kann es infolge zyklischer Einwirkungen zu einer unbe-grenzten Akkumulation inelastischer Deformationen kommen. Die adaptive Grenzlast stellt damit für zyklische Einwirkungen eine geeignete Kenngröße zur Bewertung der Tragwerksqualität dar, bei der neben der Sicherung des Gleichgewichts ein bestimmtes Schädigungsniveau nicht überschritten wird. Im vorliegenden Beitrag werden die Grundzüge eines Bemessungs- und Nachweiskonzeptes für seismisch beanspruchte Stahlbetontragwerke, das unter Einbeziehung der Grundprinzipe der Kapazitätsbemessung von einem einheitlichen Kriterium zur Beschreibung des Grenzzustandes der Tragfähigkeit auf der Basis der adaptive Grenzlast ausgeht, vorgestellt. Dabei ist die Abschätzung der Verformungen notwendiger Bestandteil des Nachweis- bzw. Bemessungskonzeptes. Bei Druckgliedern ist die Berücksichtigung des Einflusses der Verformungen notwendiger Bestandteil des Bemessungskonzeptes. Entsprechende Erweiterungen der Berechnungsmodelle zur Berücksichtigung des Einflusses geometrisch nichtlinearer Effekte im Sinne einer Theorie II. Ordnung werden vorgestellt.
Für die Ausführung des Oberbaus von Verkehrsflächen existiert in Abhängigkeit von projektspezifischen Voraussetzungen eine Vielzahl von verschiedenen Varianten. Aufgrund von Erfahrungen der Projektplaner werden bei ähnlichen Voraussetzungen häufig gleichartige Ausführungsvarianten gewählt. Um eine mögliche Lösungsvariante für den Straßenoberbau zu erhalten, sollten daher nicht nur die gesetzlichen Richtlinien sondern auch bereits beendete Projekte berücksichtigt werden. Im Rahmen eines Wissenschaftlichen Kollegs an der Bauhaus-Universität Weimar wurde die Anwendung des Case-Based Reasoning für die Auswahl von Ausführungsvarianten für den Straßenoberbau untersucht. In diesem Beitrag werden die grundlegenden Konzepte des Case-Based Reasoning und die Bestimmung von ähnlichen Varianten anhand einfacher Beispiele aus dem Straßenoberbau dargestellt.
Bei Analysen des Gebäudebestands im Quartierskontext werden zu Dokumentationszwecken viele Bilddaten erzeugt. Diese Daten sind im Nachhinein häufig keinen eindeutig genauen Standorten und Blickwinkeln auf das Bauwerk zuzuordnen. Insbesondere gilt dies für Ortsunkundige oder für Detailaufnahmen. Eine zusätzliche Herausforderung stellt die Aufnahme von Wärmebrücken- oder andersartigen Gebäudedetails durch Thermogramme dar. In der Praxis kommen hier oftmals analoge, fehleranfällige Lösungen zum Einsatz.
Durch die Nutzung von Georeferenzierung kann diese Lücke geschlossen und eine eindeutige Kommunikation und Auswertung gewährleistet werden. Im Gegensatz zu den üblichen Kameras sind Smartphones nach Stand der Technik ausreichend ausgestattet, um neben Daten zu Standort auch die Orientierungswinkel einer Bildaufnahme zu dokumentieren. Die georefenzierten Bilder können auf Grundlage der in den sogenannten Exif-Daten mitgeschriebenen Informationen händisch in ein bestehendes Quartiersmodell integriert werden.
Anhand eines universitären Musterquartiers wird die nutzerfreundliche Realisierung beispielhaft erprobt und auf ihre Potentiale zur Automatisierung in Python untersucht. Hierfür wurde ein bestehendes Quartiersmodell als geometrische Grundlage genutzt und um RGB-Bilder sowie Thermogramme erweitert. Das beschriebene Vorgehen wird im Rahmen der Anwendung auf seinen möglichen Einsatz im Rahmen einer energetischen Quartierserfassung sowie einer Bauschadensdokumentation untersucht.
Mit dem vorliegenden Beitrag wird dem Nutzenden ein Werkzeug bereitgestellt, das die hochwertige Dokumentation einer Bestandserfassung, auch im Quartierskontext, ermöglicht.
Die Einführung von neuen Informations- und Kommunikationstechniken in Klein- und Mittelständische Unternehmen (hier: kleine und mittlere Planungsbüros im Bauwesen) ist mit speziellen Problemen behaftet. Erfahrungswerte liegen nur in größeren und zumeist fachfremden Firmen vor. Neben den eigentlichen Sicherheitsrisiken (Thematik Internet), Verständnisschwierigkeiten und daraus resultierenden Akzeptanzproblemen fehlt beim Einsatz dieser neuen Techniken die Verbindung zum Ablauf in projektbasiert arbeitenden Unternehmen. Der Begeisterung und Euphorie durch den Einsatz neuer Technik stehen Änderungen des eigenen Arbeitsstiles und ein anfänglicher Mehraufwand entgegen. Ein Schwerpunktthema der eigenen Forschungsarbeiten sind die Ermittlung und Validierung von Kriterien für die Einführung neuer IuK-Techniken speziell in kleineren und mittleren Planungsbüros. In einer fortschreitenden Reihe von Arbeiten am Fachbereich wurden und werden nacheinander die genannten Problematiken und Aspekte in Angriff genommen. Dabei werden neben der Kategorisierung von Anwendungsszenarien und Vorstellung der einzelnen, empfehlenswerten Techniken einzelne Konzepte am Fachbereich und in Zusammenarbeit mit Ingenieurbüros überprüft. Der Beitrag möchte in Ergänzung zu bereits gelaufenen Arbeiten als Empfehlung oder Leitfaden für Planungsbüros auf die Machbarkeit neuer Techniken und einige nötige Randbedingungen eingehen.
All construction project are constrained by their schedules, budgets and specifications, and safety and environmental regulations. These constraints made construction management more complex and difficult. At the same time, many historical data that can support the decisions in the future are kept in construction enterprises,. To use the historical data effectively and efficiently, it is essential to apply the data warehouse and data mining technologies. This paper introduces a research which aims to develop a data warehouse system according to the requirements of construction enterprises and use data mining technology to learn useful information and knowledge from the data warehouse system. The design, the development and the application of this system are detailedly introduced in this paper.
A fuzzy logic controller - WNC (Water Network Control) was developed for control of urban drainage systems. The objectives are to avoid accidents, flooding, pollutions through combined sewer overflows and excessive operation and maintenance costs. Fuzzy logic was proved to be a promising approach, flexible and easy accepted, because it includes the expert knowledge. Fuzzy control system proposed is robust and also easy to understand and modified. It offers to the operator the possibility to participate directly in the system control, combining the results of the modern optimization techniques with the experience and knowledge accumulated in time by experts. Thus, the control of urban sewer system can be well solved by implementing an intelligent control system, based on available information (fuzzy) and on expert's experience. An important feature of this fuzzy logic system is its capability to elaborate a control decision even in situations that were not considered in the design phase of the urban network.
Geotechnical constructions are sophisticated structures due to the non-linear soil behaviour and the complex soil-structure interaction, which entails great exigencies on the liable engineer during the design process. The process can be schematised as a difficult and, depending on the opportunities and skills of the processor more or less innovative, creative and heuristic search for one or a multiple of defined objectives under given boundary conditions. Wholistic approaches including numerical optimisation which support the constructing engineer in this task do not currently exist. Abstract problem formulation is not state of the art; commonly parameter studies are bounded by computational effort. Thereby potential regarding cost effectiveness, construction time, load capacity and/or serviceability are often used insufficiently. This paper describes systematic approaches for comprehensive optimisation of selected geotechnical constructions like combined pile raft foundations and quay wall structures. Several optimisation paradigms like the mono- and the multi-objective optimisation are demonstrated and their use for a more efficient design concerning various intentions is shown in example. The optimisation is implemented by using Evolutionary Algorithms. The applicability to geotechnical real world problems including nonlinearities, discontinuities and multi-modalities is shown. The routines are adapted to common problems and coupled with conventional analysis procedures as well as with numerical calculation software based on the finite element method. Numerical optimisation of geotechnical design using efficient algorithms is able to deliver highly effective solutions after investing more effort into the parameterization of the problem. Obtained results can be used for realizing different constructions near the stability limit, visualizing the sensitivity regarding the construction parameters or simply procuring more effective solutions.