Refine
Document Type
- Conference Proceeding (336) (remove)
Institute
- Professur Informatik im Bauwesen (336) (remove)
Keywords
- Modellierung (49)
- Bauwerk (39)
- Verteiltes System (36)
- CAD (31)
- Finite-Elemente-Methode (24)
- Architektur (21)
- Computerunterstütztes Verfahren (21)
- Baubetrieb (17)
- Ingenieurbau (17)
- Internet (17)
As computer programs become ever more complex, software development has shifted from focusing on programming towards focusing on integration. This paper describes a simulation access language (SimAL) that can be used to access and compose software applications over the Internet. Specifically, the framework is developed for the integration of tools for project management applications. The infrastructure allows users to specify and to use existing heterogeneous tools (e.g., Microsoft Project, Microsoft Excel, Primavera Project Planner, and AutoCAD) for simulation of project scenarios. This paper describes the components of the SimAL language and the implementation efforts required in the development of the SimAL framework. An illustration example bringing on-line weather forecasting service for project scheduling and management applications is provided to demonstrate the use of the simulation language and the infrastructure framework.
The construction industry is a supportive industry in China. IT (information technolgy), including computer technology and communication technology, as a whole is regarded as the most important means to upgrade the construction industry so that research projects were organized by Chinese government to further the application of IT in the construction industry. This study originated from one of the projects and is aimed at grasping the general situation on the application of IT in the construction industry. A questionnaire was designed for the survey, which used stratified proportional sampling method, and was carried out under the help of a government agency. This study can not only provide sound foundation for the government to make relative policies, but also reveal references for the firms in construction industry to apply IT in their business. This paper presents the preliminary result of the survey.
The development of a life cycle structured cooperation platform is described, which is based on an integrated process and goal-oriented project model. Furthermore the structure of a life cycle oriented object structure model and its implementation in the platform are documented. The complete conceptual model is described, which represents the basis of a lifecycle -oriented structuring of the planning object and supports the thematic classification of the object and project management data.
The paper describes a concept for the step-by-step computer-aided capture and representation of geometric building data in the context of planning-oriented building surveying. Selected aspects of the concept have been implemented and tested as prototypes. The process of step-by-step capture and representation is determined by the order in which the user experiences the building. Only the information that the user knows (can see) or can reasonably deduce is represented. In addition approaches to the flexible combination of different measuring techniques and geometric abstractions are described which are based upon geodetic computational adjustment.
This paper is concerned with the numerical treatment of quasilinear elliptic partial differential equations. In order to solve the given equation we propose to use a Galerkin approach, but, in contrast to conventional finite element discretizations, we work with trial spaces that, not only exhibit the usual approximation and good localization properties, but, in addition, lead to expansions of any element in the underlying Hilbert spaces in terms in multiscale or wavelet bases with certain stability properties. Specifically, we select as trial spaces a nested sequence of spaces from an appropriate biorthogonal multiscale analysis. This gives rise to a nonlinear discretized system. To overcome the problems of nonlinearity, we make use of the machinery of interpolating wavelets to obtain knot oriented quadrature rules. Finally, Newton's method is applied to approximate the solution in the given ansatz space. The results of some numerical experiments with different biorthogonal systems, confirming the applicability of our scheme, are presented.
Objektorientierte Anwendungen aus dem Ingenieurwesen bestehen aus strukturierten Mengen, deren Elemente Objekte sind. Zwischen den Objekten bestehen vielfältige Abhängigkeiten. Die Beziehungen sind zur Zeit der Entwicklung einer Anwendung nur teilweise bekannt. Beziehungen zwischen Objekten müssen deshalb auch zur Laufzeit der Anwendung erzeugt und gelöscht werden können. Aufgrund des hohen Rechenaufwandes wird die Objektbasis einer Anwendung verzögert aktualisiert. Eine objektorientierte Anwendung wird auf Grundlage der Systemtheorie als System formal beschrieben. Als Elemente des Systems werden Attribute, Objekte und Objektmengen eingeführt. Die in den Methoden der Objekte implementierten Algorithmen bestimmen die Bindungsrelation des Systems. Auf Grundlage der Graphentheorie wird die Reihenfolge der Aktualisierung der Objektbasis berechnet. ...
The AEC industry is conscious of the potentials arising from the usage of mobile computer systems to increase productivity by streamlining their business processes. Discussions are no longer on whether or not to use a mobile computer solution, but rather, on how it should be used. However, the implantation process of this new technology in Architecture, Engineering and Construction (AEC) and Facility Management (FM) practise is very slow and should be improved. One way to encourage and ease the usage of mobile computer systems in AEC is a more process-oriented usability and context appropriateness of mobile computer solutions. Context-sensitivity is defined as a crucial feature to be taken into account for further research in the area of Mobile Computing. Context-sensitive, mobile IT-solutions depend on two features: (1) flexible definitions of (construction) processes describing the context and (2) tools for flexible, multi-dimensional information management representing the context. It is on this premise that the authors propose the n-dimensional data management approach for the implementation of mobile computing solutions. In this paper, we analyse working scenarios in the AEC and FM sector, defining context aspects which are transformed and formalized as dimension hierarchies of the envisaged context model.
The paper presents the abstraction of process relevant information in order to enable the workflow management based on semantic data. It is shown for three examples, how the standards define the information needed to perform a certain planning activity. Abstraction of process relevant information is discussed for different granularities of the underlying processmodel. As one possible application ProMiSE is introduced, which uses process relevant data in individual tokens in a petri-net based process-model.
Der Beitrag basiert auf den Ansätzen und Ergebnissen des Forschungsprojekts >Prozessorientierte Vernetzung von Ingenieurplanungen am Beispiel der Geotechnik<, das im Rahmen des Schwerpunktprogramms 1103 >Vernetzt-kooperative Planungsprozesse im Konstruktiven Ingenieurbau< von der DFG gefördert wird. Ziel des gemeinsam mit dem Institut für Numerische Methoden und Informatik im Bauwesen an der TU Darmstadt durchgeführten Forschungsprojekts ist die Entwicklung einer netzwerkbasierten Kooperationsplattform zur Unterstützung von geotechnischen Ingenieurplanungen. Daher konzentriert sich das Forschungsprojekt auf die Abbildung und Koordination der Planungsprozesse für Projekte des Konstruktiven Ingenieurbaus vor dem Hintergrund der stark arbeitsteiligen Projektbearbeitung in einer verteilten Rechnerumgebung. Der Beitrag stellt die Abstraktion von Prozessmustern im Bauplanungsprozess als Basis für die dynamische Prozessmodellierung in einem Kooperationsmodell dar. Ziel ist es, durch die Identifikation der mit dem Entwurf und der Dimensionierung eines Bauteils verbundenen Planungs- und Abstimmungsprozesse einen bauteilbezogenen Katalog von Prozessmustern zu abstrahieren. Die einzelnen Prozessmuster werden in jedem Bauplanungsprozess dynamisch über geeignete Kopplungsmechanismen in das aktuelle Prozessmodell integriert, so dass die für den Bauplanungsprozess typischen Veränderungen der Konstruktion und der Zusammensetzung des Planungsteams im Prozessmodell berücksichtigt werden können. Dazu werden im Beitrag die bisherigen Ergebnisse der Analyse des Planungsprozesses eines großen innerstädtischen Bauvorhabens, das als Referenzobjekt dient, sowie typischer Planungsszenarien in der Geotechnik vorgestellt. Anschließend werden Grundlagen und methodische Ansätze zur Modellierung von Prozessen mit der Methode der farbigen Petri-Netze mit individuellen Marken vorgestellt. Anhand von Beispielen für bauteilorientierte Prozessmuster wird die Funktionalität der Prozessmuster in sich und im gegenseitigen Zusammenspiel erläutert
Seit die Datenverarbeitung in ihrer Komplexität sich der Thematik des Computer Integrated Manufacturing widmet gehört die Produktionsplanung und Steuerung zu jenen Bereichen, in denen eine Computerunterstützung am vordringlichsten erschien. Später sind betriebswirtschaftliche Gesamtlösungen entstanden, die (bis heute recht unpräzise) als Enterprise Resource Planning (ERP)-Systeme bezeichnet werden und in ihren Logistik-Modulen auch Funktionen der Produktionsplanung abdecken. Alle bekannten MRP-, PPS- und auch ERP-Systeme beruhen auf einer Sukzessivplanung. Advanced Planning and Scheduling (APS) Systems finden seit etwa 1995 zunehmend Interesse. Neben Demand Planning, Production Planning and Scheduling, Distribution Planning, Transportation Planning und Supply Chain Planning werden Lösungen für Anzahl und Standorte von Produktionsstätten und Auslieferungslagern, Zuordnung zu Produktionsstätten, Kapazitätsbestimmung für Arbeitskräfte und Betriebsmittel je Standort, Lagerhaltung je Teil und Lager, Bestimmung benötigter Transportmittel und Häufigkeit ihres Einsatzes, Zuordnung von Lagern zu Produktionsstätten von Märkten zu Lagern u.a.m. von APS-Systemen erwartet. D.h. APS-Systeme ergänzen ERP-Lösungen, nutzen die bereits durch das ERP-System vorhandenen Daten und benötigen neuartige Algorithmen und (Meta-) Heuristiken. Im Rahmen des Vortrages werden Modelle und Echtzeitalgorithmen zur Optimierung der Logistik für Prozesse mit kurzfristigen Anforderungen, geographisch verteilter Produktion, Lagerhaltung der Ausgangs-, Zwischen- und Endprodukte und wechselnden Transport-Bedingungen aus der Sicht der praktischen Umsetzung und Anwendung in Form einer ASP-Lösung aufgezeigt und diskutiert.
This ethnographic study reports on emerging work processes and practices observed in the AEC (Architecture/Engineering/Construction) Global Teamwork program, i.e., what people experience when interacting with and through collaboration technologies, why people practice in the way they do, how the practice fits into the environment and changes the work patterns. It presents the experience of two high-performance typical but extreme AEC teamwork cases adopting and adapting to collaboration technologies and how these technologies in practice impact their work processes. The findings illustrate the importance of collaboration technologies in cross-disciplinary, global teamwork. Observations indicate that high performance teams that use the collaboration technologies effectively exhibit collaboration readiness at an early stage and manage to define a “third way” to meet the demands of the cross-disciplinary, multi cultural and geographically distributed AEC workspace. The observations and implications represent the blueprint for yearly innovations and improvements to the design of the AEC Global Teamwork program.
Die heutige Situation in der Tragwerksplanung ist durch das kooperative Zusammenwirken einer größeren Anzahl von Fachleuten verschiedener Disziplinen (Architektur, Tragwerksplanung, etc.) in zeitlich befristeten Projektgemeinschaften gekennzeichnet. Bei der Abstimmung der hierdurch bedingten komplexen, dynamischen und vernetzten Planungsprozesse kommt es dabei häufig zu Planungsmängeln und Qualitätseinbußen. Dieser Artikel zeigt auf, wie mit Hilfe der Agententechnologie Lösungsansätze zur Verbesserung der Planungssituation erreicht werden können. Hierzu wird ein Agentenmodell für die vernetzt-kooperative Tragwerksplanung vorgestellt und anhand der Planung einer Fußgängerbogenbrücke anschaulich demonstriert. Das Agentenmodell erfasst (1) die beteiligten Fachplaner und Organisationen, (2) die tragwerksspezifischen Planungsprozesse, (3) die zugehörigen (Teil-)Produktmodelle und (4) die genutzte (Ingenieur-)Software. Hieraus leiten sich die drei Teilmodelle (1) agentenbasiertes Kooperationsmodell, (2) agentenbasierte Produktmodellintegration und (3) Modell zur agentenbasierten Software-Integration ab. Der Fokus des Artikels liegt auf der Darstellung des agentenbasierten Kooperationsmodells.
Im Rahmen des Sonderforschungsbereiches 524 <Werkstoffe und Konstruktionen für die Revitalisierung von Bauwerken 1> ist das primäre Anliegen des Teilprojektes D2 <Bauplanungsrelevantes digitales Gebäudeaufnahme- und Informationssystem> die Entwicklung von Methoden und Techniken zur Aufnahme von Bestandsdaten vor Ort oder durch Auswertung vorhandener Dokumentationen und deren direkte Integration in ein Bauwerksmodell. [15] Das Vorhaben erarbeitet Grundlagen zu Aspekten der fachplanerischen Nutzung und der wissenschaftlichen Auswertungen arbeitsmethodischer Vorgehensweisen in der Bestandsaufnahme unter Einbeziehung softwaretechnischer Methoden. Dabei finden Sachverhalte der Strukturierung, die Herausarbeitung von Systematiken der wesentlichen Informations-/Datenmengen, die Ableitung von Methoden zur zerstörungsfreien Erfassung und die Darstellung planungsrelevanter Gebäudeinformationen in digitalen Systemen Berücksichtigung. Beim Bauaufmaß werden neben traditionellen Methoden und Techniken längst geodätische Verfahren wie die Tachymetrie, die Photogrammetrie und die Handlaserentfernungsmessung einbezogen. In der Praxis des Bestandsaufmaßes repräsentiert gegenwärtig die Tachymetrie, das am häufigsten zur Innen- und Außenaufnahme von Gebäuden eingesetzte geodätische Vermessungsverfahren. [9] [3] Ausgehend von der heutigen Situation in der Bestandsaufnahme wird aufgezeigt, inwieweit es nach dem gegenwärtigen Stand der Technik möglich ist, die in der Geodäsie verwendeten Tachymeter direkt in der Bestandsaufnahme einzusetzen. In einem weiteren Schwerpunkt wird die Konzeption eines rechnergestützten Bauaufnahmesystems basierend auf reflektorlos messenden tachymetrischen Geräten beschrieben. Das Konzept berücksichtigt nicht nur das Bauaufmaß, sondern unterstützt adäquat den gesamten Prozeß der Bauaufnahme – von der Erstbegehung bis hin zur konstruktiven Gliederung. Abschließend werden tendenzielle Möglichkeiten in der Bauaufnahme diskutiert.
The conceptual structure of an application that can support the structural analysis task in a distributed collaboratory is described in (van Rooyen and Olivier 2004). The application described there has a standalone component for executing the finite element method on a local workstation in the absence of network access. This application is comparable to current, local workstation based finite element packages. However, it differs fundamentally from standard packages since the application itself, and its objects, are adapted to support distributed execution of the analysis task. Basic aspects of an object-oriented framework for the development of applications which can be used in similar distributed collaboratories are described in this paper. An important feature of this framework is its application-centred design. This means that an application can contain any number of engineering models, where the models are formed by the collection of objects according to semantic views within the application. This is achieved through very flexible classes Application and Model, which are described in detail. The advantages of the application-centred design approach is demonstrated with reference to the design of steel structures, where the finite element analysis model, member design model and connection design model interact to provide the required functionality.
The promise of lower costs for sensors that can be used for construction inspection means that inspectors will continue to have new choices to consider in creating inspection plans. However, these emerging inspection methods can require different activities, resources, and decisions such that it can be difficult to compare the emerging methods with other methods that satisfy the same inspection needs. Furthermore, the context in which inspection is performed can significantly influence how well certain inspection methods are suited for a given set of goals for inspection. Context information, such as weather, security, and the regulatory environment, can be used to understand what information about a component should be collected and how an inspection should be performed. The research described in this paper is aimed at developing an approach for comparing and selecting inspection plans. This approach consists of (1) refinement of given goals for inspection, if necessary, in order to address any additional information needs due to a given context and in order to reach a level of detail that can be addressed by an inspection activity; (2) development of constraints to describe how an inspection should be achieved; (3) matching of goals to available inspection methods, and generation of activities and resource plans in order to address the goals; and (4) selection of an inspection plan from among the possible plans that have been identified. The authors illustrate this approach with observations made at a local construction site.
Recent research shows that current learning strategies in construction industry have not been effective in implementing lean principles in construction. With that in mind the researchers set to investigate an alternative learning strategy in order to promote learning at the international level. A web-based environment, was developed for this project with the intent of promoting learning and knowledge exchange on the theory and practice of "process transparency" across different countries.
There are many construction projects in China and mass documents are exchanged among the multi-party, including the owner, the contractor and the engineer in the projects. Based on previous studies, an approach to the utilization of the exchanged documents is established by using data warehouse technology and a prototype system called EXPLYZER is developed. The approach and the prototype system are verified through their application in a construction project. It is concluded that the approach can support the decision-making in project management.
This paper examines the impact of information technology (IT) utilization on construction firm performance. Based on empirical data collected from 74 US construction firms, the analyses provide evidence that IT has a positive impact on overall firm performance, schedule performance, and cost performance. Firm performance is a composite score of several metrics of performance: schedule performance, cost performance, customer satisfaction, safety performance, and profit. No relationship is found between IT utilization and customer satisfaction, safety, or profit, although this may be due to limitations of the study given strong correlations between IT utilization and cost and schedule performnance. The empirical evidence of positive association between performance and IT use provided by this research is significant to both construction practice and research literature. This evidence should encourage firms to adopt and invest in IT tools.
This paper describes a research project that addresses the difficulties in dealing with regulatory documents such as national and regional codes. These documents tend to be voluminous, heavily cross-referenced, possibly ambiguous and even conflicting at times. There are often multiple documents that need to be consulted and satisfied; however it is a difficult task to locate all of the relevant provisions. In addition, sections dealing with the same or similar conceptual ideas sometimes lay down conflicting requirements. We propose a framework for regulation representation, analysis and comparison with emphasis on the extraction of similarities between provisions. We focus on accessibility regulations, whose intent is to provide the same or equivalent access to a building and its facilities for disabled persons. An XML regulatory repository is developed to extract structural as well as non-structural features from government regulations to help user understanding and computational analysis. A similarity analysis is performed between different sources of regulations. In order to achieve a better comparison between provisions, we employ a combination of feature matching and structural analysis. Results are shown on comparisons between American and European codes, as well as on the domain of electronic-rulemaking.
The general motivation of this research is to develop software to support the handling of the increased complexity of architectural design. In this paper we describe a system providing general support during the whole process. Instead of only developing design tools we are also addressing the problem of the operating environment of these tools. We conclude that design tools have to be integrated in an open, modular, distributed, user friendly and efficient environment. Two major fields have to be addressed - the development of design tools and the realisation of an integrated system as their operation environment. We will briefly focus on the latter by discussing known technologies in the field of information technology and other design disciplines that can be used to realise such an environment. Regarding the first subject we have to state the need of a detailed tool specification. As a solution we suggest a strategy where the tool functions are specified on the basis of a transformation, where a hierarchical process model is mapped into specifications of different design tools realising appropriate support for all sub-processes of architectural design. Using this strategy the main steps to develop such a support system are: implementation of a framework as basis for the integrated design system decision whether the tool specification are already implemented in available tools in this case these tools can be integrated using known methods for tool coupling otherwise new design tools have to be developed according to the framework
The paper gives a general overview and concerns with a specified set of computer-aided analysis modules for hybrid structures loaded by extreme excitations. All problems are solved by methods of linear, quadratic or nonlinear mathematical optimization, that leads to very effective and economic design solutions. All approaches are derived from general optimization problem that can be easily altered to conform to specific design tasks. Some advantages and possibilities of hybrid structural modeling (single or mixed model-supported) are discussed. The methods will be illustrated by an example structure and optimization schemes.
The steel structure design codes require to check up the member strength when evaluating plastic deformations. The model of perfectly plastic material is accepted. The strength criteria for simple cross-sections (I section, etc.) of steel members are given in design codes. The analytical strength criteria for steel cross-sections and numerical approaches based on stepwise procedure are investigated in many articles. Another way for checking the carrying capacity of cross-sections is the use of methods that are applied for defining strain-deformed state of elastic perfectly plastic systems. In this paper non-iterative methods are suggested for checking strength of cross-sections. Carrying capacity of cross section is verified according to extremum principle of plastic fail under monotonically loading and the strain-deformed state of cross-section is defined according to extremum energy principals of elastic potential of residual stresses and complementary work of residual displacements. The mathematical expressions of these principals for discrete cross-section are formulated as problems of convex mathematical programming. The cross-section of steel member using finite element method is divided into free form plane elements. The constant distribution of stresses along the finite element is accepted. The relationships of finite elements for static formulation of the problem are formed so, that kinematics formulation relationships could be obtained in a formal way using the theory of duality. Numerical examples of determination of cross-section strength, composition of interactive curves and composition of moment-curvature curves for different axial force levels are presented.
Petri-Netze und deren Erweiterungen stellen ein leistungsfähiges Instrument zur Model-lierung, Simulation und Animation von Systemen bzw. Prozessen dar. Mathematische Methoden die sowohl analytisch beschreibbar als auch graphisch darstellbar sind, wie z. B. Warteschlangenprobleme, Netzpläne, Suche optimaler Wege in Netzen bzw. Dynamische Optimierung, können mit Hilfe von Petri-Netzen modelliert werden. Werden Petri-Netze zur graphischen Darstellung gewählt, so können die Stellen (passive Knoten) mit Markenverweilzeiten sowie die Transitionen (aktive Knoten) mit Schaltzeiten belegt werden. Für die Zeiten sind deterministische bzw. stochastische Größen einsetzbar. Wird dem Gesamtnetz eine zentrale Uhr und den einzelnen zeitbehafteten Knoten jeweils eine lokale Uhr zugeordnet, so lassen sich die Prozeßabläufe mittels Animation sichtbar machen. Ein an der Professur Computergestützte Techniken entwickeltes Programmsystem dient zur Demonstration der einzelnen Probleme. In anschaulicher Weise kann damit das Ver-ständnis für die genannten Methoden sowie die mit ihrer Hilfe dargestellten Prozesse erleichtert werden.
Die technische Entwicklung, insbesondere auf dem Gebiet der Digitaltechnik eröffnet heute neue und sehr weitreichende Möglichkeiten für die Automatisierung in Zweck- und Wohnbauten. Die zur Verfügung stehenden technischen Komponenten (intelligente Sensoren und Aktoren sowie ein hausinternes Netz für die Datenübertragung -Feldbus-) unterscheiden sich für diese Einsatzfälle kaum. Die Zielstellungen sind jedoch gänzlich andere. Intelligenz im Wohnbau bedeutet vor allem intelligente Alltagsbewältigung (z.B. Zeiteinsparung), Komfort und Wohlbefinden. Daß im Heimbereich nichtfunktionale Faktoren (Human Interface, Ästhetik, Preis, Attraktivität) eine große Rolle spielen, ist in das Problembewußtsein der Gerätehersteller und Käufer getreten. Im Bereich der Heimautomatisierung werden zunehmend moderne, die Möglichkeiten der konventioellen Steuerungs- und Regelungstechnik ergänzende Technologien wie Fuzzy- Steuerungen zur Optimierung der internen Arbeitsweise von Geräten eingesetzt. Die informatorische Vernetzung im Wohnbau unterstützt darüberhinaus wichtige Anliegen des Gebäudemanagements (energetische, ergonomische und ökologische Betrachtungen der Gebäudenutzung unter wirtschaftlichen Gesichtspunkten).
In den zurückliegenden Jahren wurden an der Professur Massivbau I umfangreiche Untersuchungen zur Modellbildung und rechnerischen Erfassung des Tragverhaltens von Tragwerken und Tragwerkselementen aus Stahlbeton und Spannbeton unter Berücksichtigung von Rißbildungen und Plastizierungen durchgeführt. Diesen Untersuchungen liegt als einheitliches methodisches Konzept der mathematischen Problembeschreibung und Problemlösung die mathematische Optimierung zugrunde. Bereits anläßlich des IKM 1994 [1] hatte der Verfasser Gelegenheit, zusammenfassend über Ergebnisse bei der Anwendung der mathematischen Optimierung im Bereich der nichtlinearen Tragwerksanalyse zu berichten. Der vorliegende Beitrag, soll einen Überblick über seitdem untersuchte Problemkreise und dabei gewonnene Ergebnisse und Erfahrungen vermitteln. Bei der Anwendung der linearen und quadratischen Optimierung sind wegen der geforderten Linearität der Nebenbedingungen Vereinfachungen bei der Modellbildung des stahlbetonspezifischen Tragverhaltens unumgänglich. Besonders betroffen sind die Ansätze zur Beschreibungen des Materialverhaltens. Durch den Einsatz allgemeiner nichtlinearer mathematischer Optimierungsmethoden lässt sich eine methodisch bedingte Linearisierung des Berechnungsmodells umgehen....
Moderne Bemessungskonzepte für seismisch beanspruchte Hochbauten, wie die Methode der Kapazitäts-bemessung, planen inelastisches Verhalten einzelner Bereiche der Konstruktion beim Entwurf bewußt ein, um so einen Teil der durch das Beben eingetragenen Energie als inelastische Formänderungsarbeit zu absorbieren. Wird bei Akzeptanz inelastischen Verhaltens eine bestimmte Belastungsintensität, die als adaptive Grenzlast oder Einspiellast bezeichnet wird, überschritten, kann es infolge zyklischer Einwirkungen zu einer unbe-grenzten Akkumulation inelastischer Deformationen kommen. Die adaptive Grenzlast stellt damit für zyklische Einwirkungen eine geeignete Kenngröße zur Bewertung der Tragwerksqualität dar, bei der neben der Sicherung des Gleichgewichts ein bestimmtes Schädigungsniveau nicht überschritten wird. Im vorliegenden Beitrag werden die Grundzüge eines Bemessungs- und Nachweiskonzeptes für seismisch beanspruchte Stahlbetontragwerke, das unter Einbeziehung der Grundprinzipe der Kapazitätsbemessung von einem einheitlichen Kriterium zur Beschreibung des Grenzzustandes der Tragfähigkeit auf der Basis der adaptive Grenzlast ausgeht, vorgestellt. Dabei ist die Abschätzung der Verformungen notwendiger Bestandteil des Nachweis- bzw. Bemessungskonzeptes. Bei Druckgliedern ist die Berücksichtigung des Einflusses der Verformungen notwendiger Bestandteil des Bemessungskonzeptes. Entsprechende Erweiterungen der Berechnungsmodelle zur Berücksichtigung des Einflusses geometrisch nichtlinearer Effekte im Sinne einer Theorie II. Ordnung werden vorgestellt.
Die Einführung von neuen Informations- und Kommunikationstechniken in Klein- und Mittelständische Unternehmen (hier: kleine und mittlere Planungsbüros im Bauwesen) ist mit speziellen Problemen behaftet. Erfahrungswerte liegen nur in größeren und zumeist fachfremden Firmen vor. Neben den eigentlichen Sicherheitsrisiken (Thematik Internet), Verständnisschwierigkeiten und daraus resultierenden Akzeptanzproblemen fehlt beim Einsatz dieser neuen Techniken die Verbindung zum Ablauf in projektbasiert arbeitenden Unternehmen. Der Begeisterung und Euphorie durch den Einsatz neuer Technik stehen Änderungen des eigenen Arbeitsstiles und ein anfänglicher Mehraufwand entgegen. Ein Schwerpunktthema der eigenen Forschungsarbeiten sind die Ermittlung und Validierung von Kriterien für die Einführung neuer IuK-Techniken speziell in kleineren und mittleren Planungsbüros. In einer fortschreitenden Reihe von Arbeiten am Fachbereich wurden und werden nacheinander die genannten Problematiken und Aspekte in Angriff genommen. Dabei werden neben der Kategorisierung von Anwendungsszenarien und Vorstellung der einzelnen, empfehlenswerten Techniken einzelne Konzepte am Fachbereich und in Zusammenarbeit mit Ingenieurbüros überprüft. Der Beitrag möchte in Ergänzung zu bereits gelaufenen Arbeiten als Empfehlung oder Leitfaden für Planungsbüros auf die Machbarkeit neuer Techniken und einige nötige Randbedingungen eingehen.
All construction project are constrained by their schedules, budgets and specifications, and safety and environmental regulations. These constraints made construction management more complex and difficult. At the same time, many historical data that can support the decisions in the future are kept in construction enterprises,. To use the historical data effectively and efficiently, it is essential to apply the data warehouse and data mining technologies. This paper introduces a research which aims to develop a data warehouse system according to the requirements of construction enterprises and use data mining technology to learn useful information and knowledge from the data warehouse system. The design, the development and the application of this system are detailedly introduced in this paper.
A fuzzy logic controller - WNC (Water Network Control) was developed for control of urban drainage systems. The objectives are to avoid accidents, flooding, pollutions through combined sewer overflows and excessive operation and maintenance costs. Fuzzy logic was proved to be a promising approach, flexible and easy accepted, because it includes the expert knowledge. Fuzzy control system proposed is robust and also easy to understand and modified. It offers to the operator the possibility to participate directly in the system control, combining the results of the modern optimization techniques with the experience and knowledge accumulated in time by experts. Thus, the control of urban sewer system can be well solved by implementing an intelligent control system, based on available information (fuzzy) and on expert's experience. An important feature of this fuzzy logic system is its capability to elaborate a control decision even in situations that were not considered in the design phase of the urban network.
The development of the qualitative methods of investigation of dynamic systems, suggested by the authors, is the effective means for identification of dynamic systems. The results of the extensive investigations of the behaviour of linear dynamic systems and symmetrical system with double well potential under polyharmonic excitation are given in the paper. Phase space of dynamic systems is multi-dimensional. Each point of this space is characterized by not less than four co-ordinates. In particular: displacement, velocity, acceleration and time. Real space has three dimensions. It is more convenient for the analysis. We consider the phase space as limited to three dimensions, namely displacement, velocity and acceleration. Another choice of parameters of phase planes is also possible [1, 2]. Phase trajectory on a plane is of the greatest interest. It is known that accelerations of points are more sensitive to deviations of oscillations from harmonic ones. It is connected with the fact that power criteria on it are interpreted most evidently. Besides, dependence is back symmetric relative to axis of the diagram of elastic characteristic. Only the phase trajectories allow establishing a type and a level of non-linearity of a system. The results of the extensive investigations of the dynamic systems behaviour under polyharmonic excitation are given in the paper. The use of the given phase trajectories enables us to determine with a high degree of reliability the following peculiarities: - presence or absence of non-linear character of behaviour of a dynamic system; - type of non-linearity; - type of dynamic process (oscillations of the basic tone, combinative oscillations, chaotic oscillations.). Unlike existing asymptotic and stochastic methods of identification of dynamic systems, the use of the suggested technique is not connected with the use of a significant amount of computing procedures, and also it has a number of advantages at the investigation of complicated oscillations.
In this paper a meshless component is presented, which internally uses the common meshless interpolation technique >Moving Least Squares<. In contrast to usual meshless integration schemes like the cell quadrature and the nodal integration in this study integration zones with triangular geometry spanned by three nodes are used for 2D analysis. The boundary of the structure is defined by boundary nodes, which are similar to finite element nodes. By using the neighborhood relations of the integration zones an efficient search algorithm to detected the nodes in the influence of the integration points was developed. The components are directly coupled with finite elements by using a penalty method. An widely accepted model to describe the fracture behavior of concrete is the >Fictitious Crack Model< which is applied in this study, which differentiates between micro cracks and macro cracks, with and without force transmission over the crack surface, respectively. In this study the crack surface is discretized by node pairs in form of a polygon, which is part of the boundary. To apply the >Fictitious Crack Model< finite interface elements are included between the crack surface nodes. The determination of the maximum principal strain at the crack tip is done by introducing an influence area around the singularity. On a practical example it is shown that the included elements improve the model by the transmission of the surface forces during monotonic loading and by the representation of the contact forces of closed cracks during reverse loading.
In this paper we revisit the so-called Bergman kernel method (BKM) for solving conformal mapping problems. This method is based on the reproducing property of the Bergman kernel function. The main drawback of this well known technique is that it involves an orthonormalization process and thus is numerically unstable. This difficulty can be, in some cases, overcome by using the Maple system, which makes no use of numeric quadrature. We illustrate this implementation by presenting a numerical example. The construction of reproducing kernel functions is not restricted to real dimension 2. Results concerning the construction of Bergman kernel functions in closed form for special domains in the framework of hypercomplex function theory suggest that BKM can also be extended to mapping problems in higher dimensions, particularly 3-dimensional cases. We describe such a generalized BKM-approach and present numerical examples obtained by the use of specially developed software packages for quaternions.
Entwurfsprozesse im Bauwesen sind hochgradig kooperative Prozesse mit alternierenden Phasen asynchroner und synchroner Teamarbeit. Die Informationen über den aktuellen Entwurfsgegenstand können als Objektstrukturen modelliert werden, die in entsprechenden Modellverwaltungssystemen gespeichert werden. Bei der Realisierung von kooperativ nutzbaren Umgebungen für den Bauwerksentwurf sind jedoch bei der Auswahl von Basistechniken spezifische Anforderungen von CSCW-Applikationen zu beachten, die bestimmte traditionelle Verfahren nicht erfüllen. Neben verschiedenen Auswirkungen auf das Interaktionsverhalten der Entwurfsumgebung spielt die cooperation awareness der eingesetzten Mechanismen eine bedeutende Rolle. Mechanismen zur Zugriffskontrolle sind in netzwerkbasierten Mehrbenutzerumgebungen essentiell, jedoch sind herkömmliche Verfahren zu unflexibel und nicht hinreichend ausdrucksstark. Eine adaptierte und erweiterte Variante des Matrixverfahrens ist für die Anwendung in Modellverwaltungssystemen geeignet. Ebenso muss bei der Auswahl von Mechanismen zur Nebenläufigkeitskontrolle Augenmerk auf dessen Eignung in Groupware-Systemen gelegt werden. Bei der Unterstützung asynchroner Kooperation können Lock-Verfahren auf die Informationen in Modellverwaltungssystemen angewandt werden. Für die Applikationen für synchrone Teamarbeit müssen derartige Mechanismen auf die gemeinsamen Informationsbestände sowie auf Systemressourcen der Entwurfsumgebung angewendet werden. Hierfür sind floor-passing'-Verfahren geeignet; die Anwendbarkeit von Transformationsverfahren sollte für die konkret umzusetzende Applikation geprüft werden.
Datenaustausch, Daten resp. Produktdatenmodelle sind seit mehreren Jahren Themen in der Forschung. Verschiedene Forschungsprojekte und Initiativen diverser Firmen führten zu bereichsübergreifenden Ansätzen wie IFC und verschiedenen STEP-AP´s. Speziell im Stahlbau sind die Projekte >Produktschnittstelle Stahlbau< und >CIMsteel< entwickelt, weiterentwickelt und überarbeitet worden. Als Weiterentwicklung der bisher existierenden Austauschformate versuchen neuere Ansätze den Nutzen über die reine Datenübermittlung hinaus zu erweitern. So integrieren diese Lösungsvorschläge Aspekte der Kommunikation, der Zusammenarbeit und des Managements. Des weiteren übernehmen sie Aufgaben der Daten- und Modellverwaltung. Somit erfolgt eine digitale Abbildung unter Einbezug sämtlicher ermittelter Daten. Resultierend aus den besonderen Randbedingungen im Bauwesen, wird ein Bauwerksmodell aus untereinander in Beziehung gesetzten Domänenmodellen aufgebaut
A method of automatic maintenance of vibration amplitude of a number of mechanisms at given level, when exiting force amplitude is varied greatly is given. For this purpose a pendulum is attached to a mechanism through a viscoelastic hinge. Load of a pendulum can move along an arm and it is viscoelastic connected to it.
Rectangular steel frames are considered and subjected to strong ground motion. Their behavior factor is numerically evaluated using nonlinear time history analysis and different ground acceleration records. The behavior factor is determined assuming severe collapse mechanism occurs throughout the time history. The system of equations is transformed into single equation end then the energy balance concept is applied. The expression for the behavior factor is derived and its application to four story two bays steel frame is illustrated and the corresponding results are discussed.
Bei der Tragwerksplanung sowohl für Massivkonstruktionen als auch für Stahlkonstruktionen werden zukünftig nichtlineare Berechnungsverfahren in größerem Umfang Anwendung finden, als das in der Vergangenheit üblich bzw. möglich war. Wichtige Impulse gehen dabei von der europäischen Normung aus. Bei der Anwendung von Berechnungsverfahren, die die Nichtlinearität des Materialverhaltens berücksichtigen und bei der Ermittlung der Tragsicherheit planmäßig ausnutzen, ist es notwendig, die Entwicklung plastischer Deformationen zu verfolgen und bei der Beurteilung des Grenzzustandes der Tragfähigkeit als Kriterium mit heranzuziehen. Im vorliegenden Beitrag werden mathematische Modelle für folgende Berechnungsaufgaben vorgestellt: Ermittlung der Schnittgrößen und Formänderungen in ebenen Stabtragwerken nach Theorie II. Ordnung unter Berücksichtigung der physikalischen Nichtlinearität und Ermittlung von Grenzlasten, die durch Spannungs- und Verformungskriterien definiert sind. Dabei zeigt sich, daß mathematische Modelle auf der Grundlage von Extremalprinzipien und unter Einbeziehung der mathematischen Optimierung effektiv und hinreichend universell formuliert werden können. Wie Beispielrechnungen zeigen, ist die Beurteilung der Tragfähigkeit unter Berücksichtigung von Deformationsbegrenzungen von entscheidender Bedeutung, um Fehleinschätzungen der Tragsicherheit zu vermeiden.
In der jüngeren Vergangenheit haben die Entwicklungen von neuen Programmen und der Rechentechnik zu radikalen Veränderungen in den Methoden der Berechnung von ingenieurtechnischen Bauten geführt. An erster Stelle sind hier die Matrizenmethoden für notwendige Berechnungen der Aufgaben anzuführen, welche eine kompakte und allgemeine Form der Aufschreibung von Gleichungen gestatten und geeignet für die Bearbeitung an Computern sind. Die elektronischen Maschinen wurden damit befähigt nicht nur Systeme linear-algebraischer Gleichungen mit hundert oder tausend von Unbekannten zu lösen, sonder auch die Bearbeitung von Differentialgleichungen, sowie die Formierung dieser Gleichungen zu übernehmen. Damit übernehmen die Computer den Grossteil des Prozesses der Berechnung und der Projektierung einer Konstruktion. Zweifellose Aktualität haben die Fragen über die Benutzung dieser Eigenschaften für die Aufgaben der Bauinformatik und Baumechanik. Diesen ist der vorliegende Artikel gewidmet. In der Praxis der Projektierung kommen oft komplexe Stabsysteme und zylindrische-gefaltete Flächensysteme vor. Dabei ist zu berücksichtigen: die Verschiebung in Stabsystemen, ihre elastischen Gründungen und die auftretenden längs- und querlaufenden Biegungen sowie harmonische Schwingungen. In diesem Artikel wird ein universeller Algorithmus zur Ausarbeitung von Matrizen für Härte- und Festigkeitsbetrachtungen für Stäbe vorgestellt. Der entwickelte Algorithmus erlaubt die Berechnung von komplizierten Stabsystemen, die in der Praxis weit verbreitet sind. Für die Ausarbeitung der Matrizen für die Festigkeitsbetrachtung wurde die symbolische Programmiersprache MAPLE benutzt. Weiterhin zeigt dieser Artikel die Berechnung von gefalteten Flächensystemen unter Verwendung des diskret- kontinuierlichen Modells von W. S. Wlasow, mit Hilfe eines universellen Algorithmus auf. Für die Aufstellung der Matrix für Festigkeitsbetrachtung werden als Systemeinstellungen die Schichtformierung und der Ausschluss nach Gauss vorgeschlagen. Am Ende des Artikels werden Beispiele für die Berechnung von komplizierten Konstruktion aufgeführt.
Neue Konstruktionsentwicklungen erwarten von Bauingenieuren auch neue Berechnungs- und Analysenmethoden. Zu solchen Konstruktionen gehören Polystyrol-Massiv-Rippendecken. Die Decken, die eine wichtige Rolle im Neubau sowie in der Sanierung und Rekonstruktion von Altbauten spielen, haben eine umfangreiche Technologiebeschreibung, jedoch relativ kleine Berechnungsbase zur statischen Analyse der Ausnutzugs- und Statischfestigkeitsparametern. In den Vortrag wurde eine Methode zu Analyse solche Decken dargestellt. Das interessante Problem befindet sich in der sogennaten zweiten Phase, wenn der Decke keine elastische Platte ist. Eine wichtige Rolle bei Berechnung spielen die veränderte Steifigkeit und Rheology.
Werden bei der Tragwerksauslegung Schnittgrößenumlagerungen infolge Plastizierungen zugelassen, dann ist die Lastintensität durch die Einhaltung von entsprechenden Grenzzustandskriterien, passend zum physikalisch nichtlinearen Tragverhalten, zu begrenzen. Für Tragwerke, die von mehreren unabhängig voneinander, wiederholt und in beliebiger Reihenfolge auftretenden Lasten beansprucht werden, stellt die adaptive Grenzlast (Einspiellast), ausgedrückt durch den adaptiven Grenzlastfaktor, ein geeignetes Grenzzustandskriterium dar. Bedingt durch zufällige Systemeigenschaften und zeitlich zufälliges Lastverhalten stellt der adaptive Grenzlastfaktor eine Zufallsgröße dar. Für die Bestimmung des stochastischen adaptiven Grenzlastfaktors und der Versagenswahrscheinlichkeit gegenüber dem Grenzzustand der Adaption für einen Zeitraum [0,T] werden die mathematische Optimierung (mechanische Problemlösung) und die Monte-Carlo-Simulation (stochastische Problemlösung) herangezogen, wobei eine Überführung von zeitvarianten Lastmodellen in äquivalente zeitinvariante Lastmodelle erforderlich wird. Am Beispiel eines eingespannten Stahlbetonrahmens wird untersucht, wie sich eine unterschiedliche stochastische Modellbildung des Tragwerks und eine unterschiedliche Vorgehensweise bei der Überlagerung von Extremwerten der Belastung auf die Beurteilung der Versagenswahrscheinlichkeit des Tragwerks für verschiedene Lebensdauern auswirken. Im Ergebnis dieser Untersuchungen zeigt sich, dass sich die Versagenswahrscheinlichkeit signifikant erhöht, wenn stochastische Tragwerkseigenschaften in Ansatz gebracht werden. Die größte Bedeutung besitzt dabei die Zufälligkeit der Zugfestigkeit der Bewehrung. Alle anderen Zufallsgrößen beeinflussen die Versagenswahrscheinlichkeit nur in ihrer Gesamtheit, einzeln betrachtet sind sie nahezu bedeutungslos. Es stellt sich weiterhin heraus, dass eine vereinfachte Überlagerung der Last-Extremwerte zu einer deutlichen Überschätzung der Versagenswahrscheinlichkeit führt und somit als konservatives Modell zu bewerten ist.
Bewertung der Grenzlast von elastisch-plastischen Tragwerken mit Hilfe stochastischer Methoden
(1997)
Für die Analyse von Tragwerken sowohl des Stahlbaus als auch des Massivbaus eröffnet die nationale und internationale Normengebung in zunehmendem Maße die Anwendung physikalisch nichtlinearer Berechnungsmodelle. Es ist zu erwarten, daß neben dem traditionellen elastischen Berechnungsmodell das linearelastisch-idealplastische Materialmodell in die Tragwerksanalyse Eingang finden wird. Während bei den traditionellen Berechnungsverfahren auf der Grundlage der Elastizitätstheorie hinreichende Erfahrungen durch die Planungspraxis bestehen und umfangreiche Untersuchungen zur dabei erreichten Sicherheit vorliegen, stellen die nichtlinearen Berechnungsmethoden sowohl in mechanischer als auch in sicherheitstheoretischer Hinsicht ein neues Erfahrungsfeld dar. Im vorliegenden Beitrag werden aus der Vielzahl der anstehenden Probleme folgende Teilprobleme behandelt: Bestimmung der Versagenswahrscheinlichkeit elasto-plastischer Tragsysteme nach dem Kriterium der plastischen Grenzlast Ermittlung stochastischer Eigenschaften des plastischen Grenzlastparameters elasto-plastischer Tragsysteme. Die Lösung des mechanischen Problems geschieht über eine lineare Optimierungsaufgabe, die nach dem statischen Theorem der plastischen Grenzlast formuliert ist. Als stochastische Methode wird die Simulation angewandt, die zum einen auf einer zufälligen Erzeugung der Realisierungen (stochastische Simulation) und zum anderen auf einer planmäßigen Erzeugung der Realisierungen (konstruktive Simulation) beruhen kann. Für jedes der Teilprobleme wird ein Beispiel vorgestellt.
In der vorliegenden Arbeit geht es um die Anwendung von biorthogonalen Waveletsystemen in der Parameteridentifikation. Es sollen Grundlagen geschaffen werden, um bei der Auswertung dynamischer Experimente derartige Wavelets und damit die schnelle Wavelet-Transformation (FWT) systematisch und effektiv zu nutzen. Zu diesem Zweck wird von den Waveletfiltern ein System von Verbindungskoeffizienten abgeleitet. Mit deren Hilfe erfolgen die Projektionen von Operatoren, insbesondere die von Differentiations- und Integrationsoperatoren, in die entsprechenden Wavelet-Räume. Sämtliche Verbindungskoeffizienten können rekursiv und in endlich vielen Schritten exakt berechnet werden. Ausgehend von den dynamischen Krafteinwirkungen und den gemessenen Reaktionsbeschleunigungen oder Reaktionsgeschwindigkeiten bezüglich der einzelnen Freiheitsgrade können dann unbekannte Steifigkeiten und Dämpfungen identifiziert werden. Dazu erfolgt nach entsprechenden Wavelet-Zerlegungen aller relevanten Zeitsignale ein Abgleich auf den einzelnen Frequenzbändern. Dieser führt insbesondere zu einem System von linearen Matrizengleichungen zur Bestimmung der unbekannten Parameter. Vorgeschlagen wird im Falle einer größeren Zahl von Freiheitsgraden und Parametern, ein mehrstufiges Optimierungsverfahren anzuwenden. Gegenüber Identifikationsverfahren im Zeitbereich werden aufwendige numerische Quadraturverfahren und die daraus resultierenden Fehlerquellen und Stabilitätsprobleme vermieden. Gegenüber Verfahren im Frequenzbereich, die ausschließlich mit Hilfe der FFT formuliert werden, sind Störungen in den Randspektren besser beherrschbar und eliminierbar. Außerdem werden mit einem FWT-Verfahren einfachere Denoising-Algorithmen anwendbar. Letztendlich wird im Vergleich zu einem FFT-Verfahren ein späterer Übergang zur Identifikation nichtlinearer MDOF-Systeme methodisch erleichtert.
Die Planung von komplexen Bauwerken erfolgt zunehmend mit Planungswerkzeugen, die den Export von Bauwerksinformationen im STEP-Format auf Grundlage der IFC (Industry Foundation Classes) erlauben. Durch die Verfügbarkeit dieser Schnittstelle ist es möglich, Bauwerksinformationen für die weiterführende Verarbeitung zu verwenden. Zur Visualisierung der geometrischen Daten stehen innerhalb der IFC verschiedene geometrische Modelle für die Darstellung von Bauteilen zur Verfügung. Unter anderem werden für das „Ausschneiden“ von Öffnungen aus Bauteilen (z.B. für Fenster und Türen) geometrische boolesche Operationen benötigt.
Gegenstand des Beitrags ist die Vorstellung eines Algorithmus zur Berechnung von booleschen Operationen auf Basis eines triangulierten B-Rep (Boundary Representation) Modells nach HUBBARD (1990). Da innerhalb von IFC-Gebäudemodellen Bauteile oft das Resultat mehrerer boolescher Operationen sind (z.B. um mehrere Fensteröffnungen von einer gegebenen Wand abzuziehen), wurde der Algorithmus von Hubbard angepasst, sodass mehrere boolesche Operationen gleichzeitig berechnet werden können. Durch diese Optimierung wird eine deutliche Reduzierung der benötigten Berechnungen und somit der Rechenzeit erreicht.
To support research in the building sector and in order to help it move towards a new digital economy, the European Commission under the 5th Framework initiative, especially the IST programme, funded various RTD projects. The opportunity to bring these IST projects together was acknowledged so that stronger links can be created under a clustering umbrella and that, moreover, links of those projects with their RTD environment could be facilitated. This has been the objective of work carried out within the ICCI (IST-2001-33022) Cluster project. This paper introduces the main aims and objectives of the project, and then presents its principal outcomes. In a second part, it synthesises the underlying concepts, technology and tools that will make ICT-based Construction a reality in a near future, and gives recommended actions for the industry, the EC and the Construction ICT R&D in Europe, giving some benefit of this project experience to the three communities.
We describe the database requirements of SEED (Software Environment to Support the Early Phases in Building Design). The requirements are typical for a database that intends to support a heterogeneous design support environment consisting of independent software modules with diverse internal design models, requirements not met by any commercial database system. The design and implementation of this database is an integral part of the overall software engineering effort. We describe the SEED approach that integrates external and in-house software based on a shared information model specified in the modeling language SPROUT, which allows for the specification of domains, and classes, relationship types and their behavior, and multiple classifications. The SPROUT run-time system organizes and coordinates the communication between the software modules and the database
Review of Discrete Optimization Techniques for CAD Discrete optimization in the structure design Morphological method The alternative graph approach Convex discrete optimization without objective function Matroidal Decomposition in design Decomposition of layered matrices Discrete Optimization in Designing Packing problem Optimal arrangement of rectangles and shortest paths in L1-metrics Partition problems Discrete optimization in computational geometry and computer graphics Maxima of a point set on the plane Triangulation One of the main problems in computer graphics is removing hidden lines and surfaces
In Bauplanungssystemen können XML-Technologien in vielen Bereichen eingesetzt werden mit dem Ziel, diese Systeme modular und webfähig zu gestalten. Der Einsatz lohnt als Basis-Datenstruktur für verschiedene rechnerinterne Modelle, Steuerungsstruktur für Customizing von Anwendungen, Bindeglied zwischen objektbasierten Systemen, Kommunikationsprotokoll zwischen Komponenten. Es ist möglich, komplexe Objekte aus dem Planungsalltag mittels XML arzustellen, zu speichern und zu verarbeiten. Es ist möglich, entsprechende Komponenten im Netz zu verteilen bzw. über Internet zu verbinden. Die heute dominierende Sicht auf XML als Austauschmedium wird ergänzt um die Idee eines XML-basierten Systems: Entwurfsobjekte können als >XML-Objekte< formuliert und im Sinne eines late binding verwendet werden.
Beside the standard calculation programs for civil engineering buildings mathematical programs have been lately established for the solution of differential equations for the analysis of mechanical and static systems. Programs like Maple, Matlab, MathCAD and Mathematica are popular in this field. To the knowledge of the authors, the widest application functionality offers the program Maple. Its advantages are, e.g. the alternatively symbolic or numerical solution of differential equation systems, the easy handling of parameter studies, the immediate visualization of results, the definition of macros for selected calculation steps and their export in other computer languages and, not least, the automatically generated, very clear documentation of the matehematical calculus.
Collaboration in AEC Design : Web-enabling Applications using Peer-to-Peer Office Communicator
(2004)
A market analysis conducted by Gartner Dataquest in August 2001 has shown the typical characteristics of the AEC design process. High volatility in membership of AEC design groups and members dispersed over several external offices is the common collaboration scenario. Membership is most times short lived, compared to the overall duration of the process. A technical solution has to take that into account by making joining and leaving a collaborative work group very easy. The modelling of roles of collaboration between group members must be based on a commonly understood principle like the publisher / subscriber model, where the individual that is responsible for the distribution of vital information is clear. Security issues and trust in the confidentiality of the system is a central concern for the acceptance of the system. Therefore, keeping the subset of data that will be published under the absolute control of the publisher is a must. This is not the case with server-based scenarios, sometimes even due to psychological reasons. A loosely bound Peer-to-Peer network offers advantages over a server-based solution, because of less administrative overhead and simple installation procedures. In a peer-to-peer environment, a publish/subscribe role model can be more easily implemented. The publish/subscribe model matches the way AEC processes are modelled in real world scenarios today, where legal proof of information exchange between external offices is of high importance. Workflow management systems for small to midsize companies of the AEC industry may adopt the peer-to-peer approach to collaboration in the future. Further investigations are being made on the research level (WINDS) by integrating the viewer and redlining application Collaborate! into a collaborative environment.
The construction industry is a project-based business bringing together many different organisations to complete a desired goal. The strategic use of Information and Communication Technologies (ICT) has enabled this goal to be completed more effectively. Two issues require addressing, the technology itself and the implementation factors of the technology. Such implementation factors should consider, among other factors, the legal and contractual issues associated with the use of ICT, training requirements and its effects on the organisational culture. To date the legal and contractual issues have not been extensively covered, and it is recognised that the technologies have not been properly covered by any recognised legal and contractual practices. This in turn is threatening to inhibit the growth and prosperity of the use of the technology on construction projects. This paper discusses these legal and contractual issues and describes methods and tools that can be used to enable the growth of technology to be used in a legal and contractually valid environment.
Collaborative Design Processes: A Class on Concurrent Collaboration in Multidisciplinary Design
(2004)
The rise of concurrent engineering in construction demands early team formation and constant communication throughout the project life cycle, but educational models in architecture, engineering and construction have been slow to adjust to this shift in project organization. Most students in these fields spend the majority of their college years working on individual projects that do not build teamwork or communication skills. Collaborative Design Processes (CDP) is a capstone design course where students from the University of Illinois at Urbana-Champaign and the University of Florida learn methods of collaborative design enhanced by the use of information technology. Students work in multidisciplinary teams to collaborate from remote locations via the Internet on the design of a facility. An innovation of this course compared to previous efforts is that students also develop process designs for the integration of technology into the work of multidisciplinary design teams. The course thus combines both active and reflective learning about collaborative design and methods. The course is designed to provide students the experience, tools, and methods needed to improve design processes and better integrate the use of technology into AEC industry work practices. This paper describes the goals, outcomes and significance of this new, interdisciplinary course for distributed AEC education. Differences from existing efforts and lessons learned to promote collaborative practices are discussed. Principal conclusions are that the course presents effective pedagogy to promote collaborative design methods, but faces challenges in both technology and in traditional intra-disciplinary training of students.
In the AEC (Architecture / Engineering / Construction) industry a number of individuals and organisations collaborate and work jointly on a construction project. The resulting consortium has large pool of expertise and experience and can be defined as a Virtual Organisation (VO) formed for the duration of the project. VOs are electronically networked organisations where IT and web based communication technology play an important role in coordinating various activities of these organisations. This paper describes the design, development and implementation of a Grid enabled application called the Product Supplier Catalogue Database (PSCD) which supports collaborative working in consortia. As part of the Grid-enabling process, specialised metadata is being developed to enable PSCD to effectively utilise Grid middleware such as Globus and Java CoG toolkits. We also describe our experience whilst designing, developing and deploying the security service of the application using the Globus Security Interface (GSI).
A/E/C Team members, while collaborating on building projects, rely on past experiences and content through the use of project design archives (whether in paper or digital format). This leads to underutilization of potential knowledge, as decision-making of data, information, and knowledge reuse is limited by access to these archives, due to sheer size and inconvenient presentation. This paper presents an integrated solution that leverages two technologies CoMem (Corporate Memory) and iRoom (interactive Room) developed at Stanford. This addresses critical limitations, i.e., content, context, visualization and interactivity, constraining the process of collaborative exploration towards knowledge reuse and decision-making.
Am Fraunhofer ISE wurde in den letzten Jahren die Simulationsumgebung ColSim entwickelt, die sich speziell zur Untersuchung von Regelungssystemen in Gebäudeenergieversorgungssystemen eignet. Zielsetzung des Designs ist die Umsetzung des simulationsbasierten Regelungsentwurfs, der einen unmittelbaren Einsatz der Regelungsmodule auf sog. Enbedded Systems gestattet. Das Simulationswerkzeug zeichnet sich durch die modulare offene Struktur aus, die eine flexible Erweiterung ermöglicht (vgl. TRNSYS [1]). Die Implementierung erfolgte im genormten ANSI-C Code, der einen plattform- unabhänigen Einsatz gewährleistet. Entwicklungsplattform stellt derzeit ein Linux Cluster dar, als Zielplattform wurden bisher sowohl eingebettete Industrie-PCs wie auch klassische Micro- controller Boards verwendet. Die Entwurfsmethode wird anhand einer Systemregelung für eine solarthermische Anlage mit 120m2 Kollektorfläche (SolarThermie2000 Anlage) demonstriert, bei der ein vernetztes Regelungssystem mit Internet-Integration zum Einsatz kommt. Das Regelungssystem verfügt seinerseits über ein Betriebssystem (schlankes embedded linux system), das die Kommunikation nach aussen gestattet. Das Regelungssystem vefügt somit über Klima- bzw Strahlungsdaten, die für den Regelungsprozess von Bedeutung sind. Die externen Informationen können einerseits zur >Einsparung< von Sensorik genutzt werden, andererseits gestatten sie den Einsatz von prädiktiver Regelungsmethodik, um den fossilen (Nachheiz-) Energieeinsatz zu minimieren. Mit Hilfe von simulationstechnischen Systemstudien kann ein adaptives Verhalten des Regelungssystems erprobt werden, das eine selbstständige Strecken- identifikation realieren kann. Beispielsweise soll beim näher beschriebenen solarthermischen System die Totzeit bestimmt werden, die sich infolge der Verrohrung zwischen Speicher und Entladegruppe ergibt. Der Betrieb der Entlade- pumpe wird einerseits in Abhängigkeit der Verfügbarkeit des Pufferwassers erfolgen, andererseits in Abhängigkeit des erwarteten Zapfvolumens durch den Verbraucher. Die vernetzten Regelungssysteme, die auf Basis der Simulationsmodelle ent- wickelt werden, sollen künftig die gesamte Energieflußanalyse des Gebäudes realisieren, wobei eine transparente Darstellung des Systemverhaltens auf Basis einer Internet Visualisierung erfolgt. Der Betreiber und Nutzer wird unmittel- bar durch die Online Dienste (SMS,Email,Fax) über das (fehlerhafte) Anlagen- verhalten informiert. Gerade die sensitiven regenerativen Systeme neigen durch ihre Komplexität zu Störungen, die oftmals nicht erkannt werden, weil die konventionellen Teilsysteme (z.B. Ergasbrenner) den Ausfall in der Regel >kompensieren<.
COMPARISON OF SOME VARIANTS OF THE FINITE STRIP METHOD FOR ANALYSIS OF COMPLEX SHELL STRUCTURES
(2000)
The subject of this paper is to explore and evaluate the semi-analytical, analytical and numerical versions of the finite strip method (FSM) for static, dynamic and stability analyses of complex thin-walled structures. Many of bridge superstructures, some roof and floor structures, reservoirs, channels, tunnels, subways, layered shells and plates etc. can be analysed by this method. In both semi-analytical and analytical variants beam eigenvalue vibration or stability functions, orthogonal polynomials, products of these functions are used as longitudinal functions of the unknowns. In the numerical FSM spline longitudinal displacement functions are implemented. In the semi-analytical and numerical FSM conventional transverse shape functions for displacements are used. In the analytical FSM the accurate function of the strip normal displacement and the plane stress function are applied. These three basic variants of the FSM are compared in quality and quantity in view to the following: basic ideas, modelling, unknowns, DOF, a kind and order of the strips, longitudinal and transverse displacement and stress functions, compatibility requirements, boundary conditions, ways for obtaining of the strip stiffness and load matrices, a kind and size of the structure stiffness matrix and its band width, mesh density, necessary number of terms in length, accuracy and convergence of the stresses and displacements, approaches for refining results, input and output data, computer resources used, application area, closeness to other methods, options for future development. Numerical example is presented. Advantages and shortcomings are pointed. Conclusions are given.
Computational Steering provides methods for the integration of modeling, simulation, visualization, data analysis and post processing. The user has full control over a running simulation and the possibility to modify objects (geometry and other properties), boundary conditions and other parameters of the system interactively. The objective of such a system is to explore the effects of changes made immediately and thus to optimize the target problem interactively. We present a computational steering based system for fluid flow problems in civil engineering. It is based on three software components as shown in figure 1. The modeler is the CAD-system AutoCAD, which offers a powerful programming interface allowing an efficient access to the geometric data. It also offers convenient manipulators for geometric objects. The simulation kernel is a Lattice-Boltzmann (LB) solver for the Navier-Stokes equations, which is especially suitable for instationary flows in complex geometries. For the visualization and postprocessing we use the software tool AVS, which provides a powerful programming interface and allows the efficient visualization of flow fields. These three components are interconnected through two communication modules and three interfaces as depicted in figure 1. Interface 1 is responsible for the transformation of the modified system for the simulation kernel, interface 2 is responsible for the proper preparation of the simulation data whereas interface 3 transforms the data from the modeler into a format suitable for the visualization system. The whole system is synchronized by the two communication modules.
Designing lightings in a 3D-scene is a general complex task for building conception as it is submitted to many constraints such as aesthetics or ergonomics. This is often achieved by experimental trials until reaching an acceptable result. Several rendering softwares (such as Radiance) allow an accurate computation of lighting for each point in a scene, but this is a long process and any modification requires the whole scene to be rendered again to get the result. The first guess is empirical, provided by experience of the operator and rarely submitted to scientific considerations. Our aim is to provide a tool for helping designers to achieve this work in the scope of global illumination. We consider the problem when some data are asked for : on one hand the mean lighting in some zones (for example on a desktop) and on the other hand some qualitative information about location of sources (spotlights on the ceiling, halogens on north wall,...). The system we are conceiving computes the number of light sources, their position and intensities, in order to obtain the lighting effects defined by the user. The algorithms that we use bind together radiosity computations with resolution of a system of constraints.
Poland is not situated in any seismic region of the earth, however there are still areas were underground mining is being conducted. In these areas, so-called 'paraseismic tremors', are very frequent phenomena. In the situation when a building examination is realized in order to define its safety, it is necessary to make a complete analysis, in which an influence of tremors should be included. To decide if a building is able to carry out any dynamic loads or not, it is necessary to compute its dynamic characteristics, i.e. natural frequencies. It is not possible using any standard techniques. After diagnosis a building in situ by an expert, computer techniques together with specialized software for dynamic, static, and strength analyses become a suitable tool. In this paper a special attention was paid to a typical twelve-store WGP (Wroclaw Great Plate) prefabricated building, concerning special type of joints. During dynamic actions these joints have a decisive influence on building's behavior. Paraseismic tremors are especially dangerous for these buildings and can be the reason of pre-failure states. It can be difficult and very expensive to prepare laboratory investigations of the part of a building or of a separate joint; therefore the computer modeling suitable to investigate behavior of such elements and whole buildings under different kinds of loads was used.
The paper describes a development of the analytical finite strip method (FSM) in displacements for linear elastic static analysis of simply supported at their transverse ends complex orthotropic prismatic shell structures with arbitrary open or closed deformable contour of the cross-section under general external loads. A number of bridge top structures, some roof structures and others are related to the studied class. By longitudinal sections the prismatic thin-walled structure is discretized to a limited number of plane straight strips which are connected continuously at their longitudinal ends to linear joints. As basic unknowns are assumed the three displacements of points from the joint lines and the rotation to these lines. In longitudinal direction of the strips the unknown quantities and external loads are presented by single Fourier series. In transverse direction of each strips the unknown values are expressed by hyperbolic functions presenting an exact solution of the corresponding differential equations of the plane straight strip. The basic equations and relations for the membrane state, for the bending state and for the total state of the finite strip are obtained. The rigidity matrix of the strip in the local and global co-ordinate systems is derived. The basic relations of the structure are given and the general stages of the analytical FSM are traced. For long structures FSM is more efficient than the classic finite element method (FEM), since the problem dimension is reduced by one and the number of unknowns decreases. In comparison with the semi-analytical FSM, the analytical FSM leads to a practically precise solution, especially for wider strips, and provides compatibility of the displacements and internal forces along the longitudinal linear joints.
Die digitale Unterstützung der Planungsprozesse ist ein aktueller Forschungs- und Arbeitsschwerpunkt der Professur Informatik in der Architektur (InfAR) und der Juniorprofessur Architekturinformatik der Fakultät Architektur an der Bauhaus-Universität Weimar. Verankert in dem DFG Sonderforschungsbereich 524 'Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken' entstehen Konzepte und Prototypen für eine fachlich orientierte Planungsunterstützung. Vor dem Hintergrund zunehmender Komplexität der Bauaufgaben steigt die Zahl der an einem Projekt Beteiligten und deren örtliche Verteilung. Planungsvorhaben sind dadurch verstärkt gekennzeichnet durch einen erhöhten Aufwand in Planungskoordination, -organisation und Kommunikation. Globale Computernetzwerke - das Internet - bieten Potential zur Lösung dieser Aufgaben. Vor diesem Hintergrund sind in der letzten Zeit eine Vielzahl von Systemen die sich unterschiedlichsten Techniken bedienen entstanden. Allen diesen Systemen gemein ist die Vision der Optimierung des Planungsprozesses, Vereinfachung der Kommunikation und die Verbesserung des Zeitmanagements. Aus Sicht der Architekten stellt sich die Situation derzeit als ambivalent dar: Einerseits sind die Ideen, die den 'IBPM - Systemen' zugrunde liegen, nachvollziehbar und offerieren einen sofort messbaren Nutzen. Auf der anderen Seite stehen vielfältige Aspekte, die den uneingeschränkten Einsatz dieser Systeme augenscheinlich verhindern. Ein Focus bei der Beleuchtung dieser Schwachstellen liegt auf dem omnipräsentem Problem der mangelhaften Unterstützung graphischer Daten als die bedeutendste Informationsgrundlage im Planungsprozess. Aus der konkreten, fachspezifischen Analyse des Planungsprozesses, der Untersuchung potentieller Entwicklungsmöglichkeiten vorhandener Systeme und der intensiven Auseinandersetzung mit neuen Internettechnologien entstand im Zuge dieses Forschungsschwerpunktes eine architekturpraxisnahe Applikation, die das Internet weg vom reinen Präsentationsmedium, über ein reines Kommunikationsmittel hinaus, hin zu einer leistungsfähigen interaktiven Schnittstelle für alle am Entwurfs- und Planungsprozess Beteiligten erschließt.
As it is well known, the approximation theory of complex valued functions is one of the main fields in function theory. In general, several aspects of approximation and interpolation are only well understood by using methods of complex analysis. It seems natural to extend these techniques to higher dimensions by using Clifford Analysis methods or, more specific, in lower dimensions 3 or 4, by using tools of quaternionic analysis. One starting point for such attempts has to be the suitable choice of complete orthonormal function systems that should replace the holomorphic function systems used in the complex case. The aim of our contribuition is the construction of a complete orthonormal system of monogenic polynomials derived from a harmonic function system by using sistematically the generalized quaternionic derivative
The contribution introduces an adaptable process model to meet the special requirements of the coordination of planning activities in AEC (Architecture, Engineering, Construction). The process model is based on the concept of Coloured Petri-Nets and uses metainformation to characterize process-relevant information and to enable process-control based on the actual results of the planning.
Cost and Schedule Controlling in Relation to Liquidity Management during Construction Projects
(2004)
The present paper describes a software application which can be used for relating the scheduled events of a construction project with the respective financial parameters, leading to an overall improvement in general controlling and liquidity management. For this purpose, existing construction schedules are taken and details of the assignment are recorded. Thus it becomes possible to assess a future payment status should changes in the designated schedule occur.
Die digitale Unterstützung der Planungsprozesse ist ein aktueller Forschungs- und Arbeitsschwerpunkt der Professur Informatik in der Architektur (InfAR) und der Juniorprofessur Architekturinformatik der Fakultät Architektur an der Bauhaus-Universität Weimar. Verankert in dem DFG Sonderforschungsbereich 524 >Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken< entstehen Konzepte und Prototypen für eine fachlich orientierte Planungsunterstützung. In dem Beitrag wird ein Konzept und prototypische Realisierung für die durchgängige Unterstützung des gesamten Bauaufnahmeprozesses für Altbausubstanz vorgestellt und diskutiert. Der Fokus liegt auf der frühe Phase in der Bauaufnahme als ein Baustein in einer gesamtheitlichen IT-gestützen Planungsumgebung eingegangen. Durch gezielte Aufnahme planungsrelevanter Parameter und Auswertung hinsichtlich Wirtschaftlichkeit und Wiederverwendbarkeit bzw. der Variantenüberprüfung von Nutungskonzepten, werden gerade in dieser Phase wesentliche Entscheidungen für eine kostengünstige Planung getroffen werden. In der Veröffentlichung wird der Fokus auf folgende Punkte gesetzt: - Strukturierung und Aufnahme der Informationen während der Erstbegehung - Skizzenhafte Abbildung als Basis für die Formulierung erster Entwurfsintensionen/ Variantenuntersuchungen - Navigations- und Informationsumgebung - gezielte Auswertungsmöglichkeiten (bspw. Wirtschaftlichkeitsberechnung, Wiederverwendung von Bauteilen, Kalkulation von Abrissmengen)
Die Aufgaben des Bauingenieurwesens sind dadurch geprägt, daß sowohl die Planung als auch die Ausführung von Bauwerken häufigen Änderungen unterliegen. Beschreibt man das Verhalten der Bauwerke und den Bauprozeß im Computer mit Modellen, so ändern sich Umfang und Struktur der Modelle als Folge der Änderung in Planung und Ausführung. Diesen Vorgang nennt man Dynamisierung des Modells. Die Dynamisierung führt zu Veränderungen und Inkonsistenzen in den Modellen der Anwendungen. Die Aktualisierung und Abstimmung von Beziehungen innerhalb eines Modells sowie die Sicherung der Konsistenz der Modelle untereinander sind daher von zentraler Bedeutung für die Lösung von Bauingenieuraufgaben. Seit den letzten 10 Jahren wird die objektorientierte Methode in der Modellierung für Anwendungen im Bauingenieurwesen intensiv entwickelt und eingesetzt. Es hat sich gezeigt, daß die Anwendung dieser Methode in wichtigen Bereichen der Modellierung zu Verbesserungen führt. Gleichzeitig hat sich aber auch herausgestellt, daß die für das Bauingenieurwesen wichtigen Aspekte der Aktualisierung und der Konsistenz nicht zweckmäßig beschreibbar sind. In diesem Beitrag wird eine einfache Modelliermethode in ihrem Konzept und ihrer Realisierung gezeigt, mit der sich die Aktualisierung von Objekten und Modellen sowie die Sicherstellung der Konsistenz in Systemen des Bauingenieurwesens bearbeiten lassen.
This paper will present a number of technical aspects for one of the most elaborate instrumentation and data acquisition projects ever undertaken in Canada. Confederation Bridge, the longest bridge built over ice covered seawater has been equipped with the state of the art data acquistition devices and systems as well as data transfer networks. The Bridge has been providing a fixed surface connection between Prince Edward Island and Province of New Brunswick in Canada since its opening in 1997. The Bridge has a rather long design service life of 100 years. Because of its large size and long span length, its design is not covered by any existing codes or standards worldwide. The focus of the paper is to introduce the data acquisition, transfer, processing and management systems. The instrumentation and communications infrastructure and devices will be presented in some details along with the data processing and management systems and techniques. Teams of engineers and researchers use the collected data to verify the analysis and design assumptions and parameters as well as investigate the short-term and long-term behaviour and health of the Bridge. The collected data are also used in furthering research activities in the field of bridge engineering and in elevating our knowledge about behaviour, reliability and durability of such complex structures, their components and materials.
Advances in construction data analysis techniques have provided useful tools to discover explicit knowledge on historical databases supporting project managers’ decision making. However, in many situations, historical data are extracted and preprocessed for knowledge discovery based on time-consuming and problem-specific data preparation solutions, which often results in inefficiencies and inconsistencies. To overcome the problem, we are working on the development of a new data fusion methodology, which is designed to provide timely and consistent access to historical data for efficient and effective management knowledge discovery. The methodology is intended to be a new bridge between historical databases and data analysis techniques, which shields project managers from complex data preparation solutions, and enables them to use discovered knowledge for decision making more conveniently. This paper briefly describes the motivation, the background and the initial results of the ongoing research.
The problem of data interoperability is now very important. The formal description of construction systems and objects must base upon the modeling for the description of construction data domain. The XML-language was selected as a basis of a universal data format, ensuring natural hierarchy of objects, flexibility, good layout and expandability. The language, developed by the author, is called Building Object Description Extensible Markup Language (bodXML). The types of all objects used by data transfer should be definite beforehand with existing methods of programming. It limits the possibilities of IT in application of new types. But the recipient software must recognize the building objects even if the kind of object is unknown at the outset. The author offers a set of main topological and geometric properties being sufficient for recognition of main three-dimensional building constructions with flat edges. The tests of artificial neuron network have shown that the recognition of a kind of the constructions represented as a set of indicated parameters happens enough confidently.
Building design, realization, operation and refurbishment have to take into account the environmental impacts as well as the resulting costs over a long period of time. LCA methods had to be developed for buildings because of their complexity, their long life duration and through a large number of actors who are involved. This was realized by integrating life cycle analysis, life cycle costing and building product models in integrated LCA models. However the use of such models leads to difficulties. The principal ones are the uncertainty treatment in LCA models and the lack of experience of practitioners who are not LCA specialists. Answers to these problems are the management of uncertainty and the development of simplified models for building design, construction and operation. This can be achieved with the mean of experimental plans or Monte Carlo simulation. The paper will focus on how these techniques can be used, what are their possibilities and disadvantages, particularly concerning the development of simplified models.
The construction of a new building interferes with the existent environment. A careful aesthetic study must be made at an early stage in the design and the visualization of a three-dimensional (3D) model of the structure is the best way to analyse it. As some structures presents a complex shape is difficult to execute a 3D model as well as the specific drawings. Using traditional graphical systems, the execution of deck specific drawings is extremely time consuming and the 3D deck model gives an approximation only of the exterior shape of the deck. The modelling scheme proposed here allows the automation of the geometric design phases related to the deck bridge element using as a means of integration a geometric database representative of the real deck shape. This concept was implemented in a computer program. This application is an important support in the process design namely at the conceptual and graphical stages. The computer application provides an important tool to the bridge designer particularly at the conceptual stage, as it allows aesthetic and structural evaluation of the bridge at an early stage in the design. The geometric modelling process and graphical results of a case study are presented.
In this contribution, the design of an analysis environment is presented, that supports an analyst to come to a decision within a gradual collaborative planning process. An analyst represents a project manager, planner or any other person, involved in the planning process. Today, planning processes are managed by several geographically distributed planners and project managers. Thus, complexity of such a process rises even more. Prediction of consequences of many planning decisions is not possible, in particular since assessment of a planning advance is not trivial. There have to be considered several viewpoints, that depend on individual perceptions. In the following, methods are presented to realize planning decision support.
In the field of Civil Engineering, the content of reinforcement concrete design course (RC course) has complicated design procedures and many difficult specifications to recognize, so most of the students regard the RC course a tough course, and teachers very often find the class time insufficient. Also, teachers of the RC course usually spend a lot of time in organizing the examinations for handling tedious calculations and complicated logical reasoning. Furthermore, correcting examination papers with partial scoring takes even more time of the teacher’s. Therefore, the objective of this research is to design and develop a partial scoring assessment system to meet the needs in engineering design courses, such as the RC course. This assessment system can generate test items with variable parameters. It also supports inference diagnosis on the examinee’s misconceptions and gives partial scores in grading the examination. In this research, the example test subject is the analysis of rectangular reinforced concrete beam with single layer steel bars.
An important feature of the 2003 SARS outbreak in Canada, Singapore, and Hong Kong was that many health care workers (HCWs) developed SARS after caring for patients with SARS. This has been ascribed to inadequate or ineffective patient isolation. However, it is difficult for dense cities to provide sufficient isolation facilities within a short period of time. This has raised concerns from the public for new strategies in the planning and design of isolation facilities. Considering that SARS or other infectious diseases could seriously damage our society’s development, isolation facilities that could be rapidly and economically constructed with appropriate environmental controls are essential. For this reason, the design team of the Department of Architecture collaborated with a special task force from the Faculty of Medicine, who are the frontline medical officers treating the SARS patients, to design Rapidly Assembled Isolation Patient Wards. Both architecture and medicine are well established disciplines, but they have little in common in terms of the mode of knowledge construction and practice. This induced much intellectual exploration and research interest in conducting this study. The process has provided an important reference for cross disciplinary studies between the architectural and medical domains.
Usually, the co-ordination of design and planning tasks of a project in the construction industries is done in a paper based way. Subsequent modifications have to be handled manually. The effects of modifications cannot be determined automatically. The approach to specify a complete process model before project start does not consider the requirements of the construction industries. The effort of specification at the beginning and during the process (modifications) does not justify the use of standard process model techniques. A new approach is presented in the according paper. A complete process model is deducted on the basis of a core. The core consists of process elements and specific relations between them. Modifications need to be specified in the core only. The effort of specification is therefore reduced. The deduction of the complete process is based on the graph theory. Algorithms of the graph theory are also used to determine the effects of modifications during project work.
DETERMINATION OF THE DYNAMIC STRESS INTENSITY FACTOR USING ADVANCED ENERGY RELEASE EVALUATION
(2000)
In this study a simple effective procedure practically based upon the FEM for determination of the dynamic stress intensity factor (DSIF) depending on the input frequency and using an advanced strain energy release evaluation by the simultaneous release of a set of fictitious nodal spring links near the crack tip is developed and applied. The DSIF is expressed in terms of the released energy per unit crack length. The formulations of the linear fracture mechanics are accepted. This technique is theoretically based upon the eigenvalue problem for assessment of the spring stiffnesses and on the modal decomposition of the crack shape. The inertial effects are included into the released energy. A linear elastic material, time-dependent loading of sine type and steady state response of the structure are assumed. The procedure allows the opening, sliding and mixed modes of the structure fracture to be studied. This rational and powerful technique requires a mesh refinement near the crack tip. A numerical test example of a square notched steel plate under tension is given. Opening mode of fracture is studied only. The DSIF is calculated using a coarse mesh and a single node release for the released energy computation as well a fine mesh and simultaneous release of four links for more accurate values. The results are analyzed. Comparisons with the known exact results from a static loading are presented. Conclusions are derived. The values of the DSIF are significantly larger than the values of the corresponding static SIF. Significant peaks of the DSIF are observed near the natural frequences. This approach is general, practicable, reliable and versatile.
Werden Bauwerke für eine begrenzte Lebensdauer ausgelegt, kann es sinnvoll sein, die Tragfähigkeit von Tragkonstruktionen zu überwachen, um Schäden zu vermeiden und eine sichere Funktionsweise zu gewährleisten. Die Überwachung, hier auf Basis von Schwingungen der Struktur, wird zumeist von einer rechnergestützten Messtechnik automatisch durchgeführt. Der Computer überprüft spezielle physikalische Kennwerte oder Kennfunktionen des Tragwerks auf Veränderungen. Eine Schädigung ruft eine Veränderung hervor. Aufgabe der Systemidentifikation ist es, eine solche Veränderung zu erkennen. Eine Modellbildung kann z.B. auf theoretischer Basis als Finite Element Modellierung, oder als Black Box Modellierung aus Messwerten mit der Methodik der deterministischen oder stochastischen Systemidentifikation vorgenommen werden. In diesem Aufsatz werden die Analyse allgemeiner deterministischer und stochastischer Erregungen und deren Schwingungsantworten zur Modellbildung und Systemidentifikation beschrieben. Als Anwendungsbeispiele für die Bauwerksüberwachung werden Methoden zur Schadens-Erfassung und -Lokalisation vorgestellt. Den Abschluss bilden Ausführungen zur numerischen Modellierung von Windlasten als stochastischen Prozess und der Kopplung dieser Modelle mit finiten Element-Modellen, um eine bessere Abschätzung der Lebensdauer eines Bauwerks schon im Entwurfsprozess zu ermöglichen.
Communication software and distributed applications for control and building performance simulation software must be reliable, efficient, flexible, and reusable. This paper reports on progress of a project, which aims to achieve better integrated building and systems control modeling in building performance simulation by run-time coupling of distributed computer programs. These requirements motivate the use of the Common Object Request Broker Architecture (CORBA), which offers sufficient advantage than communication within simple abstraction. However, set up highly available applications with CORBA is hard. Neither control modeling software nor building performance environments have simple interface with CORBA objects. Therefore, this paper describes an architectural solution to distributed control and building performance software tools with CORBA objects. Then, it explains how much the developement of CORBA based distributed building control simulation applications is difficult. The paper finishes by giving some recommendations.
PKPM series CAD software is an integrated CAD system for building design, which integrated the following parts: architectural design, structural design, building service design and statistic analysis of quantity and budget. These four parts share the same database with high efficiency. Over 80% of design corporation in China are using PKPM series CAD software. The detailed information and some key modules of PKPM series CAD software are mainly introduced in this paper.
A simulation system has been developed as a computer aided design tool to evaluate the effect of proposed design on the thermal environment during the designing process. This system calculates outdoor surface temperatures in order to evaluate the thermal impact of a design factor in outdoor space. In this study, the previous heat balance simulation system was improved to predict the surface temperature of a proposed design using 3D-CAD. This system is able to input the complicated outdoor spatial forms efficiently and also to evaluate the surface temperature distribution from any viewpoint.
This paper reports on the latest results in the development of a new approach for simulating the thermal behavior of buildings that overcomes the limitations of conventional heat-transfer simulation methods such as FDM and FEM. The proposed technique uses a coarse-grain approach to model development whereby each element represents a complete building component such as a wall, internal space, or floor. The thermal behavior of each coarse-grain element is captured using empirical modeling techniques such as artificial neural networks (ANNs). The main advantages of the approach compared to conventional simulation methods are: (a) simplified model construction for the end-user; (b) simplified model reconfiguration; (c) significantly faster simulation runs (orders of magnitude faster for two and three-dimensional models); and (d) potentially more accurate results. The paper demonstrates the viability of the approach through a number of experiments with a model of a composite wall. The approach is shown to be able to sustain highly accurate longterm simulation runs, if the coarse-grain modeling elements are implemented as ANNs. In contrast, an implementation of the coarse-grain elements using a linear model is shown to function inaccurately and erratically. The paper concludes with an identification of on-going work and future areas for development of the technique.
Seismic insulation is one of the most progressive types of seismic protection. Seismic insulation is understood as applying special devices for reducing of inertial seismic loads acting on a building. The constructions, shown in article, significantly more effectively solve problems of seismic protection, comparing to the existing seismic insulation systems (SIS). The Special Mechanical Engineering Design Office has developed, manufactured and tested a shock-absorber unit (SAU) of large load capacity. The SAU represents a block of number of pneumatic shock-absorbers (PSA), concentrically mounted round the guiding cylinder. The protected object rests upon the upper movable part of the guiding cylinder of the SAU. In its turn, the lower part of the SAU is rested on the foundation plate, mounted on the ground. A set of the SAU is a constructive realization of the SIS. Efficiency of such SIS has been proved as theoretically, so experimentally An effective SIS can also be created on the base of the elasto-plastic shock-absorbers developed by the KBSM. New designing and constructional solutions are based on the use of the original SIS elements, performed on the base of long time existing (in the other field of technical equipment)units, safety and durability of which have been proved by long term service (more than 20 years).
Dezentrale mikrocontrollerbasierende Messtechnik in der in der Leittechnik historischer Gebäude
(2003)
Im Hintergrund stehen historische Bibliotheksgebäude, deren Bestände durch ungünstige klimatische Verhältnisse in den Innenräumen ihrer der Erhaltung gefährdet sind. Damit Maßnahmen der Gebäudeleittechnik geplant werden können, ist die Aufnahme der Umweltgrößen über einen längeren Zeitraum erforderlich. Im speziellen zielen die Maßnahmen auf die Klimatechnik mit ihren Aufgaben der Heizungsregelung, Belüftungsanlagen. Ein Messsystem kann mit dem Mikrocontroller Beck >IPC@CHIP< realisiert werden. Das an der FH Fulda entwickelte Messsystem nimmt im Abstand von drei Minuten Messwerte von Lufttemperatur, Luftfeuchte, Luftdruck und UV-Intensität auf. Sie gelten als beeinflussende Größen der organischen Materialien des Fundus. Die Messwerte werden in einer elektronischen Schaltung vorverarbeitet und einem Mikrocontroller zugeführt. Dieser archiviert die Daten fortlaufend über einen Zeitraum bis zu sieben Jahren. Der Mikrocontroller ist mit seinem internen Flash-Speicher und der Ethernet-Schnittstelle in der Lage, die gesammelten Messwerte als Webserver zur Verfügung zu stellen. Wenn das Messsystem an das Internet angeschlossen wird, können die Klimaverläufe in einem herkömmlichen Internet-Browser dargestellt werden. Dafür wurde mit der Programmiersprache Java eine Visualisierungsoberfläche erstellt. Sie bietet die verschiedensten Möglichkeiten der Datenauswertung. Dazu gehört der Zugriff auf jeden einzelnen Messwert, auf Tages-, Monats- und Jahresmittelwerte und die Errechnung von Minima und Maxima. Der Flash-Speicher wurde auch dazu benutzt, Dokumentation und Bedienhinweise abzulegen, die somit über das Netzwerk abrufbar sind. Das gesamte Messsystem ist in ein Buch integriert und erfasst seit August 2002 die klimatischen Verhältnisse der Herzogin-Anna-Amalia-Bibliothek in Weimar. Nach den erfolgten Langzeitmessungen kann darüber entschieden werden, welchen Beitrag eine Gebäudeleittechnik mit integrierter Klimaregelung zur Werterhaltung der Gegenstände leisten kann.
Die Inverse Matrizeniteration ist ein Verfahren zur Bestimmung der Eigenzustände reeller, symmetrischer Matrizen mit konvexer Profilstruktur. Das Verfahren zeichnet sich besonders durch den Erhalt der Profilstruktur und die Bestimmung der Eigenwerte in geordneter Reihenfolge aus. Die Iteration ermöglicht die gezielte Bestimmung mehrerer aufeinander folgender betragskleinster Eigenwerte, wie es im Bauwesen insbesondere für Stabilitäts- und Schwingungsanalysen erforderlich ist. Die Anwendung dieses Verfahrens hat gezeigt, daß ein Teil der gesuchten Eigenwerte mit wenigen Iterationszyklen bestimmt werden kann, während andere eine größere Anzahl von Iterationszyklen erfordern. Diese lokale Konvergenzverschlechterung kann durch eine Jacobi-Randkorrektur, wie sie im Beitrag näher erläutert wird, behoben werden.
Die Eisenbahnbrücken des Lehrter Bahnhofs in Berlin - Ein ganzheitliches FE-Berechnungskonzept
(2000)
Der Komplexität moderner Brückenbauwerke scheinen die verwendeten Berechungsmodelle oft nicht angemessen. Tragwerksberechnungen basieren in vielen Fällen noch auf der Vorgehensweise, das Brückenbauwerk in Einzelbauteile zu zerlegen und mit unterschiedlichen Teilmodellen zu behandeln. Das erscheint, auch vor dem Hintergrund ständig wachsender Rechnerleistung, nicht mehr zeitgemäß. Dies gilt zum Beispiel auch für die gängige Praxis, flächenhafte Brückenüberbauten mit Balkenmodellen zu berechnen. Der vorliegende Beitrag stellt ein ganzheitliches Berech-nungskonzept vor, welches auf der Basis eines einzigen FE-Modells die Berechnung des Gesamtbauwerks erlaubt. Damit wird für alle Bauteile neben der Zustandsgrößenberechnung auch die Bemessung von Stahl- und Spannbetonbauteilen bis hin zu Nachweisen wie zur Beschränkung der Rissbreite geführt. Die Anwendung dieses Berechnungskonzeptes wird am Beispiel der Eisenbahnüberführung des neuen Lehrter Bahn-hofs in Berlin gezeigt. Das verwendete FE-Modell umfasst Baugrund, Fundamente, Stahl- bzw. Gußstahlunterkonstruktion sowie den Stahl- bzw. Spannbetonüberbau. Besonderheiten sind unter anderem die Modellierung des plattenbalkenartigen Überbaus durch exzentrische, vorspannbare Schalenelemente und das getrennte Vorhalten von tragwerks- und lastbezogenen Eingabefiles. Damit gelingt die sequentielle Erfassung unterschiedlicher Bettungsmoduli zur Simulation statischer und dynamischer Beanspruchungen, die Berücksichtigung des Anspannens und der Interaktion zwischen vorgespannten Stahlverbänden zur Aufnahme von Horizontallasten sowie die Berücksichtigung unterschiedlicher statischer Systeme bei der Herstellung des Spannbetonüberbaus.
Der Versuch, alle vorhandenen Arten von Bauobjekten in einem Schema zu beschreiben, wird zu einem übermäßig großen Schema führen. Im internationalen Zentrum für Bauinformatik hat der Autor die Besonderheiten des Bauwesens formuliert und gefolgert, dass es genügt, in den Klassen topologische, geometrische und graphische Aspekte der Bauobjekte, sowie einige Hilfsbegriffe zu beschreiben. Ein Hauptziel bei der Entwicklung einer Sprache ist die Einfachheit des Schemas. Insgesamt werden etwa nur 50 Klassen für CAD-Systeme vorgeschlagen. In Modellen von Bauobjekten, die von CAD-Systemen erzeugt werden, betrifft der größte Anteil der Daten die geometrische Form der Elemente und ihre Raumlage. Zur Beschreibung der Bauobjekte werden nur 7 Hauptklassen verwendet: Entity, System, Clone, Context, Annotation, Figure und Process. Von besonderer Bedeutung ist die Klasse >Clone<. Sie erlaubt in kompakter Form die Beschreibung einer Menge ähnlicher Objekte, die sich in wenigen Parametern (zum Beispiel, der Lage im Raum) unterscheiden. Das vorgestellte Konzept führt zu einer starken Verringerung der Dateigröße und erleichtert das Erkennen der Objekte bei der Übergabe der Daten. Die Strukturdiagramme der Klassen wurden mit Hilfe der UML-Sprache erzeugt. Die Klassen sind auch im XML-Format beschreiben und können auf Homepage >http://www.mtu-net.ru/pavlov/bodXML< gelesen werden. Zur Prüfung der Anwendbarkeit des Schemas wurden Beispiele der Beschreibung verschiedener Bauobjekte entwickelt. Diese Beispiele sind auf o.g. Homepage angegeben
Es wird das gemeine Schema der Projektierung, die die Analyse des Marktes einschließt, betrachtet, die Einschätzung der Nomenklatur und des Umfanges des Produktionsausstoßes der Erzeugnisse, und die Schlüsselaufgabe der Wahl der Regimes der Bearbeitung. Die letzte Aufgabe wird - konkretisiert es werden die Formeln berichtet und die Algorithmen der Optimierung nach den Kriterien der Produktivität und den Selbstkostenpreisen. Es sind die Formeln für die Produktivität der Systeme mit der flexiblen Verbindung, präzisiert sowie die Abhängigkeiten für die Standhaftigkeit bei den kleinen Geschwindigkeiten des Schneidens. Die Schlüsselwörter: der Markt, die Regimes der Bearbeitung, die Produktivität, der Selbstkostenpreis, die Optimierung
Re-using knowledge in architecture, engineering and construction (AEC) firms can lead to greater competitive advantage, improved designs, and more effective management of constructed facilities. This paper discusses the importance of exploration and discovery of reusable knowledge from a corporate archive as opposed to simple search and retrieval. We describe and illustrate through a scenario of use an exploration framework and prototype, CoMemTM that formalizes the added value of exploration in the process of knowledge reuse. We discuss two exploration activities: (i) Breadth- Only overview exploration that assist a user to rapidly localize pockets of re-usable knowledge from the large corporate archive and (ii) Iterative breadth-depth exploration that enables a user to identify those re-usable components of the Corporate Memory that may yield design issues that were not originally considered.
Discrete-continual Finite Element Method of Analysis for Three-dimensional Curvilinear Structures
(2003)
This paper is devoted to discrete-continual finite element method (DCFEM) of analysis for three-dimensional curvilinear structures. Operational and variational formulations of the problem in the ring coordinate system are presented. The discrete-continual design model for structures with constant physical and geometrical parameters in longitudinal direction is offered on the basis of so-called curvilinear discrete-continual finite elements. Element coordinate system, approximation of nodal unknowns, construction of element nodal load vector are under consideration. Element system of differential equations is formulated with use of special generalized block-structured stiffness matrix of discrete-continual finite element. Local differential relations are formulated. Resultant multipoint boundary problem for system of ordinary differential equations is given. Method of analytical solution of multipoint boundary problems in structural analysis is offered as well. Its major peculiarities include universality, computer-oriented algorithm involving theory of distributions, computational stability, optimal conditionality of resultant systems, partial Jordan decomposition of matrix of coefficients, eliminating necessity of calculation of root vectors. Brief information concerning developed software is provided.
Available construction time-cost trade-off analysis models can be used to generate trade-offs between these two important objectives, however, their application is limited in large-scale construction projects due to their impractical computational requirements. This paper presents the development of a scalable and multi-objective genetic algorithm that provides the capability of simultaneously optimizing construction time and cost large-scale construction projects. The genetic algorithm was implemented in a distributed computing environment that utilizes a recent standard for parallel and distributed programming called the message passing interface (MPI). The performance of the model is evaluated using a set of measures of performance and the results demonstrate the capability of the present model in significantly reducing the computational time required to optimize large-scale construction projects.
In this contribution the software design and implementation of an analysis server for the computation of failure probabilities in structural engineering is presented. The structures considered are described in terms of an equivalent Finite Element model, the stochastic properties, like e.g. the scatter of the material behavior or the incoming load, are represented using suitable random variables. Within the software framework, a Client-Server-Architecture has been implemented, employing the middleware CORBA for the communication between the distributed modules. The analysis server offers the possibility to compute failure probabilities for stochastically defined structures. Therefore, several different approximation (FORM, SORM) and simulation methods (Monte Carlo Simulation and Importance Sampling) have been implemented. This paper closes in showing several examples computed on the analysis server.
Bei komplexen Gründungskonstruktionen sind Planungsfehler durch eine konsistente Modellierung vermeidbar. Manuelle Berechnungsmethoden ermöglichen im allgemeinen ein dreidimensionales Vorgehen nicht. Numerische Berechnungsmethoden, wie z.B. die Finite-Element-Methode, sind ein optimales Werkzeug zur ganzheitlichen Simulation des Problems. Die für die Finite-Element-Analyse notwendige Diskretisierung komplexer Bau- grundstrukturen ist manuell nicht zu bewältigen. Der vorliegende Beitrag zeigt wie ein Finite-Element-Modell automatisch aus einem geotechnischen Modell unter Berücksichtigung der spezifischen Anforderungen der Baugrund-Tragwerk-Struktur und des Bauablaufes erzeugt werden kann. Hierbei wird die Berücksichtigung der geometrischen und der mechanischen Besonderheiten bei der Netzgenerierung dargestellt.
Informations-und Kommunikationtechniken haben im Bauwesen noch nicht die gewünschten Vorteile für Kosten und Qualität von Bauobjekten erzielt. Die Vielfalt der dafür genutzten Systeme und Formate führt häufig zu Redundanzen und Informationsverlusten in den Planungs- und Bauprozessen sowie Problemen beim Datenaustausch zwischen den Systemen. Durch die Datenmengen, die in CAD, AVA, Terminplanung, Tabellenkalkulation, Textverarbeitung etc. durch unterschiedliche Beteiligte erzeugt werden, ist darüber hinaus das Risiko einer unterschiedlichen Datenaktualität enorm. Als Konsequenz dieser Erkenntnisse bestand die Aufgabe, eine ganzheitliche und durchgängige Produkt- und Prozeßstrategie für den preiswerten Einfamilienhausbau zu entwickeln. Die Grundlage dafür bildet ein komplexes System von rationellen Entwurfsregeln, Konstruktionslösungen und Bau- und Baustofflogistikkonzepten auf der Basis moderner Informations- und Kommunikationstechnologien.
The paper deals with the simulation of the non-linear and time dependent behaviour of complex structures in engineering. Such simulations have to provide high accuracy in the prediction of deformations and stability, by taking into account the long term influences of the non-linear behaviour of the material as well as the large deformation and contact conditions. The limiting factors of the computer simulation are the computer run time and the memory requirement during solving large scale problems. To overcome these problems we use a dynamic-explicit time integration procedure for the solution of the semi-discrete equations of motion, which is very suited for parallel processing. In the paper at first we give a brief review of the theoretical background of the mechanical modelling and the dynamic-explicit technique for the solution of the semi-discrete equations of motion. Then the concept of parallel processing will be discussed . A test example concludes the paper.
Die Entwicklung von Projekten des Hoch- und Industriebaus ist durch eine Vielzahl von zu verarbeitenden Informationen und Bewertungsgrundlagen in den Planungsphasen der Bau-land- sowie der Hoch- und Industriebauentwicklung für die Kostenkalkulation geprägt. Die Identifizierung, Beschaffung, Verwaltung und Verarbeitung dieser nach Art, Form und Inhalt bei den Kommunikationspartnern verteilt vorliegenden Informationen führt zu komplexen Planungsprozessen. Zur Bewältigung dieser Komplexität ist die Bauprojektentwicklung kooperativ in vernetzten Systemen durchzuführen. Insbesondere kann die Kostenkalkulation auf Basis der sich zeitlich verändernden Fachinformation im Netz effizient, zeitnah und mit hoher Qualität durchgeführt werden. Die bisher eingesetzten Methoden und Verfahren unterstützen die Projektplaner bei der Datenerfassung und -verarbeitung der kostenrelevanten Informationen nur in lokalen Computernetzen. Die Erfassung von Kosteninformationen, wie zum Beispiel Kostenschätzungen zur Planung von Projekten oder die im Laufe der Projektentwicklung entstehenden Kosten, liegen jedoch verteilt bei den Projektpartnern vor. Es ist daher notwendig, zur Vermeidung von Erfassungs-fehlern und zur Steigerung der Kooperation der Projektpartner bei der wirtschaftlichen Kalkulation von Bauprojekten, den Projektpartnern eine rechnergestützte und projektweite Kalkulation unter Nutzung von Computernetzwerken zu ermöglichen. Die Autoren stellen ein agenten-basiertes Kooperationsmodell für die Kosten-Kalkulation in Rahmen der Bauprojektentwicklung in vernetzten Systemen vor, das durch Strukturierung der Planungsinformationen die selbständige Suche nach klar definierten Informationen auf Basis mobiler Internet-Agenten dynamisch-adaptiv unterstützt.
The US Department of Highways is embarked on a very ambitious program to renovate much of the bridges and highways allover the USA. While it is doing so, it is also trying to take advantage of using such program to enhance the research for future programs. One of those projects is a 1000 ft. (305 m) long concrete bridge in the State of Vermont, located in the North East of USA. It is scheduled for renovation, in which the deck and its side parapet walls will be replaced. New England Transportation Consortium (NETC) decided to make further use of this project to find what effect will the heavy demolition tools have on the concrete to remain in place. The goal is to find out the extent of the experimental measurement agreement with the analytical results. In order to accomplish such a goal, numerous strain gages were installed at and in the vicinity of the demolition areas. Those gages will measure the effect of the demolition on the adjacent areas, and how far the destructive effect of the powerful demolition tools can propagate through different parts of the structure. The gages are connected to National Instruments data acquisition equipment, which is connected to a lap top computer to save all the acquired data. The analytical part the project will be using the energy method, which means that the energy applied by the demolition tools should equal the energy absorbed by the demolished structure, in elastic and plastic deformation forms.
Ein Algorithmus zur Lösung von Tourenproblemen mit Zeitrestriktionen und inhomogenem Fahrzeugpark
(2003)
Es wird ein Algorithmus vorgestellt, der auf Tourenprobleme mit verschiedenen Restriktionen anwendbar ist. Zum einen können sowohl die Aufträge der Kunden als auch die Fahrzeuge mit Zeitrestriktionen in Form eines oder mehrerer Zeitfenster versehen sein. Zum anderen stehen auszuliefernde Waren nur in gewissen zeitabhängigen Stückzahlen zur Verfügung. Die vorhandenen Fahrzeuge besitzen hinsichtlich Kapazität und Geschwindigkeit unterschiedliche Eigenschaften, wobei von den Kunden gewisse Fahrzeugtypen ausgeschlossen werden können. Die Aufträge werden zunächst hinsichtlich örtlichem und zeitlichem Abstand in Cluster unterteilt. Den Clustern werden auf der Basis von Bewertungen Fahrzeuge zugeordnet, mit denen Touren innerhalb der Cluster erzeugt werden. Das Aufstellen der Touren erfolgt mittels eines Savingsverfahrens, bei dem das Saving aus einer örtlichen und einer zeitlichen Komponente besteht. Der Algorithmus läßt sich über eine Vielzahl an Parametern steuern.
Im Rahmen eines BMWT-geförderten Projekts entstand innerhalb einer Kooperation der Ritter Energie-und Umwelttechnik mit der Universität Karlsruhe (Fachbereich Bauphysik und Technischer Ausbau) eine bedarfsgeführte Fuzzy-Regelung für eine Lüftungsanlage mit Wärmerückgewinnung. Da bei Niedrigenergie-und Passivhäusern die Wärmeverluste über die Lüftung vergleichsweise hoch sind, besteht hier noch Einsparbedarf.Eine bedarfsgeführte Regelung kann die Lüftungsrate reduzieren, wenn z.B. mehrere Bewohner abwesend sind oder Fensterlüftung betrieben wird und die Luftqualität somit gut genug ist. Ausserdem wird die Lüftung reduziert, wenn die Raumluft in der Heizperiode zu trocken wird. Die sog. Fuzzy-Logik eignet sich gut für solche Regelungsaufgaben, bei denen menschliches Empfinden und Entscheiden nachgebildet werden soll. Fuzzy bedeutet eigentlich >unscharf<, d.h. es wird mit unscharfen Begriffen gearbeitet. Eine typische Anweisung in einer Fuzzy-Regelbasis lautet z.B. >Wenn die Luft trocken ist dann wenig lüften<. Der Prozess, in dem die Zugehörigkeit einer scharfen Messgröße zu den verschiedenen Fuzzy-Sets wie >trocken<, >mittel< und >feucht< bestimmt wird, heisst >Fuzzifizierung<. Das Anwenden der Regeln und das Extrahieren des unscharfen Ergebnisses heisst >Interferenz<. Abschließend wird eine >Defuzzifizierung< vorgenommen, um wieder ein scharfes Ergebnis zu erhalten. Die Fuzzy-Lüftungsregelung hat sich in Feldtests sehr gut bewährt. Simulationsrechnungen mit dem Gebäudesimulationsprogramm >ColSim< haben ausserdem gezeigt, dass im Passivhaus bis zu 16% der für Heizen und Lüften verbrauchten Primärenergie eingespart werden kann, wenn die Fuzzy-Regelung gegen eine konventionelle Drei-Stufen-Regelung auf Stufe >Normal< antritt. Gleichzeitig wird der Wohnkomfort deutlich erhöht, da Luftqualität und Feuchte stets im richtigten Bereich bleiben.
Zur Berechnung der Böeneinwirkungen auf ein Brückenbauwerk wird ein stochastisches Modell vorgestellt. Die Windkraft aus der Böenbelastung wird dabei als systemunabhängige Luftkraft betrachtet welche in mathematischer Hinsicht dadurch gekennzeichnet ist, daß die aeroelastischen Bewegungsdifferentialgleichungen inhomogener Natur sind und der Bewegungsablauf den Charakter einer erzwungenen abklingenden Schwingung hat. Ausgehend von den nicht linearen partiellen Differentialgleichungen für Verschiebung und Torsion wird mittels der Galerkin Prozedur ein System von totalen Differentialgleichungen abgeleitet. Die äußeren Luftkräfte werden als gefilterter Poissonprozess von Dirac Impulsen dargestellt. Zur Berechnung der statistischen Momente des Differentialgleichungssystem wird die Itô'sche Differentialformel erweitert und in ein System von algebraischen nicht linearen Gleichungen transformiert. Diese dienen zur Berechnung des Momentenverlaufs für den stationären Anteil des stochastischen Prozesses. Der Abschluß des so erhaltenen nicht linearen Gleichungssystems erfolgt über die Methode der Kumulantenabschlußtechnik.
Trotz der langjährigen Erfahrung bei der Anwendung objektorientierter Konzepte bei der Modellierung von Gebäuden ist es bisher nicht gelungen, ein allgemein anerkanntes Gebäudemodell im Rechner abzubilden. Das mag zum einen daran liegen, daß die Standardisierung eines solchen Modells bis heute zu keinem Abschluß gekommen ist. Zum anderen aber scheint vor allem die Problematik der Abbildung eines solchen Gebäudemodells in das Objektmodell einer Programmiersprache bisher unterschätzt worden zu sein. Die erhoffte Durchgängigkeit von objektorientierter Analyse, Entwurf und Programmierung gelingt bei Anwendungen für Entwurfsaufgaben nicht. Das gilt vor allem für Anwendungen, die frühe Entwurfsphasen unterstützen und damit erst zur Definition eines Gebäudemodells beitragen. Im Bereich der Softwareentwicklung wird das Konzept des Objektes als Ordnungsbegriff zur Strukturierung von Softwaremodulen benutzt. Die Übertragung dieser Ordnung in die Welt des Ingenieurs oder Architekten zur Bezeichnung eines konkreten Elements aus einem Modell (Raum 42 aus der Menge aller Räume des Gebäudes Blumenstraße 7) kann daher nur zu begrenzten Erfolgen führen. Aus der Analyse der Widersprüchlichkeit des Objektbegriffs zwischen Softwareentwickler (Programmierer) und Softwareanwender (Ingenieur, Architekt) wird im folgenden ein Laufzeitsystem für dynamische Objektstrukturen entwickelt, das es dem Softwareentwickler erlaubt, sowohl auf die Struktur als auch auf die Ausprägung eines Modells zuzugreifen. Dem Softwareanwender können damit Werkzeuge zur Verfügung gestellt werden, die es ihm gestatten, Gebäudemodelle zu definieren. Das Laufzeitsystem enthält zum einen eine Reihe von Klassen, die es ermöglichen, die Struktur von Anwenderobjekten dynamisch zu beschreiben und zu analysieren. Eine zweite Art von Klassen erlaubt das Erzeugen und Verändern von Anwenderobjekten, die diesen Strukturen entsprechen
Ziel des Teilprojekts C5 des Sonderforschungsbereichs 398 an der Ruhr-Universität Bochum ist die Entwicklung eines lebensdauerorientierten Entwurfsmodells für Stahltragwerke. Das Referenzsystem der letzten Förderperiode war eine einschiffige Stahlhalle mit Kranbahnen. Der vorliegende Beitrag stellt die Ergebnisse einer Sensitivitätsanalyse des Stahlrahmens unter Kranfahrtlasten vor. Diese Verkehrslasten wurden, völlig entkoppelt von weiteren äußeren Einflüssen wie Wind und Schnee, als poissongetriebene Pulsprozesse beschrieben, die zufälligen Eigenschaften der Kranfahrtlasten wurden in den Zufallsvariablen Pulsdauer und Pulsintensität berücksichtigt. Zur Minimierung des Rechenaufwandes der Lebensdauer-untersuchung wurden a priori einige Systemparameter anhand von Parameterstudien im Hinblick auf ihre dynamische Wirkung maßgebend festgelegt. In einer darauf aufbauenden Betriebsfestigkeitsuntersuchung wurden die Schädigungseinträge in einer Rahmenecke infolge von jeweils einzelnen Pulslastereignissen berechnet und in einer Datenbasis abgelegt. Eine abschließende Distance-Controlled Monte Carlo Simulation der Pulsprozesse über einen maximalen Zeitraum von 100 Jahren überführte die Realisationen der einzelnen Pulslasten anhand der Datenbasis in Teilschädigungen, welche nach der Palmgren/Miner-Hypothese zu einer Gesamtschädigung aufsummiert wurden. Der Einfluss der Kranlasten auf den Entwurf von Stahlhallen wurde durch den Vergleich der berechneten Lebensdauer und der planmäßig vorgegebenen Nutzungsdauer quantifiziert.