Refine
Document Type
- Conference Proceeding (158)
- Article (20)
- Doctoral Thesis (6)
Institute
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (92)
- Professur Informatik im Bauwesen (40)
- Institut für Strukturmechanik (ISM) (10)
- Professur Informatik in der Architektur (10)
- Professur Angewandte Mathematik (6)
- Professur Theorie und Geschichte der modernen Architektur (5)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Junior-Professur Computational Architecture (4)
- Institut für Bauinformatik, Mathematik und Bauphysik (IBMB) (2)
- Professur Bodenmechanik (2)
Keywords
- CAD (184) (remove)
Unconstrained models are very often found in the broad spectrum of different theories of traffic demand models. In these models there are none or only one-sided restrictions influencing the choice of the individual. However in the traffic demand different deciding dependencies of the traffic volume with regard to the specific conditions of the territory structure potentials exist. Kichhoff and Lohse introduced bi- and tri-linearly constrained models to show these dependencies. In principle, the dependencies are described as hard, elastic and open boundary sum criteria. In this article a model is formulated which gets away from these predefined boundary sum criteria and allows a free determination of minimal and maximal boundary sum criteria. The iterative solution algorithm is shown according to a FURNESS procedure at the same time. With the approach of freely selectable minimal and maximal boundary sum criteria the modeling transport planner gets the possibility to show the traffic event even better. Furthermore all common boundary sum criteria can be calculated with this model. Therewith the often necessary and sensible standard and special cases can also be modeled.
Practical examples show that the improvement in cost flow and total amount of money spend in construction and further use may be cut significantly. The calculation is based on spreadsheets calculation, very easy to develop on most PC´s now a days. Construction works, are a field where the evaluation of Cash Flow can be and should be applied. Decisions about cash flow in construction are decisions with long-term impact and long-term memory. Mistakes from the distant past have a massive impact on situations in the present and into the far economic future of economic activities. Two approaches exist. The Just-in-Time (JIT) approach and life cycle costs (LCC) approach. The calculation example shows the dynamic results for the production speed in opposition to stable flow of production in duration of activities. More sophisticated rescheduling in optimal solution might bring in return extra profit. In the technologies and organizational processes for industrial buildings, railways and road reconstruction, public utilities and housing developments there are assembly procedures that are very appropriate for the given purpose, complicated research-, development-, innovation-projects are all very good aspects of these kinds of applications. The investors of large investments and all public invested money may be spent more efficiently if an optimisation speed-strategy can be calculated.
The design of challenging space structures frequently relies on the theory of folded plates. The models are composed of plane facets of which the bending and membrane stiffness are coupled along the folds. In conventional finite element analysis of faceted structures the continuity of the displacement field is enforced exclusively at the nodes. Since approximate solutions for transverse and for in-plane displacements are not members of the same function space, separation occurs in between the common nodes of adjacent elements. It is shown that the kinematic assumptions of Bernoulli are accounted for this incompatibility along the edges in facet models. A general answer to this problem involves substantial modification of plate and membrane theory, but a straight forward formulation can be derived for simply folded plates, structures, whose folds do not intersect. A broad class of faceted structures, including models of various curved shells, belong to this category and can be calculated consistently. The additional requirements to assure continuity concern the mapping of displacement derivatives on the edges. An appropriate finite facet element provides node and edge-oriented degrees of freedom, whose transformation to system degrees of freedom, depends on the geometric configuration at each node. The concept is implemented using conform triangular elements. To evaluate the new approach, the energy norm of representative structures for refined meshes is calculated. The focus is placed on the mathematical convergence towards reliable solutions obtained from finite volume models.
Some caad packages offer additional support for the optimization of spatial configurations, but the possibilities for applying optimization are usually limited either by the complexity of the data model or by the constraints of the underlying caad system. Since we missed a system that allows to experiment with optimization techniques for the synthesis of spatial configurations, we developed a collection of methods over the past years. This collection is now combined in the presented open source library for computational planning synthesis, called CPlan. The aim of the library is to provide an easy to use programming framework with a flat learning curve for people with basic programming knowledge. It offers an extensible structure that allows to add new customized parts for various purposes. In this paper the existing functionality of the CPlan library is described.
The present paper is part of a comprehensive approach of grid-based modelling. This approach includes geometrical modelling by pixel or voxel models, advanced multiphase B-spline finite elements of variable order and fast iterative solver methods based on the multigrid method. So far, we have only presented these grid-based methods in connection with linear elastic analysis of heterogeneous materials. Damage simulation demands further considerations. The direct stress solution of standard bilinear finite elements is severly defective, especially along material interfaces. Besides achieving objective constitutive modelling, various nonlocal formulations are applied to improve the stress solution. Such a corrective data processing can either refer to input data in terms of Young's modulus or to the attained finite element stress solution, as well as to a combination of both. A damage-controlled sequentially linear analysis is applied in connection with an isotropic damage law. Essentially by a high resolution of the heterogeneous solid, local isotropic damage on the material subscale allows to simulate complex damage topologies such as cracks. Therefore anisotropic degradation of a material sample can be simulated. Based on an effectively secantial global stiffness the analysis is numerically stable. The iteration step size is controlled for an adequate simulation of the damage path. This requires many steps, but in the iterative solution process each new step starts with the solution of the prior step. Therefore this method is quite effective. The present paper provides an introduction of the proposed concept for a stable simulation of damage in heterogeneous solids.
DECENTRALIZED APPROACHES TO ADAPTIVE TRAFFIC CONTROL AND AN EXTENDED LEVEL OF SERVICE CONCEPT
(2006)
Traffic systems are highly complex multi-component systems suffering from instabilities and non-linear dynamics, including chaos. This is caused by the non-linearity of interactions, delays, and fluctuations, which can trigger phenomena such as stop-and-go waves, noise-induced breakdowns, or slower-is-faster effects. The recently upcoming information and communication technologies (ICT) promise new solutions leading from the classical, centralized control to decentralized approaches in the sense of collective (swarm) intelligence and ad hoc networks. An interesting application field is adaptive, self-organized traffic control in urban road networks. We present control principles that allow one to reach a self-organized synchronization of traffic lights. Furthermore, vehicles will become automatic traffic state detection, data management, and communication centers when forming ad hoc networks through inter-vehicle communication (IVC). We discuss the mechanisms and the efficiency of message propagation on freeways by short-range communication. Our main focus is on future adaptive cruise control systems (ACC), which will not only increase the comfort and safety of car passengers, but also enhance the stability of traffic flows and the capacity of the road (“traffic assistance”). We present an automated driving strategy that adapts the operation mode of an ACC system to the autonomously detected, local traffic situation. The impact on the traffic dynamics is investigated by means of a multi-lane microscopic traffic simulation. The simulation scenarios illustrate the efficiency of the proposed driving strategy. Already an ACC equipment level of 10% improves the traffic flow quality and reduces the travel times for the drivers drastically due to delaying or preventing a breakdown of the traffic flow. For the evaluation of the resulting traffic quality, we have recently developed an extended level of service concept (ELOS). We demonstrate our concept on the basis of travel times as the most important variable for a user-oriented quality of service.
The construction of a new building interferes with the existent environment. A careful aesthetic study must be made at an early stage in the design and the visualization of a three-dimensional (3D) model of the structure is the best way to analyse it. As some structures presents a complex shape is difficult to execute a 3D model as well as the specific drawings. Using traditional graphical systems, the execution of deck specific drawings is extremely time consuming and the 3D deck model gives an approximation only of the exterior shape of the deck. The modelling scheme proposed here allows the automation of the geometric design phases related to the deck bridge element using as a means of integration a geometric database representative of the real deck shape. This concept was implemented in a computer program. This application is an important support in the process design namely at the conceptual and graphical stages. The computer application provides an important tool to the bridge designer particularly at the conceptual stage, as it allows aesthetic and structural evaluation of the bridge at an early stage in the design. The geometric modelling process and graphical results of a case study are presented.
Usually, the co-ordination of design and planning tasks of a project in the construction industries is done in a paper based way. Subsequent modifications have to be handled manually. The effects of modifications cannot be determined automatically. The approach to specify a complete process model before project start does not consider the requirements of the construction industries. The effort of specification at the beginning and during the process (modifications) does not justify the use of standard process model techniques. A new approach is presented in the according paper. A complete process model is deducted on the basis of a core. The core consists of process elements and specific relations between them. Modifications need to be specified in the core only. The effort of specification is therefore reduced. The deduction of the complete process is based on the graph theory. Algorithms of the graph theory are also used to determine the effects of modifications during project work.
PKPM series CAD software is an integrated CAD system for building design, which integrated the following parts: architectural design, structural design, building service design and statistic analysis of quantity and budget. These four parts share the same database with high efficiency. Over 80% of design corporation in China are using PKPM series CAD software. The detailed information and some key modules of PKPM series CAD software are mainly introduced in this paper.
Die Entwicklung Berlins zur neuen Hauptstadt des vereinigten Deutschlands erfordert den umfangreichen Ausbau der innerstädtischen Verkehrswege und eine umfassende Einbindung in das bundesweite Verkehrsnetz. Der Ausbau der Inter-City-Express-Strecke zwischen Hannover und Berlin bedingte eine Umplanung großer Streckenabschnitte der Deutschen Bahn AG. Im Zeitalter der computergestützten Informationsverarbeitung sind gerade auf dem Gebiet der Tragwerksplanung konstruktiver Ingenieurbauten vielfältige Möglichkeiten gegeben. So ist bei der Planung von Brückenneubauten eine durchgehende computergestützte Konstruktion und Tragwerksplanung vom Vorentwurf bis hin zur Fertigung möglich. Weiterhin gestatten besondere Berechnungsmethoden bei speziellen Belastungsarten eine exaktere Schnittkraft- und Spannungsermittlung und dadurch eine dem wirklichen Tragverhalten entsprechende genauere Nachweisführung. An Beispielen aus dem konstruktiven Ingenieurbau im Zuge der Sanierung der Berliner Stadtbahn wird die Anwendung moderner Rechentechnik und computergestützter Konstruktionsmethoden und Berechnungsverfahren diskutiert. Die Berliner Stadtbahn wird in weiten Abschnitten über gemauerte Ziegelsteinviadukte geführt. Das Konzept der Sanierungsmaßnahmen sah neben der Anordnung einer lastverteilenden Platte einen Gleisaufbau als Feste Fahrbahn vor. Zusätzlich wurden die Gleisabstände den heutigen Bundesbahnvorschriften angepaßt. Aus diesem Grund wurde eine genaue Nachrechnung der Stadbahnviadukte unter Berücksichtigung der verschiedensten Parameter (z.B. Fugen in der lastverteilenden Platte, Rißbildung im Mauerwerk, Schubverformungen in Fugen zwischen Beton und Mauerwerk bei Überschreitung von Grenzwerten) erforderlich. Die zwischen dem Berliner Hauptbahnhof und dem Bahnhof Jannowitzbrücke befindliche Eisenbahnüberführung über die Holzmarktstraße wurden abgebrochen. Das neue Bauwerk besteht aus einer zweifeldrigen, schiefwinkligen Deckbrücke für 4 Gleise. Auf Grund der komplizierten geometrischen Randbedingungen erfolgte eine durchgängige computergestützte Erstellung der Ausführungsunterlagen. Die Hauptabmessungen der Konstruktion wurden mit Hilfe von Vermessungsdaten bestimmt, die im CAD-Programm verarbeitet wurden. Die CAD-Daten bildeten die geometrischen Eingangsgrößen für das Berechnungsprogramm. Die Querschnittsdimensionierung der Berechnung ging dann in die CAD-Bearbeitung ein. Die Koordinaten für die Werkstattfertigung sowie für die Montage auf der Baustelle ergaben sich ebenfalls aus den Berechnungsergebnissen.
Der Versuch, alle vorhandenen Arten von Bauobjekten in einem Schema zu beschreiben, wird zu einem übermäßig großen Schema führen. Im internationalen Zentrum für Bauinformatik hat der Autor die Besonderheiten des Bauwesens formuliert und gefolgert, dass es genügt, in den Klassen topologische, geometrische und graphische Aspekte der Bauobjekte, sowie einige Hilfsbegriffe zu beschreiben. Ein Hauptziel bei der Entwicklung einer Sprache ist die Einfachheit des Schemas. Insgesamt werden etwa nur 50 Klassen für CAD-Systeme vorgeschlagen. In Modellen von Bauobjekten, die von CAD-Systemen erzeugt werden, betrifft der größte Anteil der Daten die geometrische Form der Elemente und ihre Raumlage. Zur Beschreibung der Bauobjekte werden nur 7 Hauptklassen verwendet: Entity, System, Clone, Context, Annotation, Figure und Process. Von besonderer Bedeutung ist die Klasse >Clone<. Sie erlaubt in kompakter Form die Beschreibung einer Menge ähnlicher Objekte, die sich in wenigen Parametern (zum Beispiel, der Lage im Raum) unterscheiden. Das vorgestellte Konzept führt zu einer starken Verringerung der Dateigröße und erleichtert das Erkennen der Objekte bei der Übergabe der Daten. Die Strukturdiagramme der Klassen wurden mit Hilfe der UML-Sprache erzeugt. Die Klassen sind auch im XML-Format beschreiben und können auf Homepage >http://www.mtu-net.ru/pavlov/bodXML< gelesen werden. Zur Prüfung der Anwendbarkeit des Schemas wurden Beispiele der Beschreibung verschiedener Bauobjekte entwickelt. Diese Beispiele sind auf o.g. Homepage angegeben
PLANUNGSUNTERSTÜTZUNG DURCH DIE ANALYSE RÄUMLICHER PROZESSE MITTELS COMPUTERSIMULATIONEN. Erst wenn man – zumindest im Prinzip – versteht, wie eine Stadt mit ihren komplexen, verwobenen Vorgängen im Wesentlichen funktioniert, ist eine sinnvolle Stadtplanung möglich. Denn jede Planung bedeutet einen Eingriff in den komplexen Organismus einer Stadt. Findet dieser Eingriff ohne Wissen über die Funktionsweise des Organismus statt, können auch die Auswirkungen nicht abgeschätzt werden. Dieser Beitrag stellt dar, wie urbane Prozesse mittels Computersimulationen unter Zuhilfenahme so genannter Multi-Agenten-Systeme und Zellulärer Automaten verstanden werden können. von
DIGITAL SUPPORT OF MATERIAL- AND PRODUCT SELECTION IN THE ARCHITECTURAL DESIGN- AND PLANNING PROCESS
(2006)
Architecture is predominantly perceived over the surfaces limiting the space. The used surface materials thereby should support the design intention and have to fulfil various technical and economical requirements. If the architect wants to select the "right" or the "best" material he has to play with very different and sometimes contradicting criteria and must weight these individually for the special purpose. This selection process is supported only insufficiently by today's digital systems. If it would be possible to illustrate all the various parameters by numerical values, the method of multidimensional scaling will offer a solution for architects to find the material which is best fitting on basis of his individual weighting of criteria. By displaying the result of the architect's multidimensional query in a spatial arrangement multidimensional scaling can support an interactive selection process with additional feedback over the applied search strategy.
The extended finite element method (XFEM) offers an elegant tool to model material discontinuities and cracks within a regular mesh, so that the element edges do not necessarily coincide with the discontinuities. This allows the modeling of propagating cracks without the requirement to adapt the mesh incrementally. Using a regular mesh offers the advantage, that simple refinement strategies based on the quadtree data structure can be used to refine the mesh in regions, that require a high mesh density. An additional benefit of the XFEM is, that the transmission of cohesive forces through a crack can be modeled in a straightforward way without introducing additional interface elements. Finally different criteria for the determination of the crack propagation angle are investigated and applied to numerical tests of cracked concrete specimens, which are compared with experimental results.
The aim of this paper is to present so-called discrete-continual boundary element method (DCBEM) of structural analysis. Its field of application comprises buildings constructions, structures and also parts and components for the residential, commercial and un-inhabitant structures with invariability of physical and geometrical parameters in some dimensions. We should mention here in particular such objects as beams, thin-walled bars, strip foundations, plates, shells, deep beams, high-rise buildings, extensional buildings, pipelines, rails, dams and others. DCBEM comes under group of semianalytical methods. Semianalytical formulations are contemporary mathematical models which currently becoming available for realization due to substantial speed-up of computer productivity. DCBEM is based on the theory of the pseudodifferential boundary equations. Corresponding pseudodifferential operators are discretely approximated using Fourier analysis or wavelet analysis. The main DCBEM advantages against the other methods of the numerical analysis is a double reduction in dimension of the problem (discrete numerical division applied not to the full region of the interest but only to the boundary of the region cross section, as a matter of fact one is solving an one-dimensional problem with the finite step on the boundary area of the region), one has opportunities to carrying out very detailed analysis of the specific chosen zones, simplified initial data preparation, simplistic and adaptive algorithms. There are two methods to define and conduct DCBEM analysis developed – indirect (IDCBEM) and direct (DDCBEM), thus indirect like in boundary element method (BEM) applied and used little bit more than direct.
Designing a structure follows a pattern of creating a structural design concept, executing a finite element analysis and developing a design model. A project was undertaken to create computer support for executing these tasks within a collaborative environment. This study focuses on developing a software architecture that integrates the various structural design aspects into a seamless functional collaboratory that satisfies engineering practice requirements. The collaboratory is to support both homogeneous collaboration i.e. between users operating on the same model and heterogeneous collaboration i.e. between users operating on different model types. Collaboration can take place synchronously or asynchronously, and the information exchange is done either at the granularity of objects or at the granularity of models. The objective is to determine from practicing engineers which configurations they regard as best and what features are essential for working in a collaborative environment. Based on the suggestions of these engineers a specification of a collaboration configuration that satisfies engineering practice requirements will be developed.
In computer-aided design (CAD), industrial products are designed using a virtual 3D model. A CAD model typically consists of curves and surfaces in a parametric representation, in most cases, non-uniform rational B-splines (NURBS). The same representation is also used for the analysis, optimization and presentation of the model. In each phase of this process, different visualizations are required to provide an appropriate user feedback. Designers work with illustrative and realistic renderings, engineers need a
comprehensible visualization of the simulation results, and usability studies or product presentations benefit from using a 3D display. However, the interactive visualization of NURBS models and corresponding physical simulations is a challenging task because of the computational complexity and the limited graphics hardware support.
This thesis proposes four novel rendering approaches that improve the interactive visualization of CAD models and their analysis. The presented algorithms exploit latest graphics hardware capabilities to advance the state-of-the-art in terms of quality, efficiency and performance. In particular, two approaches describe the direct rendering of the parametric representation without precomputed approximations and timeconsuming pre-processing steps. New data structures and algorithms are presented for the efficient partition, classification, tessellation, and rendering of trimmed NURBS surfaces as well as the first direct isosurface ray-casting approach for NURBS-based isogeometric analysis. The other two approaches introduce the versatile concept of programmable order-independent semi-transparency for the illustrative and comprehensible visualization of depth-complex CAD models, and a novel method for the hybrid reprojection of opaque and semi-transparent image information to accelerate stereoscopic rendering. Both approaches are also applicable to standard polygonal geometry which contributes to the computer graphics and virtual reality research communities.
The evaluation is based on real-world NURBS-based models and simulation data. The results show that rendering can be performed directly on the underlying parametric representation with interactive frame rates and subpixel-precise image results. The computational costs of additional visualization effects, such as semi-transparency and stereoscopic rendering, are reduced to maintain interactive frame rates. The benefit of this performance gain was confirmed by quantitative measurements and a pilot user study.
Trotz der langjährigen Erfahrung bei der Anwendung objektorientierter Konzepte bei der Modellierung von Gebäuden ist es bisher nicht gelungen, ein allgemein anerkanntes Gebäudemodell im Rechner abzubilden. Das mag zum einen daran liegen, daß die Standardisierung eines solchen Modells bis heute zu keinem Abschluß gekommen ist. Zum anderen aber scheint vor allem die Problematik der Abbildung eines solchen Gebäudemodells in das Objektmodell einer Programmiersprache bisher unterschätzt worden zu sein. Die erhoffte Durchgängigkeit von objektorientierter Analyse, Entwurf und Programmierung gelingt bei Anwendungen für Entwurfsaufgaben nicht. Das gilt vor allem für Anwendungen, die frühe Entwurfsphasen unterstützen und damit erst zur Definition eines Gebäudemodells beitragen. Im Bereich der Softwareentwicklung wird das Konzept des Objektes als Ordnungsbegriff zur Strukturierung von Softwaremodulen benutzt. Die Übertragung dieser Ordnung in die Welt des Ingenieurs oder Architekten zur Bezeichnung eines konkreten Elements aus einem Modell (Raum 42 aus der Menge aller Räume des Gebäudes Blumenstraße 7) kann daher nur zu begrenzten Erfolgen führen. Aus der Analyse der Widersprüchlichkeit des Objektbegriffs zwischen Softwareentwickler (Programmierer) und Softwareanwender (Ingenieur, Architekt) wird im folgenden ein Laufzeitsystem für dynamische Objektstrukturen entwickelt, das es dem Softwareentwickler erlaubt, sowohl auf die Struktur als auch auf die Ausprägung eines Modells zuzugreifen. Dem Softwareanwender können damit Werkzeuge zur Verfügung gestellt werden, die es ihm gestatten, Gebäudemodelle zu definieren. Das Laufzeitsystem enthält zum einen eine Reihe von Klassen, die es ermöglichen, die Struktur von Anwenderobjekten dynamisch zu beschreiben und zu analysieren. Eine zweite Art von Klassen erlaubt das Erzeugen und Verändern von Anwenderobjekten, die diesen Strukturen entsprechen
n allen Stadien des Planungsprozesses von Gebäuden nehmen Entwurfsentscheidungen starken Einfluß auf die bauphysikalische Qualität eines Gebäudes. Im Rahmen dieses Beitrags wird deshalb die Integration bauphysikalischer Gesichtspunkte in den Planungsprozeß vorgestellt, bei welcher dem Fachingenieur geeignete Werkzeuge zur Verfügung gestellt werden, die es erlauben, das zu planende Gebäude als Einheit von baulicher Hülle, Anlagentechnik und Nutzung zu betrachten. Darauf aufbauend wird eine gezielte Überprüfung des Gebäudemodells mit Hilfe von bauphysikalischen Nachweisen und Simulationen durchgeführt, um eine bauphysikalische Entscheidungsunterstützung im Entwurfsprozeß vornehmen zu können. Das erarbeitete Programmsystem VAMOS (Verteilte Applikation zur Modellierung und Optimierung bauphysikalischer Systeme) nutzt die Middleware-Technologie CORBA konsequent für die dynamische, netzwerkweite Integration fünf verschiedener aufgabenspezifischer Komponenten: Die erste Komponente zur Modellerzeugung und -manipulation wurde auf Basis des CAD-Systems AutoCAD als ARX-Laufzeitmodul erstellt. Dadurch ist es einerseits möglich, bestehende Planungsabläufe unter Verwendung von Standardwerkzeugen des entwerfenden Ingenieurs zu erhalten, andererseits können die umfangreichen Fähigkeiten des AutoCAD-Geometriekerns für die Erstellung komplexer dreidimensionaler Bauteilgeometrien genutzt werden. In der zweiten Komponenten wurde eine objektorientiertes Datenbanksystem in das Gesamtsystem integriert, das auch für die Verwaltung verschiedener Versionen von Gebäudeentwürfen verwendet wird. Die bauphysikalischen Nachweise, die auf Basis der zentral im Netzwerk bereitgestellten Modelle automatisiert durchgeführt werden können, wurden auf Basis der Java-Applet-Technologie abgebildet, um die zentrale Wartbarkeit und Anpassbarkeit an Veränderungen der Vorschriften und Gesetzesgrundlagen zu ermöglichen. Dabei wurden sowohl die aktuelle Wärmeschutzverordnung (WSVO) als auch die Energieeinsparverordnung (EnEV) berücksichtigt. Für die ganzheitliche Erfassung des Gebäudeenergiehaushaltes wurde das Simulationsprogramm TRNSYS um ein Schnittstellenmodul unter Verwendung von IDL-Interfaces erweitert, so daß die direkte Integration der umfangreichen Funktionalitäten in das Gesamtsystem möglich wird. Um die Modellierung auf der Basis von realistischen Parametern durchführen zu können, wurde eine Komponente entwickelt, die unter Verwendung der Technologie mobiler Internet-Agenten die dynamische Recherche von herstellerspezifischen Parametern im Internet ermöglicht.
The use of process models in the analysis, optimization and simulation of processes has proven to be extremely beneficial in the instances where they could be applied appropriately. However, the Architecture/Engineering/Construction (AEC) industries present unique challenges that complicate the modeling of their processes. A simple Engineering process model, based on the specification of Tasks, Datasets, Persons and Tools, and certain relations between them, have been developed, and its advantages over conventional techniques have been illustrated. Graph theory is used as the mathematical foundation mapping Tasks, Datasets, Persons and Tools to vertices and the relations between them to edges forming a directed graph. The acceptance of process modeling in AEC industries not only depends on the results it can provide, but the ease at which these results can be attained. Specifying a complex AEC process model is a dynamic exercise that is characterized by many modifications over the process model's lifespan. This article looks at reducing specification complexity, reducing the probability for erroneous input and allowing consistent model modification. Furthermore, the problem of resource leveling is discussed. Engineering projects are often executed with limited resources and determining the impact of such restrictions on the sequence of Tasks is important. Resource Leveling concerns itself with these restrictions caused by limited resources. This article looks at using Task shifting strategies to find a near-optimal sequence of Tasks that guarantees consistent Dataset evolution while resolving resource restrictions.
Entwerfen Versionieren: Probleme und Lösungsansätze für die Organisation verteilter Entwurfsprozesse
(2011)
Entwerfen ist ein komplexer Vorgang. Soll dieser Vorgang nicht allein, sondern räumlich verteilt mit mehreren Beteiligten gemeinsam stattfinden, so sind digitale Werkzeuge zur Unterstützung dieses Prozesses unumgänglich. Die Verwendung von Werkzeugen für Ent-wurfsprozesse bedeutet jedoch immer auch eine Manipulation des zu unterstützenden Prozesses selbst. Im Falle von Werkzeugen zur Unterstützung der Kollaboration mehrerer Beteiligter stellen die implementierten Koordinationsmechanismen solche prozessbeeinflussenden Faktoren dar. Damit diese Mechanismen, entsprechend der Charakteristika kreativer Prozesse, so flexibel wie möglich gestaltet werden können, liegt die Anforderung auf technischer Ebene darin, ein geeignetes Konzept für eine nachvollziehbare Speicherung (Versionierung) der stattfindenden Entwurfshandlungen zu schaffen. Der vorliegende Artikel beschäftigt sich mit dem Thema der Entwurfsversionierung in computergestützten kollaborativen Arbeitsumgebungen. Vor dem Hintergrund, dass die Versionierung den kreativen Entwurfsprozess möglichst wenig manipulieren soll, werden technische sowie konzeptionelle Probleme der diskutiert und Lösungsansätze für diese vorgestellt.
Der Fokus des Projektes liegt auf einer besseren Unterstützung der kooperativen Aspekte im Bauwerksentwurf und der Anwendung von ComponentWare-Techniken in der Architektur des Entwurfssystems. Es muß festgestellt werden, daß die Kooperation der Beteiligten im Entwurfsprozeß von Bauwerken durch die heute praktizierten Datenaustauschverfahren nicht oder nur unbefriedigend unterstützt wird und das keine Lösung dieses Problems durch die Weiterentwicklung von filebasierten Datenaustauschformaten zu erwarten ist. Im Rahmen des Projektes wird mit einer CORBA-Umgebung für Smalltalk-80 ein verteilbares Objektsystem realisiert. Als Architektur des Systems wurde eine hybride Herangehensweise gewählt, bei der allgemeine Informationen auf einem zentralen Server verwaltet werden und die eigentlichen Projektinformationen bei Bedarf repliziert werden. Wie allgemein in GroupWare - orientierten Systemen notwendig, müssen effektive Mechanismen der Nebenläufigkeitskontrolle und zur Sperrung bestimmter Modellbereiche realisiert werden. Wichtig ist für kooperative Entwurfssysteme die Systemunterstützung der Beseitigung der Folgen von kollidierenden Entwurfsintensionen durch die Bearbeiter. Dazu werden unter anderem Remote-Pointer-Mechanismen realisiert. In Abhängigkeit von der Rolle eines Bearbeiters werden diesem Sichten auf des Objektmodell (Partialmodelle) zugeordnet. Es werden Mechanismen zur Autorisierung des Zugriffs auf Partialmodelle implementiert, zu diesem Zweck erfolgt eine Nutzerauthentifizierung. Beziehungen zwischen Partialmodellen werden durch eine spezielle Relation im Objektsystem abgebildet. Die Konzeption des Objektsystems lehnt sich an die PREPLAN-Philosophie an. Das impliziert die Unterstützung von Entwurfshandlungen sowohl in Bottom-Up- als auch in Top-Down - Richtung. Benutzer können das Objektsystem um eigene Klassen erweitern bzw. existierende Klassen modifizieren und Attribute mit Defaultwerten belegen, um das System inkrementell mit Domänenwissen anreichern zu können. Von großer Bedeutung für kooperative Entwurfssysteme sind eine Versionsverwaltung und die Bereitstellung von Undo - und Redo - Mechanismen. Es ist möglich, multimediale Daten im Objektmodell abzulegen und diese in Abhängigkeit von ihrem Format wiederzugeben bzw. zu bearbeiten. Das beschriebene System befindet sich derzeit in der Implementierung.
Im Hinblick auf einen effizienten Austausch von Planungsinformationen bei mittleren und größeren Bauprojekten werden in den letzten Jahren vermehrt internetbasierte Projektkommunikationssysteme (PKS) eingesetzt, welche neben einer netzwerkweiten Bereitstellung von Dateien auch klassische Aufgaben des Planmanagements hinsichtlich der Bereitstellung von Dokumenten-Verteiler und der Abbildung der Planungshistorie übernehmen. Aufgrund von leicht zu nutzenden Mechanismen zur Bereitstellung von Planungsinformationen durch die Fachplaner und die zentrale Speicherung aller anfallenden Dokumente entstehen dabei leicht erhebliche Datenmengen, bei denen effiziente Verwaltungsmechanismen unabdingbar sind. Die lediglich auf Baumstrukturen basierenden Organisationsstrukturen, welche vor allem eine chronologische Sortierung erlauben, reichen deshalb bei weitem nicht aus. Weiterhin ist eine effiziente Gestaltung der Projektdurchführung mit diesem rein dokumentenbasierten Ansätzen allein nicht möglich, da zwischen den bereitgestellten Informationen nur unzureichend Verknüpfungen erstellt werden können. Fachliche Beziehungen somit nicht abgebildet werden können, so dass insbesondere bei durchgeführten Änderungen die zugrunde liegenden Planungsinformationen nicht konsistent gehalten und Auswirkungen von Planungsänderungen auf andere Gewerke nur schwer ermittelt werden können....
This is an implementation of the Fillmore–Springer–Cnops construction (FSCc) based on the Clifford algebra capacities of the GiNaC computer algebra system. FSCc linearises the linear-fraction action of the Mobius group. This turns to be very useful in several theoretical and applied fields including engineering. The core of this realisation of FSCc is done for an arbitrary dimension, while a subclass for two dimensional cycles add some 2D-specific routines including a visualisation to PostScript files through the MetaPost or Asymptote software. This library is a backbone of many result published in, which serve as illustrations of its usage. It can be ported (with various level of required changes) to other CAS with Clifford algebras capabilities.
We establish the basis of a discrete function theory starting with a Fischer decomposition for difference Dirac operators. Discrete versions of homogeneous polynomials, Euler and Gamma operators are obtained. As a consequence we obtain a Fischer decomposition for the discrete Laplacian. For the sake of simplicity we consider in the first part only Dirac operators which contain only forward or backward finite differences. Of course, these Dirac operators do not factorize the classic discrete Laplacian. Therefore, we will consider a different definition of a difference Dirac operator in the quaternionic case which do factorizes the discrete Laplacian.
Objektorientierte Modellierungstechniken werden gegenwärtig vor allem Entwicklern von CAD-Systemen angeboten. Sie erzeugen über die Schritte OO-Modellanalyse und OO-Softwaredesign OO-Programme, die mit ihrer Compilation das durch den Softwareingenieur gefundene Modell festschreiben. Generell, aber insbesondere im Bauwerksdesign, ist dieses Vorgehen unbefriedigend, da hier eine Normung von Modellen nicht gelingt, der Entwurfsprozeß vergleichsweise lang ist und eine Kooperation von Ingenieurgewerken mit verschiedenen Modelldomänen die Regel sind. Darüber hinaus weisen die Modelle in frühen Phasen ein hohes Maß an Unschärfe und Abstraktion auf. CAD-Tools, die diese Phasen unterstützen, benötigen deshalb: statt eines genormten Produktmodells ein einheitliches, kognitiv begründetes Modellstrukturierungsparadigma, für das mit der Objektorientierung eine mögliche Ausprägung gegeben ist, ein explizites, verfügbares Domänenmodell zur fortwährenden Interpretation von Bauwerksmodellen, deskriptive Elemente, die die Interpretation von Objekten und Attributen erleichtern, ein Konzept zur Behandlung von Unschärfe und Abstraktion. Hieraus ergeben sich für die Entwicklung von CAD-Systemen folgende Forderungen : Explizite Verfügbarkeit von Klassenobjekten und deren Erzeugung und Veränderung zur Laufzeit, Vererbung auf Klassen- und Instanzniveau, Erweiterte Attributkonzepte (Facetten), Unterstützung der Aggregation als einer wesentlichen Modellstrukturierungsrelation, Verfügbarkeit von OO-Schnittstellen zum Aufbau von CAD-Systemen aus Tools einerseits, sowie zur Trennung von Modellverwaltung und Modellrepräsentation andererseits. Als ein herausragendes Merkmal des Objektorientierten Paradigmas wird die Anwendungsnähe genannt, da Erscheinungen der behandelten Domäne sich analog in Modellen und Programmen wiederfinden (sollen). Unter der Grundannahme, daß dieses Paradigma auch durch den Anwender zur Erstellung seiner Modellwelten verwendet wird, will FLEXOB eine homogene Umgebung schaffen, die die Modellwelt des Softwareingenieurs zu Analysezwecken dem Anwender zur Verfügung stellt und die die Erweiterung dieser Modellwelt auf deskriptivem Niveau ermöglicht. Das Tool FLEXOB und einige wesentliche Implementationsdetails werden im Beitrag vorgestellt. Es handelt sich bei diesem Tools um eine C++ Klassenbibliothek, die entweder als Objektmodul oder als Windows-DLL verwendet werden kann. Aspekte des Nutzungsregimes solch flexibler Modellverwaltungen werden im Beitrag ebenfalls angespochen.
Die verteilte Bearbeitung gemeinsamer Produktmodelle ist im Bauwesen Gegenstand der aktuellen Forschung. Der vorgestellte Lösungsansatz bewegt sich in einem Spannungsfeld: Zum einen sollen die zu bearbeitenden Teilmengen des Produktmodells sehr flexibel durch die Planer zu bilden sein, zum anderen müssen Revisions- und Freigabestände dauerhaft und unveränderlich definiert werden. In einer versionierten Umgebung mit vielen Abhängigkeiten sind diese Anforderungen schwierig zu erfüllen. Der vorgestellte Lösungsansatz zeigt die Bildung von Revisions- und Freigabeständen, ohne die flexible verteilte Bearbeitung einzuschränken. Die Freigabestände müssen bestimmte Eigenschaften erfüllen: Es darf beispielsweise nur eine Version eines Objekts enthalten sein und es müssen die Bindungen zu anderen Objektversionen in einer konsistenten Weise berücksichtigt werden. Es wird eine mathematische Beschreibung gewählt, die auf der Mengenlehre und der Graphentheorie basiert.
This work is based on the concept that the structure of a city can be defined by six basic urban patterns. To enable more complex urban planning as a long-term objective I have developed a simulation method for generating these basic patterns and for combining them to form various structures. The generative process starts with the two-dimensional organisation of streets followed by the parceling of the remaining areas. An agent-based diffusion-contact model is the basis of these first two steps. Then, with the help of cellular automata, the sites for building on are defined and a three-dimensional building structure is derived. I illustrate the proposed method by showing how it can be applied to generate possible structures for an urban area in the city of Munich.
Nähert man sich der Frage nach den Zusammenhängen zwischen Strukturalismus und generativen algorithmischen Planungsmethoden, so ist zunächst zu klären, was man unter Strukturalismus in der Architektur versteht. Allerdings gibt es letztlich keinen verbindlichen terminologischen Rahmen, innerhalb dessen sich eine solche Klärung vollziehen könnte. Strukturalismus in der Architektur wird oftmals auf ein formales Phänomen und damit auf eine Stilfrage reduziert. Der vorliegende Text will sich nicht mit Stilen und Phänomenen strukturalistischer Architektur auseinandersetzen, sondern konzentriert sich auf die Betrachtung strukturalistischer Entwurfsmethoden und stellt Bezüge her zu algorithmischen Verfahren, wobei das Zusammenspiel zwischen regelgeleitetem und intuitivem Vorgehen beim Entwerfen herausgearbeitet wird.
Der vorliegende Text beschreibt ein computerbasiertes Verfahren zur Lösung von Layout-problemen in Architektur und Städtebau, welches mit möglichst wenig Problemwissen auskommt und schnell brauchbare Ergebnisse liefert, die durch schrittweises Hinzufügen von Problemwissen interaktiv weiter ausgearbeitet werden können. Für das generative Verfahren wurde eine Evolutions-Strategie verwendet, die mit Mechanismen zur Kollisionserkennung und virtuellen Federn zu einem hybriden Algorithmus kombiniert wurde. Dieser dient erstens der Lösung des Problems der Dichten Packung von Rechtecken sowie zweitens der Herstellung bestimmter topologischer Beziehungen zwischen diesen Rechtecken. Die Bearbeitung beider Probleme wird durch schrittweise Erweiterung grundlegender Verfahren untersucht, wobei die einzelnen Schritte anhand von Performancetests miteinander verglichen werden. Am Ende wird ein iterativer Algorithmus vorgestellt, der einerseits optimale Lösungen garantiert und andererseits diese Lösungen in einer für eine akzeptable Nutzerinteraktion ausreichenden Geschwindigkeit generiert.
Objects for civil engineering applications can be identified with their reference in memory, their alpha-numeric name or their geometric location. Particularly in graphic user interfaces, it is common to identify objects geometrically by selection with the mouse. As the number of geometric objects in a graphic user interface grows, it becomes increasingly more important to treat the basic operations add, search and remove for geometric objects with great efficiency. Guttmann has proposed the Region-Tree (R-tree) for geometric identification in an environment which uses pages on disc as data structure. Minimal bounding rectangles are used to structure the data in such a way that neighborhood relations can be described effectively. The literature shows that the parameters which influence the efficiency of the R-trees have been studied extensively, but without conclusive results. The goal of the research which is reported in this paper is to determine reliably the parameters which significantly influence the efficiency of R-trees for geometric identification in technical drawings. In order to make this investigation conclusive, it must be performed with the best available software technology. Therefore an object-oriented software for the method is developed. This implementation is tested with technical drawings containing many thousands of geometric objects. These drawings are created automatically by a stochastic generator which is incorporated into a test bed consisting of an editor and a visualisor. This test bed is used to obtain statistics for the main factors which affect the efficiency of R-trees. The investigation shows that the following main factors which affect the efficiency can be identified reliably : number of geometric objects on the drawing the minimum und maximum number of children of a node of the tree the maximum width and height of the minimal bounding rectangles of the geometric objects relative to the size of the drawing.
Der Effekt des praktischen Einsatzes von CAD-Systemen im Stahlbau erschöpft sich heute weitgehend in einer Verbesserung der Qualität der Planungsunterlagen und in der Verkürzung der Bearbeitungszeiten. Dabei ist bei schwierigen individuellen Konstruktionen die Einsparung an Arbeitszeit oft nicht sehr markant gegenüber einer traditionellen Arbeitsweise. Die dreidimensionale Erfassung, Speicherung und Verarbeitung von Konstruktionsdaten im Rechner verlangt neben größeren Rechenleistungen neue Verfahren für die Behandlung dieser Daten. Die Möglichkeiten der Automatisierung stahlbautypischer Produktionsvorgänge und einer variablen, computergestützten Planung erfordern wissenschaftlich-technische Betrachtungen des Gesamtproblems. Ausgehend von den Anforderungen des Stahlbaus wird ein neues dreidimensionales Volumenmodell für den rechnergestützten Entwurf und die Konstruktion erarbeitet. Es werden grundlegende Methoden zur Problembehandlung aufgezeigt. Die Methodik basiert im wesentlichen auf der Methode der Inzidenz-Matrizen, um die Beziehungen zwischen topologischen und geometrischen Informationen eines Körpers darzustellen. Die Ermittlung der lokalen Mannigfaltigkeiten wird mit dem Euler-Polyedersatz verglichen und an Beispielen demonstriert. Eine neue Methode zur Ermittlung der lokalen Mannigfaltigkeiten wird dargestellt. Stahlbauspezifische Konstruktionen werden erzeugt und ihre Gestalt nach Anforderungen verändert. Im besonderen werden stahlbauspezifische Ausklinkungen und Verschneidungen erarbeitet und an Beispielen präsentiert.
The one-dimensional continuous wavelet transform is a successful tool for signal and image analysis, with applications in physics and engineering. Clifford analysis offers an appropriate framework for taking wavelets to higher dimension. In the usual orthogonal case Clifford analysis focusses on monogenic functions, i.e. null solutions of the rotation invariant vector valued Dirac operator ∂, defined in terms of an orthogonal basis for the quadratic space Rm underlying the construction of the Clifford algebra R0,m. An intrinsic feature of this function theory is that it encompasses all dimensions at once, as opposed to a tensorial approach with products of one-dimensional phenomena. This has allowed for a very specific construction of higher dimensional wavelets and the development of the corresponding theory, based on generalizations of classical orthogonal polynomials on the real line, such as the radial Clifford-Hermite polynomials introduced by Sommen. In this paper, we pass to the Hermitian Clifford setting, i.e. we let the same set of generators produce the complex Clifford algebra C2n (with even dimension), which we equip with a Hermitian conjugation and a Hermitian inner product. Hermitian Clifford analysis then focusses on the null solutions of two mutually conjugate Hermitian Dirac operators which are invariant under the action of the unitary group. In this setting we construct new Clifford-Hermite polynomials, starting in a natural way from a Rodrigues formula which now involves both Dirac operators mentioned. Due to the specific features of the Hermitian setting, four different types of polynomials are obtained, two types of even degree and two types of odd degree. These polynomials are used to introduce a new continuous wavelet transform, after thorough investigation of all necessary properties of the involved polynomials, the mother wavelet and the associated family of wavelet kernels.
Mit diesen Ausführungen wird ein Beitrag zum weiteren Erhalt der historischen Bausubstanz in Mecklenburg aus der Sicht der Tragwerksanalyse geleistet. Dabei bestätigt es sich immer mehr, dass mit dem Modell der Geometrie, der Belastung und des Materials gleichberechtigte Modelle für eine wirklichkeitsnahe Einschätzung des Tragverhaltens eines Tragwerks vorliegen müssen. Es zeigt sich, dass dabei die besten Berechnungsprogramme nur die Ergebnisse liefern können, die mit den Eingabedaten zu erzielen sind. So hat sich der Forschungsschwerpunkt im Lehrgebiet Tragwerkslehre des FB Architektur an der Hochschule Wismar in den letzten Jahren auf die realistische Abbildung der Wechselwirkung zwischen der Bauaufnahme und der geometrischen Modellierung konzentriert. In diesem Bereich zeigen sich als Schwerpunkte die Wechselwirkung zwischen Schäden und Tragwerksanalyse und die Wechselwirkung zwischen der aufgenommenen Geometrie und dem geometrischen Modell für die Tragwerksanalyse. Die Fülle der aufgenommenen Daten sind dabei in der Regel mehr hinderlich als ein Segen für die Tragwerksanalyse. Hier wurde gezeigt, welche und wie viele geometrische Daten für das geometrische Modell für die Tragwerksanalyse sinnvoll sind. Da die eigene Datenaufnahme relativ viel Zeit beansprucht, wurde eine "geistige" Bauaufnahme durchgeführt. Dazu wird der historische Planungsprozess in den einzelnen Formfindungsschritten nachvollzogen und in die virtuelle Realität überführt. Mit dieser Methode ergeben sich unterschiedliche Bauzustände und es lassen sich auch mögliche Bauphasen abbilden. Die Tragwerksanalyse dieser virtuellen Realität zeigt dann mögliche Schwächen der Tragwerke und/oder die Notwendigkeit konstruktiver Veränderungen. Ein Vergleich der Ergebnisse der Tragwerksanalyse mit der Realität anhand des vorliegenden Datenbestands liefert die Grundlage für den aktuellen Handlungsbedarf. Da der Bauzustand eines Bauwerkes unter einer zeitlichen Veränderung steht, werden Methoden überprüft, die es ermöglichen, einen einmal vorgelegten Datenbestand aufzubereiten und weiter zu verwalten.
In this paper we evaluate 2D models for soil-water characteristic curve (SWCC), that incorporate the hysteretic nature of the relationship between volumetric water content Θ and suction Ψ. The models are based on nonlinear least squares estimation of the experimental data for sand. To estimate the dependent variable Θ the proposed models include two independent variables, suction and sensors reading position (depth d in the column test). The variable d represents not only the position where suction and water content are measured but also the initial suction distribution before each of the hydraulic loading test phases. Due to this the proposed 2D regression models acquire the advantage that they: (a) can be applied for prediction of Θ for any position along the column and (b) give the functional form for the scanning curves.
Solid behavior as well as liquid behavior characterizes the flow of granular material in silos. The presented model is based on an appropriate interaction of a displacement field and a velocity field. The constitutive equations and the applied algorithm are developed from the exact solution for a standard case. The standard case evolves from a very tall vertical plane strain silo containing material that flows at a constant speed. No horizontal displacements and velocities take place. No changes regarding the field values arise in the vertical direction and in time. Tension is not allowed at any point. Coulomb friction represents the effects of the vertical walls. The interaction between the flowing material and the walls is covered by a forced boundary condition resulting in an additional matrix for the solid component as well as for the liquid component. The resulting integral equations are designed to be solved directly. Three coefficients describe the properties of the granular material. They govern elastic solid behavior in combination with viscous liquid behavior.
HYPERMONOGENIC POLYNOMIALS
(2006)
It is well know that the power function is not monogenic. There are basically two ways to include the power function into the set of solutions: The hypermonogenic functions or holomorphic Cliffordian functions. L. Pernas has found out the dimension of the space of homogenous holomorphic Cliffordian polynomials of degree m, but his approach did not include a basis. It is known that the hypermonogenic functions are included in the space of holomorphic Cliffordian functions. As our main result we show that we can construct a basis for the right module of homogeneous holomorphic Cliffordian polynomials of degree m using hypermonogenic polynomials and their derivatives. To that end we first recall the function spaces of monogenic, hypermonogenic and holomorphic Cliffordian functions and give the results needed in the proof of our main theorem. We list some basic polynomials and their properties for the various function spaces. In particular, we consider recursive formulas, rules of differentiation and properties of linear independency for the polynomials.
Informationstechnische Integration im Bauwesen durch Nutzung fachspezifischen Anwenderwissens
(1997)
Im vorliegenden Beitrag wird ein Integrationskonzept vorgestellt, bei dem das fachspezifische Wissen des Anwenders integraler Bestandteil des Konzeptes ist. Grundgedanke des Konzeptes ist es, die Informationen vorerst im Kontext der Anwendung, mit der sie erstellt wurden, zu belassen. Die Interpretation der Informationen erfolgt durch den Anwender, der diese Informationen zur Integration nutzen möchte. Er weiß, welche Daten er für seine Arbeiten benötigt, und er verfügt über das erforderliche fachspezifische Wissen, um die Informationen anderer Bearbeiter verstehen zu können. Damit ist es nicht erforderlich, die internen Datenstrukturen einer Software zu verstehen und in einem neutralen Format zu beschreiben. Die Integration erfolgt interaktiv am Bildschirm durch den Anwender. Das vorgestellt Konzept wird in den Kontext der in der Literatur beschriebenen Integrationskonzepte eingegliedert. Hierzu werden die Integrationskonzepte klassifiziert. Die Klassifikation erfolgt auf der Grundlage der Software-Architekturen. Das vorgestellte Integrationskonzept wird am Beispiel der Angebotsbearbeitung im Bauwesen konkretisiert.
Water resources development and management is a complex problem. It includes the design and operation of single system components, often as part of larger interrelated systems and usually on the basis of river basins. While several decades ago the dominant objective was the maximization of economic benefit, other objectives have evolved as part of the sustainable development envisaged. Today, planning and operation of larger water resources systems is practically impossible without adequate computer tools, normally being one or several models, increasingly combined with data bank management systems and multi criteria assessment procedures in decision support systems. The use of models in civil engineering already has a long history when structural engineering is considered. These design support models, however, must rather be seen as expert systems made to support the engineer with his daily work. They often have no direct link to stakeholders and the decision makers community. The scale of investigation is often much larger in water resources engineering than in structural engineering which is related to different stakeholders and decision making procedures. Still, several similarities are obvious which can be summarized as the search for a compromise solution on a complex, i.e. multiobjective and interdisciplinary decision problem. While in structural engineering e.g. aestetics, stability and energy consumption might be important evaluation criteria in addition to construction and maintenance cost other or additional criteria have to be considered in water resources planning such as political, environmental and social criteria. In this respect civil engineers tend to overemphasize technical criteria. For the future the existing expert systems should be embedded into an improved decision support shell, keeping in mind that decision makers are hardly interested in numerical modelling results. The paper will introduce into the problem and demonstrate the state of the art by means of an example.
A concept for integrated modeling of urban and rural hydrology is introduced. The concept allows for simulations on the catchment scale as well as on the local scale. It is based on a 2-layer-approach which facilitates the parallel coupling of a catchment hydrology model with an urban hydrology model, considering the interactions between the two systems. The concept has been implemented in a computer model combining a grid based distributed hydrological catchment model and a hydrological urban stormwater model based on elementary units. The combined model provides a flexible solution for time and spatial scale integration and offers to calculate separate water balances for urban and rural hydrology. Furthermore, it is GIS-based which allows for easy and accurate geo-referencing of urban overflow structures, which are considered as points of interactions between the two hydrologic systems. Due to the two-layer-approach, programs of measures can be incorporated in each system separately. The capabilities of the combined model have been tested on a hypothetical test case and a real world application. It could be shown that the model is capable of accurately quantifying the effects of urbanization in a catchment. The affects of urbanization can be analyzed at the catchment outlet, but can also be traced back to its origins, due to the geo-referencing of urban overflow structures. This is a mayor advantage over conventional hydrological catchment models for the analysis of land use changes.
Räume und Gebäude sind heute wegen der enormen Funktionalität der technischen Gebäudeausrüstung (TGA) in Kombination mit der sonstigen Ausstattung und den diversen Anwendungsprozessen und Nutzergruppen ohne innovative Konzepte der integrierten Bedienung kaum noch beherrschbar bzw. optimal nutzbar. Dies gilt sowohl für Wohn- als auch für Zweckimmobilien. Die Gebäudeleittechnik (GLT) und die Gebäudeautomation (GA) können hier unter sinnvoller Integration der Möglichkeiten der Mikroelektronik, Multimedia-, Kommunikations- und Informationstechnik erheblich zu nutzbringenden Innovationen beitragen. Die Automobilindustrie hat in den letzten Jahren gezeigt, wie durch einen integralen Systemansatz und durch Einsatz von Elektronik, Kommunikations- und Informationstechnik eine sinnvolle technische Assistenz der Anwender machbar ist. Genannt sei hier das Konzept des Cockpits mit integrierter Funktionsbündelung und der Informationskonzentration am Armaturenbrett. Im Gegensatz zum Automobil ist der Bereich der technischen Gebäudeausstattung in Wohn- und Nutzimmobilien gekennzeichnet durch eine starke Fragmentierung in unterschiedlichste Gewerke unter Beteiligung vieler oft schlecht koordinierter Akteure. Durch das Duisburger inHaus-Innovationszentrum für Intelligente Raum- und Gebäudesysteme der Fraunhofer-Gesellschaft wurden in den letzten Jahren neuartige Konzepte der Systemintegration heterogener Technik auf der Basis von Middleware-Plattformen und Multimedia-Technologien und -Geräten entwickelt, getestet und in die Anwendung getragen. Einer der ersten Systemanwendungen dieses offenen Infrastrukturkonzepts ist die integrierte Systembedienung mit zum Teil völlig neuen Bedienkonzepten und einer starken Bedienungsvereinfachung auch komplexester Technikausrüstungen in Immobilien. Der Beitrag beschreibt nach einer Analyse der Ausgangslage die technologischen Grundzüge der integrierten Systembedienung. Es folgen einige Anwendungsbeispiele und eine zusammenfassende Bewertung mit einem Ausblick auf weiterführende Aktivitäten.
This paper describes a didactic application that is part of a research project whose main aim is to develop a computer-aided system which will assist design and construction processes. It is based on the visual simulation of construction activities. Geometric modeling and virtual reality techniques are used in the visualization of the design process and to define user-friendly interfaces in order to access construction information, which could prove useful to Civil Engineering professionals. As a first step, was developed a prototype that serves as a didactic tool for Civil Engineering students of disciplines concerned with building construction. The construction of a double brick wall is the case studied. The wall is defined as a three dimensional model formed with the several components needed to edify it. Using the wall's virtual model it is possible to show, in an interactive way, the sequence of the construction process and observe from any point of view the configurations in detail of the building components. This is then a didactic tool application in construction processes domain of great interest to Civil Engineering students.
In this paper we evaluate 2D models for soil-water characteristic curve (SWCC), that incorporate the hysteretic nature of the relationship between volumetric water content θ and suction ψ. The models are based on nonlinear least squares estimation of the experimental data for sand. To estimate the dependent variable θ the proposed models include two independent variables, suction and sensors reading position (depth d in the column test). The variable d represents not only the position where suction and water content are measured but also the initial suction distribution before each of the hydraulic loading test phases. Due to this the proposed 2D regression models acquire the advantage that they: (a) can be applied for prediction of θ for any position along the column and (b) give the functional form for the scanning curves.
The design and application of high performance materials demands extensive knowledge of the materials damage behavior, which significantly depends on the meso- and microstructural complexity. Numerical simulations of crack growth on multiple length scales are promising tools to understand the damage phenomena in complex materials. In polycrystalline materials it has been observed that the grain boundary decohesion is one important mechanism that leads to micro crack initiation. Following this observation the paper presents a polycrystal mesoscale model consisting of grains with orthotropic material behavior and cohesive interfaces along grain boundaries, which is able to reproduce the crack initiation and propagation along grain boundaries in polycrystalline materials. With respect to the importance of modeling the geometry of the grain structure an advanced Voronoi algorithm is proposed to generate realistic polycrystalline material structures based on measured grain size distribution. The polycrystal model is applied to investigate the crack initiation and propagation in statically loaded representative volume elements of aluminum on the mesoscale without the necessity of initial damage definition. Future research work is planned to include the mesoscale model into a multiscale model for the damage analysis in polycrystalline materials.
The Finite Element Method (FEM) is widely used in engineering for solving Partial Differential Equations (PDEs) over complex geometries. To this end, it is required to provide the FEM software with a geometric model that is typically constructed in a Computer-Aided Design (CAD) software. However, FEM and CAD use different approaches for the mathematical description of the geometry. Thus, it is required to generate a mesh, which is suitable for FEM, based on the CAD model. Nonetheless, this procedure is not a trivial task and it can be time consuming. This issue becomes more significant for solving shape and topology optimization problems, which consist in evolving the geometry iteratively. Therefore, the computational cost associated to the mesh generation process is increased exponentially for this type of applications.
The main goal of this work is to investigate the integration of CAD and CAE in shape and topology optimization. To this end, numerical tools that close the gap between design and analysis are presented. The specific objectives of this work are listed below:
• Automatize the sensitivity analysis in an isogeometric framework for applications in shape optimization. Applications for linear elasticity are considered.
• A methodology is developed for providing a direct link between the CAD model and the analysis mesh. In consequence, the sensitivity analysis can be performed in terms of the design variables located in the design model.
• The last objective is to develop an isogeometric method for shape and topological optimization. This method should take advantage of using Non-Uniform Rational B-Splines (NURBS) with higher continuity as basis functions.
Isogeometric Analysis (IGA) is a framework designed to integrate the design and analysis in engineering problems. The fundamental idea of IGA is to use the same basis functions for modeling the geometry, usually NURBS, for the approximation of the solution fields. The advantage of integrating design and analysis is two-fold. First, the analysis stage is more accurate since the system of PDEs is not solved using an approximated geometry, but the exact CAD model. Moreover, providing a direct link between the design and analysis discretizations makes possible the implementation of efficient sensitivity analysis methods. Second, the computational time is significantly reduced because the mesh generation process can be avoided.
Sensitivity analysis is essential for solving optimization problems when gradient-based optimization algorithms are employed. Automatic differentiation can compute exact gradients, automatically by tracking the algebraic operations performed on the design variables. For the automation of the sensitivity analysis, an isogeometric framework is used. Here, the analysis mesh is obtained after carrying out successive refinements, while retaining the coarse geometry for the domain design. An automatic differentiation (AD) toolbox is used to perform the sensitivity analysis. The AD toolbox takes the code for computing the objective and constraint functions as input. Then, using a source code transformation approach, it outputs a code for computing the objective and constraint functions, and their sensitivities as well. The sensitivities obtained from the sensitivity propagation method are compared with analytical sensitivities, which are computed using a full isogeometric approach.
The computational efficiency of AD is comparable to that of analytical sensitivities. However, the memory requirements are larger for AD. Therefore, AD is preferable if the memory requirements are satisfied. Automatic sensitivity analysis demonstrates its practicality since it simplifies the work of engineers and designers.
Complex geometries with sharp edges and/or holes cannot easily be described with NURBS. One solution is the use of unstructured meshes. Simplex-elements (triangles and tetrahedra for two and three dimensions respectively) are particularly useful since they can automatically parameterize a wide variety of domains. In this regard, unstructured Bézier elements, commonly used in CAD, can be employed for the exact modelling of CAD boundary representations. In two dimensions, the domain enclosed by NURBS curves is parameterized with Bézier triangles. To describe exactly the boundary of a two-dimensional CAD model, the continuity of a NURBS boundary representation is reduced to C^0. Then, the control points are used to generate a triangulation such that the boundary of the domain is identical to the initial CAD boundary representation. Thus, a direct link between the design and analysis discretizations is provided and the sensitivities can be propagated to the design domain.
In three dimensions, the initial CAD boundary representation is given as a collection of NURBS surfaces that enclose a volume. Using a mesh generator (Gmsh), a tetrahedral mesh is obtained. The original surface is reconstructed by modifying the location of the control points of the tetrahedral mesh using Bézier tetrahedral elements and a point inversion algorithm. This method offers the possibility of computing the sensitivity analysis using the analysis mesh. Then, the sensitivities can be propagated into the design discretization. To reuse the mesh originally generated, a moving Bézier tetrahedral mesh approach was implemented.
A gradient-based optimization algorithm is employed together with a sensitivity propagation procedure for the shape optimization cases. The proposed shape optimization approaches are used to solve some standard benchmark problems in structural mechanics. The results obtained show that the proposed approach can compute accurate gradients and evolve the geometry towards optimal solutions. In three dimensions, the moving mesh approach results in faster convergence in terms of computational time and avoids remeshing at each optimization step.
For considering topological changes in a CAD-based framework, an isogeometric phase-field based shape and topology optimization is developed. In this case, the diffuse interface of a phase-field variable over a design domain implicitly describes the boundaries of the geometry. The design variables are the local values of the phase-field variable. The descent direction to minimize the objective function is found by using the sensitivities of the objective function with respect to the design variables. The evolution of the phase-field is determined by solving the time dependent Allen-Cahn equation.
Especially for topology optimization problems that require C^1 continuity, such as for flexoelectric structures, the isogeometric phase field method is of great advantage. NURBS can achieve the desired continuity more efficiently than the traditional employed functions. The robustness of the method is demonstrated when applied to different geometries, boundary conditions, and material configurations. The applications illustrate that compared to piezoelectricity, the electrical performance of flexoelectric microbeams is larger under bending. In contrast, the electrical power for a structure under compression becomes larger with piezoelectricity.
The present study was designed to investigate the underlying factors determining the visual impressions of design-patterns that have complex textures. Design-patterns produced by "the dynamical system defined by iterations of discrete Laplacians on the plane lattice" were adopted as stimuli because they were not only complex, but also defined mathematically. In the experiment, 21 graduate and undergraduate students sorted 102 design-patterns into several groups by visual impressions. Those 102 patterns were classified into 12 categories by the cluster analysis. The results showed that the regularity of pattern was a most efficient factor for determining visual impressions of design-pattern, and there were some correspondence between visual impressions and mathematical variables of design-pattern. Especially, the visual impressions were influenced greatly by the neighborhood, and less influenced by steps of iterations.
In this study we introduce a concept of discrete Laplacian on the plane lattice and consider its iteration dynamical system. At first we discuss some basic properties on the dynamical system to be proved. Next making their computer simulations, we show that we can realize the following phenomena quite well:(1) The crystal of waters (2) The designs of carpets, embroideries (3) The time change of the numbers of families of extinct animals, and (4) The echo systems of life things. Hence we may expect that we can understand the evolutions and self organizations by use of the dynamical systems. Here we want to make a stress on the following fact: Although several well known chaotic dynamical systems can describe chaotic phenomena, they have difficulties in the descriptions of the evolutions and self organizations.
Für eine beherrschbare Koordination und Durchführung von Planungsaufgaben in Bauprojekten wird der Planungsprozess zunehmend in formalisierten Modellen – Prozessmodellen – beschrieben. Die Produktmodellforschung ihrerseits widmet sich der Speicherung von Planungsdaten in Form von objektorientierten Modellen im Rechner. Hauptaugenmerk sind dabei die Wahrung der Konsistenz und die Modellierung von Abhängigkeiten innerhalb dieses Planungsmaterials. Der Bezug zu den Akteuren der Planung wird nicht direkt hergestellt. Ein formal beschriebener Planungsprozesses kann in der Praxis noch nicht derart realisiert werden, dass ein Zugriff auf Einzelobjekte des Planungsprozesses gewährleistet ist. Bestehende Planungsunterstützungs- und Workflowmanagement-Systeme abstrahieren und ordnen das Planungsmaterial nach wie vor auf Dateiebene. Der vorliegende Artikel beschreibt eine Methode für die geeignete Verbindung von formalisierten Prozessmodellen in der Bauplanung mit den Einzelobjekten, die in den modellorientierten Objektmengen kodiert sind. Dabei wird die Zugehörigkeit bestimmter Objekte zu Plänen und Dokumenten (zum Zwecke des Datenaustauschs) nicht länger durch die physische Zuordnung zu Dateien festgelegt. Es wird ein formales Beschreibungsmittel vorgestellt, welches die entsprechende Teilmengenbildung aus der Gesamtheit der Planungsobjekte ermöglicht. Für die bisherigen Formen des Datenaustausches werden aus den Objektmodellen der Planung Teilmengen herausgelöst und physikalisch zwischen den Planern transportiert. Das neue Beschreibungsmittel hingegen erlaubt es, die Bildungsvorschrift für Objektteilmengen statt der Mengen selbst zwischen den Planern auszutauschen. Der Zugriff auf die konkreten Objekte findet dann direkt modellbasiert statt.