Refine
Document Type
- Conference Proceeding (54)
- Doctoral Thesis (1)
Institute
- Professur Informatik im Bauwesen (55) (remove)
Keywords
- Finite-Elemente-Methode (8)
- Modellierung (7)
- CAD (6)
- Bauwesen (4)
- Tragwerk (4)
- Bauaufnahme (3)
- Datenaustausch (3)
- Dynamische Belastung (3)
- Informationsmanagement (3)
- Algorithmus (2)
Year of publication
- 2000 (55) (remove)
The cost of keeping large area urban computer aided architectural design (CAAD) models up to date justifies wider use and access. This paper reviews the potential for collaborative groupwork creation and maintenance of such models and suggests an approach to data entry, data management and generation of appropriate levels of detail models from a Geographic Information System (GIS). Staff at the University of the West of England (UWE) modelled a large area of Bristol to demonstrate millennium landmark proposals. It became swiftly apparent that continued amendment of the model to keep it an accurate reflection of changes on the ground was a major data management problem. Piecing in new CAAD models received from Architectural Practices to visualise them in context as part of the planning negotiation process has often taken staff several days of work for each instance. The model is so complex and proprietary that Bristol City operates a specialist visualisation bureau service. UWE later modelled the environs of the Tower of London to support bids for funding and to provide the context for judging the visual impact of iterative design development. Further research continued to develop more effective approaches to. Data conversion and amalgamation from all the diverse sources was the major impediment to effective group working to create the models. It became apparent that a GIS would assist retrieving all the appropriate data that described the part of the model under creation. It was possible to predict that management of many historic part models stepping back through time, allowing for different expert interpretations to co-exist would be in itself a major task requiring a spatial database/GIS. UWE started afresh from the original source data, to explore the collaborative use of GIS and Virtual Reality Modelling Language (VRML) to integrate models and interventions from various sources and to generate an overall navigable interactive whole. Current exploration of the combination of event driven behaviours and Structured Query Language is seeking to define how appropriately to modify objects in the VRML model on demand. This is beginning to realise the potential for use of this process for: asynchronous group modelling on the lines of a collaborative virtual design studio; historic building maintenance management; visitor management; interpretation of historic sites to visitors and public planning information.
Die Berücksichtigung stochastischer System- und Lastparameter bei der nach EC zulässigen Analyse des Tragwerksverhaltens unter Berücksichtigung globalen nichtlinearen Systemverhaltens sind notwendig, da dies ein anderes Sicherheitskonzept erfordert. Wird der plastische Grenzlastfaktor (PGLF), der die Ausnutzung der Systemkapazitäten bis zum Kollaps ermöglicht, zur Grenzzustandsbeurteilung herangezogen, wird dies besonders deutlich. Für das Modell eines ebenen Stahlbetontragwerks wird starr-ideal-plastisches Materialverhalten vorausgesetzt. Die Bestimmung des PGLFs für ein gegebenes Lastbild kann ausgehend von einem Extremalprinzip über die Lösung einer Optimierungsaufgabe erfolgen. Diese direkte Bestimmung des Kollapses bereitet aber bei der stochastischen Analyse Schwierigkeiten, da die zugehörigen Grenzzustandsgleichungen (GZG) nicht gutartig sind. Es wird die stochastische Methode des Multi-Modal Importance Sampling (MMIS) vorgeschlagen, die unter Berücksichtigung der Eigenschaften dieses mechanischen Modells die Versagenswahrscheinlichkeit bestimmt, d.h. das Verfahren nimmt auf die nur stückweise Stetigkeit GZG des speziellen Problems Rücksicht. Es setzt die zugehörige Grenzzustandsfunktion voraus. Die wesentlichen Bemessungspunkte werden durch Anwendung des Betaverfahrens gesucht und dann mit einem Importance-Sampling-Algorithmus mit multimodaler Sampling Dichte die Versagenswahrscheinlichkeit bestimmt . Das Verfahren sucht und berücksichtigt die wesentlichen Versagensbereiche des Problems mit vertretbarem Aufwand. Verbesserungen könnten sowohl bei den enthaltenen Such- und Iterationsalgorithmen als auch bei der Wahl der einzelnen Sampling-Dichten erzielt werden, was Gegenstand weiterer Untersuchungen ist.
The technological processes, schedules, parallel algorithms, etc., having some technological limitations and exacting increases of efficiency of their execution can be described through digraphs, on which the appropriate optimization problem (construction of optimal scheduling of tops of digraph) can be solved. The problems, researched in the given operation, have a generally following statement: The problem 1: Under the given graph G and option value h to construct parallel scheduling of tops of digraph of minimum length. Let's designate the problem S(G, h, l). The problem 2: Under the given graph G and option value l to construct parallel scheduling of tops of digraph of minimum width. Let's designate the problem S(G, l, h). The problem 3: Under the given graph G, option value h and periods of execution of operations di, i=1, …, n to construct parallel scheduling of tops of digraph of minimum length. Let's designate the problem S(G, h, di, l). The problems 1,2,3 in a case when h-arbitrary have exponential complexity. In operation the method of solution of the problem S(T, h, di, l) is offered on the basis of choice of tops having greatest weight. The approach to solution of the problem S(G, 3, l) is offered, where G the graph satisfying property : S[i] =S [i], i=1, …, l. For obtaining a rating of width of scheduling on an available estimator of length, we offer to use iterative algorithm of polynomial complexity, on which each step the current value of width of scheduling is set, which is used for specification of length of scheduling.
Die zunehmend erforderliche Kooperation verschiedener Beteiligter unterschiedlicher Fachbereiche und der Einsatz hochspezialisierter Fachapplikationen in heterogenen Systemumgebungen unterstreichen die Bedeutung und Notwendigkeit neuer Konzepte und Möglichkeiten zur Schaffung einer computergestützten Integrationsebene. Ziel einer computergestützten Integrationsebene ist die Verbesserung der Kooperation und Kommunikation unter den Beteiligten. Grundlage dafür ist die Etablierung eines effizienten und fehlerfreien Daten- und Informationsaustausches zwischen den verschiedenen Fachplanern und -applikationen. Die Basis für die Datenintegrationsebene bildet ein digitales Bauwerksmodell im Sinne eines >virtuellen Bauwerks<, welches alle relevanten Daten und Informationen über ein zu planendes oder real existierendes Bauwerk zur Verfügung stellt. Bei der Verwirklichung einer Bauwerksmodell-orientierten Datenintegrationsebene und deren Modellverwaltung erweist sich speziell die Definition des Bauwerksmodells also die Spezifikation der relevanten auszutauschenden Daten als äußerst komplex. Der hier vorzustellende Relationen-orientierte Ansatz, d.h. die Realisierung des Daten- und Informationsaustauschs mittels definierter Relationen und Beziehungen zwischen dynamisch modifizierbaren Domänenmodellen, bietet Ansätze zur: * Verringerung und Beherrschung der Komplexität des Bauwerksmodells (Teilmodellbildung) * Realisierung eines effizienten Datenaustauschs (Relationenmanagement) Somit stellt der Relationenorientierte Ansatz einen adäquaten Lösungsweg zur Modellierung eines digitalen Bauwerksmodells als Datenintegrationsebene für den Lebenszyklus eines Bauwerkes dar.
Für planende Ingenieure und Architekten besteht seit jeher im Rekonstruktionsbereich die Aufgabe, vorhandene Gebäude in ihrer Geometrie und Struktur zu erfassen und daraus Rekonstruktionspläne und -technologien zu erarbeiten. Diese Erfassungsmaßnahmen sind sehr umfangreich und kostenintensiv. Ziel der hier vorzustellenden Ansatzes war es deshalb, ein kostengünstiges Verfahren zu entwickeln, das ein berührungsloses Aufmaß eben begrenzter Räume (polyedrischer Räume) mit einer den Erfordernissen entsprechenden Genauigkeit gewährleistet. Es werden im wesentlichen zwei Problemkreise behandelt. Der erste beinhaltet den Nachweis einer für die geplanten Anwendungen hinreichend genauen, maßstäblichen Rekonstruierbarkeit von ebenen Objekten (Wänden) aus monokularen Fotoaufnahmen. Anstelle des in der Photogrammetrie üblichen Weges über Kamerakalibrierung mittels exakt eingemessener Paßpunkte wurde ein Ansatz verfolgt, bei dem eine mittels Laserspotprojektoren auf dem Aufnahmeobjekt erzeugte parameterabhängige Maßfigur in Verbindung mit a priori bekannten Bildinhalten Grundlage für die maßstabsgerechte Rekonstruktion des Objektes ist. Der zweite Problemkreis behandelt die Zusammensetzung von eben begrenzten Räumen aus Einzelebenen (Wänden) die als Ergebnis des ersten Schrittes projektiv entzerrt, d.h. als orthogonale Draufsicht, allerdings verfahrensbedingt fehlerbehaftet vorliegen. Ziel ist hier, durch Nutzung von a-priori-Kenntnissen über die Raumstruktur mit Hilfe von Methoden der mathematischen Optimierung einen Genauigkeitsgewinn zu erzielen.
Für den Entwurf der i.a. aus langen schmalen Rechtecken bestehenden Schal- bzw. Werkpläne wird eine Entwurfsunterstützung vorgestellt, bei der die Größe der Rechtecke wie immer festgelegt wird, die Lage der Rechtecke aber durch topologische Angaben. Letztere bilden programmtechnisch Bedingungen, wobei zwischen Berühr- und Bündigkeitsbedingen unterschieden wird. Diese Angaben positionieren das neue Rechteck im Bezug zu einem bereits platzierten. Zum Beispiel erlaubt die Angabe, die Säule ist oberhalb des Fundamentes und belastet dieses mittig, eine eindeutige Festlegung der Lage der Säule bei gegebener Lage des Fundamentes und gegebenen Abmessungen beider Rechtecke. Die Formulierung mittels Bedingungen hat den Vorteil daß diese auch bei Änderung von Abmessungen gültig bleiben. Die hier vorgestellte Eingabeart der relativen Positionierung ist eine Erweiterung des Orthomodus, wie er bei Bau-CAD-Programmen stets gefunden wird.
One of the basic types of strength calculations is the calculation of limit equilibrium of constructions. This report describes new method for solving the problem of limit equilibrium. The rigid-plastic system in this method is substituted with an «equivalent» elastic system with specially constructed rigidities. This is why it is called the method of pseudorigidities. An iteration algorithm was developed for finding pseudorigidities. This algorithm is realized in a special software procedure. Conjunction of this procedure with any elastic calculation program (base program) creates a program solving rigid-plastic problems. It is proved, that iterations will be converge to the solution for the problem of limit equilibrium. The solution of tests show, that pseudorigidity method is universal. It allows the following: - to solve problems of limit equilibrium for various models (arch, beam, frame, plate, beam-wall, shell, solid); - to take into account both linearized and square-law fluidity conditions; - to solve problems for various kinds of loads (concentrated, distributed, given by a generalized vector); - to take into account the existing various of fluidity criteria in different sections etc. The iterative PRM process quickly converges. The accuracy of PRM is very high even in case of rough finite-element structuring. The author has used this method for design protection systems from extreme loads due to equipment of nuclear power stations, pipelines, cargo in any transportation.
Prozeßoptimierung in der logistischen Kette erfordert eine interdisziplinäre betriebsüber-greifende Projektarbeit. Im Zeitalter der Globalisierung der Märkte und der stetigen Verbesserung der Wettbewerbsfähigkeit mittelständischer Unternehmen ist eine innerbetriebliche und überbetriebliche Ressourcen- und Tourenplanung (Optimierung) über eine Informationsvernetzung ebenso notwendig wie die Aufbereitung von Informationen und die Analyse von Geschäftsprozessen. Die Prozessoptimierung umfaßt die Aufgaben der Analyse, Gestaltung, Planung und Kontrolle von Prozessen. Supply Chain Management (SCM) ist die übergreifende Prozessoptimierung in der logistischen Kette, d.h. die logische Weiterführung der PPS auf die Lieferbeziehungen. Das Strukturmodell der logistischen Kette umfaßt die Prozesse der * Produktentstehung * Entwicklung * Auftragsgewinnung (Vertrieb, Marketing) * Produktionsplanung * Beschaffung * Produktion * Distribution und Entsorgung Diese Prozesse werden durch das Supply Chain Management nach unternehmensspezifischen Zielsetzungen in Richtung Kunden, Lieferanten und Dienstleistern gestaltet und optimiert (Optimierung der Wertschöpfungskette). Anwendungssystem der Informatik übernehmen die Informationsversorgung in der logistischen Kette.
Diskrete Arbeitsvorgänge lassen sich mit Hilfe von Petri--Netzen formal beschreiben. Petri--Netze basieren auf der Graphentheorie. Die Elemente zweier Knotenmengen werden Stellen und Transitionen genannt und sind durch gerichtete Kanten miteinander verknüpft. Stellen repräsentieren Bedingungen oder Zustände und Transitionen Ereignisse oder Vorgänge. Durch Petri--Netze ist es möglich nicht nur eine statische Vorgänger--Nachfolger--Struktur abzubilden, vielmehr können ebenso Ereignisse, Alternativen und Nebenläufigkeiten modelliert werden. In diesem Beitrag wird vorgestellt, wie ein Bauablauf gegeben durch ein Vorgangsknoten-Netzplan mit sehr wenigen Schritten auf ein Bedingungs/Ereignis-Netz abgebildet werden kann. Alle notwenigen Teilschritte wie das Bilden von Teilnetzen oder das Vergröbern und Verfeinern von Knoten basieren auf einem mathematisch abgesicherten Fundament. Im Gegensatz zu anderen Formulierungen von Bauabläufen ist die Theorie der Petri-Netze eine allgemeingültige Theorie und kann in vielen Bereichen eingesetzt werden. Die Verwendung einer solchen mathematischen Abstraktion ermöglicht die Wiederverwendung von bereits entwickelten Lösungsansätzen. So können die gewonnenen Erfahrungen auch bei der Modellie-rung von anderen Arbeitsvorgängen verwendet werden.
Im Zusammenhang mit der Revitalisierung von Plattenbauwerken kommt der Bewertung bzw. Neubewertung der vorhandenen Aussteifungssysteme große Bedeutung zu. Zur Aussteifung werden im allgemeinen raumbreite, raumhohe und meist unbewehrte Betonelemente verwendet, die lediglich konstruktiv miteinander verbunden sind. Im Rahmen der Untersuchung wird ein vorhandenes Berechnungsmodell zur physikalisch nichtlinearen Analyse von Aussteifungssystemen mehrgeschossiger Gebäude unter Horizontallast so erweitert, dass unbewehrte Horizontalfugen berücksichtigt werden können. Die Analyse der Aussteifungssysteme wird auf der Basis der Methode der mathematischen Optimierung realisiert, wobei die aussteifenden Wände als offene dünnwandige, schlanke Stäbe betrachtet werden, die über dehnstarre Deckenscheibe (Diaphragmen) gekoppelt sind. Im Beitrag wird gezeigt, dass sich bei Berücksichtigung des physikalisch nichtlinearen Tragverhaltens und der damit verbundenen Schnittgrößenumlagerungen Tragreserven erschließen lassen, die auf die Standsicherheit sowohl vorhandener als auch revitalisierter Gebäude angerechnet werden können.