Refine
Document Type
- Conference Proceeding (83)
- Doctoral Thesis (14)
- Article (1)
- Book (1)
- Habilitation (1)
Institute
- Professur Informatik im Bauwesen (55)
- Professur Theorie und Geschichte der modernen Architektur (19)
- Professur Baubetrieb und Bauverfahren (11)
- Professur Massivbau I (3)
- Professur Allgemeine Baustoffkunde (2)
- Professur Geschichte und Theorie künstlicher Welten (2)
- Institut für Strukturmechanik (ISM) (1)
- Professur Bauklimatik (1)
- Professur Datenbanken und Kommunikationssysteme (1)
- Professur Entwerfen und Architekturtheorie (1)
Keywords
- Weimar (20)
- 1999 (19)
- Bauhaus-Kolloquium (19)
- Architektur (14)
- Globalisierung (11)
- Finite-Elemente-Methode (8)
- Baubetriebslehre (7)
- Modellierung (7)
- CAD (6)
- Baustelle (5)
Year of publication
- 2000 (100) (remove)
Die fachlichen Grundlagen der Aufgaben, die in einem Bauunternehmen zu bearbeiten sind, wurden in verschiedenen Disziplinen entwickelt. Maßgeblich waren der Baubetrieb und die Betriebswirtschaftslehre. Die parallele Entwicklung hat jedoch dazu geführt, dass grundlegende Begriff und Verfahren zwischen den Disziplinen nicht aufeinander abgestimmt sind. Die verschiedenen Aufgaben beeinflussen jedoch einander. Innerhalb der jeweiligen Disziplin wurden Informationssysteme entwickelt, mit denen sich die Aufgaben aus der jeweiligen Disziplin bearbeiten lassen. Zur Verbindung der "verschiedenen Welten" existieren zwar ausgewählte Schnittstellen, eine durchgängige verteilte Bearbeitung der verschiedenen Aufgaben wird jedoch noch nicht umfassend unterstützt. Im vorliegenden Beitrag wird ein Vorgehen vorgestellt, auf dessen Grundlage eine verteilte Bearbeitung der fachgebietsübergreifenden Aufgaben erfolgen kann. Das Vorgehen beruht auf der Modellierung der Prozesse sowie der zur Bearbeitung der als Bestandteil der Prozesse spezifizierten Aufgaben benötigten Informationen. Dieses Modell wird auf der Grundlage der Mengenlehre mit einem entsprechenden Werkzeug aufgebaut. Die Spezifikation der Informationen wird genutzt, um Datenbankschemata zu generieren, die Spezifikation der Aufgaben wird genutzt, um Werkzeuge zur Bearbeitung zu identifizieren. Diese Werkzeuge sind in Java als Applets implementiert und können über entsprechende Treiber auf die Datenbanken zugreifen. Das Prozessmodell wird in einem nächsten Schritt erweitert. Personen werden eingeführt. Diesen Personen werden Aufgaben zugewiesen, deren Bearbeitung sie ausführen sollen. Auf der Grundlage des erweiterten Prozessmodells werden die Applets, die eine Person benötigt, auf einer entsprechenden Internet-Seite zusammengestellt. Damit kann projektspezifisch ein Informationssystem zusammengestellt werden, das eine verteilte Bearbeitung der verschiedenartigen Aufgaben unterstützt.
Dynamic testing for damage assessment as non-destructive method has attracted growing in-terest for systematic inspections and maintenance of civil engineering structures. In this con-text the paper presents the Stochastic Finite Element (SFE) Modeling of the static and dy-namic results of own four point bending experiments with R/C beams. The beams are dam-aged by an increasing load. Between the load levels the dynamic properties are determined. Calculated stiffness loss factors for the displacements and the natural frequencies show differ-ent histories. A FE Model for the beams is developed with a discrete crack formulation. Cor-related random fields are used for structural parameters stiffness and tension strength. The idea is to simulate different crack evolutions. The beams have the same design parameters, but because of the stochastic material properties their undamaged state isn't yet the same. As the structure is loaded a stochastic first crack occurs on the weakest place of the structure. The further crack evolution is also stochastic. These is a great advantage compared with de-terministic formulations. To reduce the computational effort of the Monte Carlo simulation of this nonlinear problem the Latin-Hypercube sampling technique is applied. From the results functions of mean value and standard deviation of displacements and frequencies are calcu-lated. Compared with the experimental results some qualitative phenomena are good de-scribed by the model. Differences occurs especially in the dynamic behavior of the higher load levels. Aim of the investigations is to assess the possibilities of dynamic testing under consideration of effects from stochastic material properties
Humans are able to think, to feel, and to sense. We are also able to compute but not very well. In contrast, computers are giants in computing. Yet, they can not do anything else besides computing. Appropriate combinations of the different gifts and strengths of human and computer may result in impressive performances. In the 3-Hirn approach one human and two computers are involved. On the computers different programs are running. The human starts the machines and inspects the solutions they propose. He compares these candidate solutions and finally decides for one of the alternatives. So, the human makes the final choice from a small number of computer proposals. In performance-oriented chess, 3-Hirn combinations consisting of an amateur player and commer-cial software have reached world class level. 3-Hirn is a Decision Support System with Multiple Choice Structure. Such Multiple Choice Systems will be exhibited and discussed.
Die Modelle früher CAD-Zeichnungen sind unstrukturierte Mengen graphischer Elemente. Heute werden CAD-Zeichnungen aus semantischen Objektmodellen von Bauwerken abgeleitet, deren Informationsbasis systematisch geordnet und deren Nutzung zweckmäßig geregelt ist. Softwaremodule werden getrennt entwickelt und unter aktiver Mitwirkung der Anwender vereint eingesetzt.Ein zentrales Problem der aktuellen Forschung und Entwicklung im CAD ist die Handhabung der Beziehungen zwischen Objekten und ihrer Änderungen in verteilten Arbeitsumgebungen. Hierfür wird ein Konzept mit der Relationenalgebra als theoretische Grundlage vorgestellt.
Numerische Approximation makroskopischer Verkehrsmodelle mit der Methode der Finiten Elemente
(2000)
Makroskopische Verkehrsmodelle sind ein wesentliches Hilfsmittel bei der Beurteilung und Steuerung von Verkehrsflüssen auf Hauptverkehrsadern. Für die notwendige Beeinflussung des Verkehrsablaufs werden Online-Messungen und prognostische numerische Simulationen benötigt. Für die Simulationen bieten sich makroskopische Verkehrsmodelle an, die den Verkehr als kontinuierliche Fahrzeugströmeabbilden. Aufgrund der Analogie zu den Modellen der Strömungsmechanik lassen sich die numerischen Verfahren aus diesem Bereich auch zur Lösung makroskopischer Verkehrsmodelle verwenden. Es wird eine Finite-Elemente-Approximation für die numerische Umsetzung makroskopischer Verkehrsmodelle vorgestellt. Exemplarisch wird sie am Verkehrsmodell von Kerner und Konhäuser erläutert. Dieses und andere makroskopische Verkehrsmodelle wurden bisher mit der Methode der Finiten Differenzen gelöst. Die vorgestellte Approximation entspricht einem Petrov-Galerkin-Verfahren, bei dem der Fehler eines Standard-Galerkin-Verfahrens mit Hilfe eines Upwinding-Koeffizienten minimiert wird. Die Wahl des Upwinding-Koeffizienten ist übertragbar und basiert ausschließlich auf dem Charakter der zugrundeliegenden Gleichungen. Die Ergebnisse zeigen typische Phänomene eines Verkehrsablaufs wie die Entstehung von Stop-and-Go-Wellen oder Staus. Die Finite-Elemente-Methode erweist sich für unter-schiedlichste Verkehrsmodelle als ausgesprochen stabil.
Im vorliegenden Beitrag wird ein in das FE-Programmsystem ANSYS implementiertes elastoplastisches Berechnungsmodell zur nichtlinearen, räumlichen Untersuchung von Mauerwerkstrukturen vorgestellt. Die Modellierung des heterogenen Baustoffs Mauerwerk erfolgt mit Hilfe eines verschmierten Ersatzkontinuums. Das anisotrope Materialverhalten wird sowohl hinsichtlich der Spannungs-Dehnungsbeziehung als auch bei der Beschreibung der Festigkeit berücksichtigt. Durch die Verwendung einer zusammengesetzten Fließbedingung ist es möglich, das Versagen der einzelnen Mauerwerkkomponenten Stein und Mörtelfugen und des Verbundes zu berücksichtigen. Dadurch ist die Anwendbarkeit des Modells für mehrere Mauerwerksarten gegeben. Die hierfür verwendeten Materialparameter sind aus einfachen Kleinkörperversuchen bestimmbar oder innerhalb gewisser Grenzen aus empirischen Formeln berechenbar. Die notwendige Beschränkung der Anzahl der Materialparameter sichert die praktische Anwendbarkeit des entwickelten Berechnungsmodells. Die numerische Umsetzung des hier verwendeten impliziten Berechnungsverfahrens lässt sich in eine lokale und eine globale Iterationsebene gliedern. Die lokale Iteration am Integrationspunkt dient der Spannungsrückführung. Dabei sind die Besonderheiten der Verarbeitung mehrflächiger Fließfiguren zu beachten. Die globale Iteration auf Systemebene sichert die Umlagerung des Residuums. Mit der Nachrechnung von Versuchsergebnissen soll das entwickelte Modell verifiziert und seine physikalische Leistungsfähigkeit eingeschätzt werden.
Im Zusammenhang mit der Revitalisierung von Plattenbauwerken kommt der Bewertung bzw. Neubewertung der vorhandenen Aussteifungssysteme große Bedeutung zu. Zur Aussteifung werden im allgemeinen raumbreite, raumhohe und meist unbewehrte Betonelemente verwendet, die lediglich konstruktiv miteinander verbunden sind. Im Rahmen der Untersuchung wird ein vorhandenes Berechnungsmodell zur physikalisch nichtlinearen Analyse von Aussteifungssystemen mehrgeschossiger Gebäude unter Horizontallast so erweitert, dass unbewehrte Horizontalfugen berücksichtigt werden können. Die Analyse der Aussteifungssysteme wird auf der Basis der Methode der mathematischen Optimierung realisiert, wobei die aussteifenden Wände als offene dünnwandige, schlanke Stäbe betrachtet werden, die über dehnstarre Deckenscheibe (Diaphragmen) gekoppelt sind. Im Beitrag wird gezeigt, dass sich bei Berücksichtigung des physikalisch nichtlinearen Tragverhaltens und der damit verbundenen Schnittgrößenumlagerungen Tragreserven erschließen lassen, die auf die Standsicherheit sowohl vorhandener als auch revitalisierter Gebäude angerechnet werden können.
Diskrete Arbeitsvorgänge lassen sich mit Hilfe von Petri--Netzen formal beschreiben. Petri--Netze basieren auf der Graphentheorie. Die Elemente zweier Knotenmengen werden Stellen und Transitionen genannt und sind durch gerichtete Kanten miteinander verknüpft. Stellen repräsentieren Bedingungen oder Zustände und Transitionen Ereignisse oder Vorgänge. Durch Petri--Netze ist es möglich nicht nur eine statische Vorgänger--Nachfolger--Struktur abzubilden, vielmehr können ebenso Ereignisse, Alternativen und Nebenläufigkeiten modelliert werden. In diesem Beitrag wird vorgestellt, wie ein Bauablauf gegeben durch ein Vorgangsknoten-Netzplan mit sehr wenigen Schritten auf ein Bedingungs/Ereignis-Netz abgebildet werden kann. Alle notwenigen Teilschritte wie das Bilden von Teilnetzen oder das Vergröbern und Verfeinern von Knoten basieren auf einem mathematisch abgesicherten Fundament. Im Gegensatz zu anderen Formulierungen von Bauabläufen ist die Theorie der Petri-Netze eine allgemeingültige Theorie und kann in vielen Bereichen eingesetzt werden. Die Verwendung einer solchen mathematischen Abstraktion ermöglicht die Wiederverwendung von bereits entwickelten Lösungsansätzen. So können die gewonnenen Erfahrungen auch bei der Modellie-rung von anderen Arbeitsvorgängen verwendet werden.
Prozeßoptimierung in der logistischen Kette erfordert eine interdisziplinäre betriebsüber-greifende Projektarbeit. Im Zeitalter der Globalisierung der Märkte und der stetigen Verbesserung der Wettbewerbsfähigkeit mittelständischer Unternehmen ist eine innerbetriebliche und überbetriebliche Ressourcen- und Tourenplanung (Optimierung) über eine Informationsvernetzung ebenso notwendig wie die Aufbereitung von Informationen und die Analyse von Geschäftsprozessen. Die Prozessoptimierung umfaßt die Aufgaben der Analyse, Gestaltung, Planung und Kontrolle von Prozessen. Supply Chain Management (SCM) ist die übergreifende Prozessoptimierung in der logistischen Kette, d.h. die logische Weiterführung der PPS auf die Lieferbeziehungen. Das Strukturmodell der logistischen Kette umfaßt die Prozesse der * Produktentstehung * Entwicklung * Auftragsgewinnung (Vertrieb, Marketing) * Produktionsplanung * Beschaffung * Produktion * Distribution und Entsorgung Diese Prozesse werden durch das Supply Chain Management nach unternehmensspezifischen Zielsetzungen in Richtung Kunden, Lieferanten und Dienstleistern gestaltet und optimiert (Optimierung der Wertschöpfungskette). Anwendungssystem der Informatik übernehmen die Informationsversorgung in der logistischen Kette.
One of the basic types of strength calculations is the calculation of limit equilibrium of constructions. This report describes new method for solving the problem of limit equilibrium. The rigid-plastic system in this method is substituted with an «equivalent» elastic system with specially constructed rigidities. This is why it is called the method of pseudorigidities. An iteration algorithm was developed for finding pseudorigidities. This algorithm is realized in a special software procedure. Conjunction of this procedure with any elastic calculation program (base program) creates a program solving rigid-plastic problems. It is proved, that iterations will be converge to the solution for the problem of limit equilibrium. The solution of tests show, that pseudorigidity method is universal. It allows the following: - to solve problems of limit equilibrium for various models (arch, beam, frame, plate, beam-wall, shell, solid); - to take into account both linearized and square-law fluidity conditions; - to solve problems for various kinds of loads (concentrated, distributed, given by a generalized vector); - to take into account the existing various of fluidity criteria in different sections etc. The iterative PRM process quickly converges. The accuracy of PRM is very high even in case of rough finite-element structuring. The author has used this method for design protection systems from extreme loads due to equipment of nuclear power stations, pipelines, cargo in any transportation.
Für den Entwurf der i.a. aus langen schmalen Rechtecken bestehenden Schal- bzw. Werkpläne wird eine Entwurfsunterstützung vorgestellt, bei der die Größe der Rechtecke wie immer festgelegt wird, die Lage der Rechtecke aber durch topologische Angaben. Letztere bilden programmtechnisch Bedingungen, wobei zwischen Berühr- und Bündigkeitsbedingen unterschieden wird. Diese Angaben positionieren das neue Rechteck im Bezug zu einem bereits platzierten. Zum Beispiel erlaubt die Angabe, die Säule ist oberhalb des Fundamentes und belastet dieses mittig, eine eindeutige Festlegung der Lage der Säule bei gegebener Lage des Fundamentes und gegebenen Abmessungen beider Rechtecke. Die Formulierung mittels Bedingungen hat den Vorteil daß diese auch bei Änderung von Abmessungen gültig bleiben. Die hier vorgestellte Eingabeart der relativen Positionierung ist eine Erweiterung des Orthomodus, wie er bei Bau-CAD-Programmen stets gefunden wird.
Für planende Ingenieure und Architekten besteht seit jeher im Rekonstruktionsbereich die Aufgabe, vorhandene Gebäude in ihrer Geometrie und Struktur zu erfassen und daraus Rekonstruktionspläne und -technologien zu erarbeiten. Diese Erfassungsmaßnahmen sind sehr umfangreich und kostenintensiv. Ziel der hier vorzustellenden Ansatzes war es deshalb, ein kostengünstiges Verfahren zu entwickeln, das ein berührungsloses Aufmaß eben begrenzter Räume (polyedrischer Räume) mit einer den Erfordernissen entsprechenden Genauigkeit gewährleistet. Es werden im wesentlichen zwei Problemkreise behandelt. Der erste beinhaltet den Nachweis einer für die geplanten Anwendungen hinreichend genauen, maßstäblichen Rekonstruierbarkeit von ebenen Objekten (Wänden) aus monokularen Fotoaufnahmen. Anstelle des in der Photogrammetrie üblichen Weges über Kamerakalibrierung mittels exakt eingemessener Paßpunkte wurde ein Ansatz verfolgt, bei dem eine mittels Laserspotprojektoren auf dem Aufnahmeobjekt erzeugte parameterabhängige Maßfigur in Verbindung mit a priori bekannten Bildinhalten Grundlage für die maßstabsgerechte Rekonstruktion des Objektes ist. Der zweite Problemkreis behandelt die Zusammensetzung von eben begrenzten Räumen aus Einzelebenen (Wänden) die als Ergebnis des ersten Schrittes projektiv entzerrt, d.h. als orthogonale Draufsicht, allerdings verfahrensbedingt fehlerbehaftet vorliegen. Ziel ist hier, durch Nutzung von a-priori-Kenntnissen über die Raumstruktur mit Hilfe von Methoden der mathematischen Optimierung einen Genauigkeitsgewinn zu erzielen.
Die zunehmend erforderliche Kooperation verschiedener Beteiligter unterschiedlicher Fachbereiche und der Einsatz hochspezialisierter Fachapplikationen in heterogenen Systemumgebungen unterstreichen die Bedeutung und Notwendigkeit neuer Konzepte und Möglichkeiten zur Schaffung einer computergestützten Integrationsebene. Ziel einer computergestützten Integrationsebene ist die Verbesserung der Kooperation und Kommunikation unter den Beteiligten. Grundlage dafür ist die Etablierung eines effizienten und fehlerfreien Daten- und Informationsaustausches zwischen den verschiedenen Fachplanern und -applikationen. Die Basis für die Datenintegrationsebene bildet ein digitales Bauwerksmodell im Sinne eines >virtuellen Bauwerks<, welches alle relevanten Daten und Informationen über ein zu planendes oder real existierendes Bauwerk zur Verfügung stellt. Bei der Verwirklichung einer Bauwerksmodell-orientierten Datenintegrationsebene und deren Modellverwaltung erweist sich speziell die Definition des Bauwerksmodells also die Spezifikation der relevanten auszutauschenden Daten als äußerst komplex. Der hier vorzustellende Relationen-orientierte Ansatz, d.h. die Realisierung des Daten- und Informationsaustauschs mittels definierter Relationen und Beziehungen zwischen dynamisch modifizierbaren Domänenmodellen, bietet Ansätze zur: * Verringerung und Beherrschung der Komplexität des Bauwerksmodells (Teilmodellbildung) * Realisierung eines effizienten Datenaustauschs (Relationenmanagement) Somit stellt der Relationenorientierte Ansatz einen adäquaten Lösungsweg zur Modellierung eines digitalen Bauwerksmodells als Datenintegrationsebene für den Lebenszyklus eines Bauwerkes dar.
The technological processes, schedules, parallel algorithms, etc., having some technological limitations and exacting increases of efficiency of their execution can be described through digraphs, on which the appropriate optimization problem (construction of optimal scheduling of tops of digraph) can be solved. The problems, researched in the given operation, have a generally following statement: The problem 1: Under the given graph G and option value h to construct parallel scheduling of tops of digraph of minimum length. Let's designate the problem S(G, h, l). The problem 2: Under the given graph G and option value l to construct parallel scheduling of tops of digraph of minimum width. Let's designate the problem S(G, l, h). The problem 3: Under the given graph G, option value h and periods of execution of operations di, i=1, …, n to construct parallel scheduling of tops of digraph of minimum length. Let's designate the problem S(G, h, di, l). The problems 1,2,3 in a case when h-arbitrary have exponential complexity. In operation the method of solution of the problem S(T, h, di, l) is offered on the basis of choice of tops having greatest weight. The approach to solution of the problem S(G, 3, l) is offered, where G the graph satisfying property : S[i] =S [i], i=1, …, l. For obtaining a rating of width of scheduling on an available estimator of length, we offer to use iterative algorithm of polynomial complexity, on which each step the current value of width of scheduling is set, which is used for specification of length of scheduling.
Die Berücksichtigung stochastischer System- und Lastparameter bei der nach EC zulässigen Analyse des Tragwerksverhaltens unter Berücksichtigung globalen nichtlinearen Systemverhaltens sind notwendig, da dies ein anderes Sicherheitskonzept erfordert. Wird der plastische Grenzlastfaktor (PGLF), der die Ausnutzung der Systemkapazitäten bis zum Kollaps ermöglicht, zur Grenzzustandsbeurteilung herangezogen, wird dies besonders deutlich. Für das Modell eines ebenen Stahlbetontragwerks wird starr-ideal-plastisches Materialverhalten vorausgesetzt. Die Bestimmung des PGLFs für ein gegebenes Lastbild kann ausgehend von einem Extremalprinzip über die Lösung einer Optimierungsaufgabe erfolgen. Diese direkte Bestimmung des Kollapses bereitet aber bei der stochastischen Analyse Schwierigkeiten, da die zugehörigen Grenzzustandsgleichungen (GZG) nicht gutartig sind. Es wird die stochastische Methode des Multi-Modal Importance Sampling (MMIS) vorgeschlagen, die unter Berücksichtigung der Eigenschaften dieses mechanischen Modells die Versagenswahrscheinlichkeit bestimmt, d.h. das Verfahren nimmt auf die nur stückweise Stetigkeit GZG des speziellen Problems Rücksicht. Es setzt die zugehörige Grenzzustandsfunktion voraus. Die wesentlichen Bemessungspunkte werden durch Anwendung des Betaverfahrens gesucht und dann mit einem Importance-Sampling-Algorithmus mit multimodaler Sampling Dichte die Versagenswahrscheinlichkeit bestimmt . Das Verfahren sucht und berücksichtigt die wesentlichen Versagensbereiche des Problems mit vertretbarem Aufwand. Verbesserungen könnten sowohl bei den enthaltenen Such- und Iterationsalgorithmen als auch bei der Wahl der einzelnen Sampling-Dichten erzielt werden, was Gegenstand weiterer Untersuchungen ist.
Wissenschaftliches Kolloquium vom 14. bis 16. Oktober 1999 in Weimar an der Bauhaus-Universität zum Thema: ‚global village - Perspektiven der Architektur'