Refine
Document Type
- Conference Proceeding (136)
- Article (49)
- Doctoral Thesis (11)
- Habilitation (1)
Institute
- Professur Informatik im Bauwesen (123)
- Professur Theorie und Geschichte der modernen Architektur (46)
- Professur Baubetrieb und Bauverfahren (14)
- Institut für Strukturmechanik (ISM) (3)
- Professur Allgemeine Baustoffkunde (2)
- Professur Medienphilosophie (2)
- Institut für Europäische Urbanistik (1)
- Professur Abfallwirtschaft (1)
- Professur Angewandte Mathematik (1)
- Professur Baumechanik (1)
- Professur Informations- und Wissensverarbeitung (1)
- Professur Medienmanagement (1)
- Professur Planung von Ingenieurbauten (1)
Keywords
- 2003 (46)
- Bauhaus-Kolloquium (46)
- Weimar (46)
- Architektur (22)
- Modellierung (22)
- CAD (18)
- Arbeitsschutz (13)
- Bauplanung (13)
- Bauwerk (12)
- Baustelle (11)
Year of publication
- 2003 (197) (remove)
Das zentrale Problem der Arbeit ist die Untersuchung der Rolle von Orten und Räumen für die Evolution bestimmter visueller Medien im 19. Jahrhundert. Die historische Schwelle wird mit der Erfindung des Panoramas, der Geburt der Passage und der Reform der Bibliothek um 1800 markiert. Ausgehend von der Systemtheorie Luhmanns und dem französischen Poststrukturalismus (Baudry, Lyotard, Foucault) entwickelt die Arbeit dazu einen Begriff des Dispositivs, der zur Untersuchung des Verhältnisses von Objekt, Betrachter und Apparat verwendet wird. Im Mittelpunkt steht dabei das Wechselverhältnis von Wahrnehmung und Kommunikation. Mit Bezug auf Kants »Kritik der Urteilskraft« wird dabei ein neuer Vorschlag für den Code des Kunstsystems – gestaltet/nicht gestaltet – entwickelt. Die zentralen Begriffe für die Definition des Dispositivs sind Abschirmung, Distanzierung und Inszenierung. Damit wird der Versuch unternommen, die Frage des Raumes in der Systemtheorie zu klären. Die historische Analyse beschreibt die Entwicklung vom Theater zum Kino im 19. und frühen 20. Jahrhundert und fokussiert dabei vor allem auf das Festspielhaus Wagners in Bayreuth. Abschließend wird der Beitrag der Warenhäuser und des Schaufensters zur Evolution des Wirtschaftsystems untersucht.
Im Vortrag wird der Frage nachgegangen, inwieweit ein Zusammenhang zwischen der Zuverlässigkeit und gewissen strukturellen Parametern eines Verkehrsnetzes besteht. Das Verkehrsnetz wird hierzu als bewerteter Graph aufgefasst. Zur Analyse der Verkehrsnetzzuverlässigkeit werden die Kanten mit ihren Verfügbarkeiten (>Zuverlässigkeiten<) bewertet. Die Zuverlässigkeit des Verkehrsnetzes hat einen großen Einfluss auf die Beurteilung des Straßennetzes. Im Sinne einer Regressionsanalyse soll der Zusammenhang mit weiteren, speziell für die Betrachtung von Verkehrsnetzen entwickelten strukturellen Kenngrößen untersucht werden, das sind insbesondere die Dispersion des Verkehrsnetzes und die Unterentwicklung des Netzes. Aus der Vielzahl der theoretisch denkbaren Verkehrsnetzstrukturen spiegelt die Ring-Radius-Struktur die realen Straßennetze am besten wider. Solche Ring-Radius-Strukturen kommen in vielen Städten vor. Die Berechnung der Verkehrsnetzzuverlässigkeit erfolgt mittels eines Algorithmus, der auf dem Prinzip der vollständigen Enumeration aller möglichen Kombinationen der Verfügbarkeit bzw. Nichtverfügbarkeit der einzelnen Kanten basiert und die gewünschte Kenngröße exakt bestimmt. Obwohl der Algorithmus speziell auf eine möglichst geringe Rechenzeit ausgerichtet ist, bleibt das Verfahren doch numerisch recht aufwendig. An Hand von zehn verschiedenen Ring-Radius-Strukturen wird der Nachweis eines Zusammenhangs zwischen den strukturellen Kenngrößen und der Verkehrsnetzzuverlässigkeit geführt. Damit können mittels struktureller Bewertungen (die mit einem vergleichsweise geringen Aufwand an Input-Daten und Rechenzeit bestimmbar sind) Aussagen über die Zuverlässigkeit des Verkehrsnetzes getroffen werden.
Seit mehr als fünfzig Jahren werden zur Untersuchung der Tragwerkssicherheit auch Methoden der Wahrscheinlichkeitsrechnung herangezogen. Ungeachtet der inzwischen erreichten Fortschritte und der offensichtlichen Vorzüge, konnte dieses Vorgehen in der Praxis bis jetzt noch nicht ausreichend Fuß fassen. Im Beitrag wird das Problem der Tragwerkssicherheit mit einem neuartigen Verfahren behandelt. Im Unterschied zu den üblichen probabilistischen Methoden geht es nicht von Verteilungsfunktionen aus. Vielmehr werden die maßgebenden Zufallsgrößen in den Mittelpunkt gestellt und direkt in die Rechenvorschrift eingeführt. Als mathematisches Hilfsmittel dienen die WIENERschen Chaos-Polynome. Sie stellen im Raum der Zufallsgrößen mit beschränkter Varianz eine Basis dar, mit der sich eine beliebige Zufallsgröße nach orthogonalen Polynomen GAUSSscher Zufallsgrößen entwickeln läßt. So entsteht ein effektiver Formalismus, der sich eng an die herkömmliche Deformationsmethode anlehnt und als deren probabilistische Verallgemeinerung angesprochen werden darf. Die Methode liefert die Grenzzustandsbedingung als Funktion der auf das Tragwerk wirkenden Zufallsgrößen. Die Versagenswahrscheinlichkeit kann daher durch Monte-Carlo-Simulation bestimmt werden. Die mit der Auswertung des Wahrscheinlichkeitsintegrals der First Order Reliability Method (FORM) verbundenen Schwierigkeiten werden vermieden. An einem Beispieltragwerk wird dargestellt, wie sich Veränderungen gewisser Konstruktionsparameter auf die Versagenswahrscheinlichkeit auswirken.
Ziel der Arbeit ist es, das Arbeitsgebiet der Ökotechnologie durch die praxisbezogene Prüfung von ökologischen Prinzipien und ihre Umsetzung im Rahmen des Optimalitätsprinzips zur Prozess- und Verfahrensentwicklung weiter zu fundieren. Das soll auch dazu beitragen, Entscheidungen für die Gestaltung von stoffwandelnden Prozessen sowie deren Einbindung in gesamtgesellschaftliche Prozesse auf einer nachhaltigkeitsbezogenen richigen objektiven Basis und unter jeweiliger Abwägung von Aufwand und Nutzen , gemessen an dem ausgewählten Zielkriterium, zu treffen.
Wahrnehmung und Verarbeitung von Ereignissen bei der verteilten Planung im baulichen Brandschutz
(2003)
Der Bauplanungsprozess ist durch ein hohes Maß an Kooperation zwischen Planungsbeteiligten verschiedener Fachrichtungen gekennzeichnet. Hierbei werden zum einen Planungen auf der Basis von Planungsinformationen anderer Planungsbeteiligter detailliert, zum anderen geben Planungen einzelner auch wichtige Rahmenbedingungen für die Gesamtplanung vor. Der vorliegende Beitrag beschreibt einen Ansatz zur ganzheitlichen Unterstützungen verteilter Planungen am Beispiel des baulichen Brandschutzes. Der Antrag trägt hierbei der verteilten und parallelen Planung Rechnung, wie sie heute bei der Planung großer und mittlerer Bauwerke angewendet wird. Die Verteiltheit wird nicht nur für die Planungsbeteiligten modelliert, sondern auch die einzelnen Planungsinformationen liegen im gemeinsamen Kooperationsverbund verteilt vor. Der Fokus dieses Beitrags liegt auf der Wahrnehmung von Planungsänderungen und Ereignissen während der Planung und die Verarbeitung dieser Informationen um eine durchgängige Planung zu gewährleisten. Dies wird zum einen durch das CoBE Awarenessmodell erreicht, mit dem Ereignisse erkannt und dem Informationsverbund zur Verfügung gestellt werden können. Zum anderen werden die Ereignisbehandlung und die darauf folgende fachgerechte Informationsverarbeitung mit Hilfe eines Multi-Agentensystems beschrieben.
Die digitale Unterstützung der Planungsprozesse ist ein aktueller Forschungs- und Arbeitsschwerpunkt der Professur Informatik in der Architektur (InfAR) und der Juniorprofessur Architekturinformatik der Fakultät Architektur an der Bauhaus-Universität Weimar. Verankert in dem DFG Sonderforschungsbereich 524 >Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken< entstehen Konzepte und Prototypen für eine fachlich orientierte Planungsunterstützung. Als ein Teilaspekt wird in diesem Beitrag die Vision eines mitwachsenden Geometriemodells für das computergestützte Bauaufmaß gezeigt, welches den Aufnehmenden von der Erstbegehung an begleitet. Die bei jeder Phase der Bauaufnahme gewonnenen Geometrieinformationen sollen in den anschließenden Phasen wiederverwendet, konkretisiert bzw. korrigiert werden. Aufmaßtechniken und Geometriemodell sind dabei eng gekoppelt. Verschiedene Sichten auf ein gemeinsames Geometriemodell haben zum Ziel, den Nutzer die Vorteile planarer Abbildungen nutzen zu lassen, ohne die dreidimensionale Übersicht zu verlieren oder entsprechende räumliche Manipulationen zu missen. Das Geometriemodell ist dabei in ein dynamisches Bauwerksmodell eingebettet. Der folgende Beitrag bezieht sich auf die Bauaufnahme mit folgenden Vorgaben: - die Bauaufnahme dient der Vorbereitung der Bauplanung im Bestand - es wird nur eine Genauigkeitsstufe (im Bereich von +/- 10 cm) unterstützt - die Geometrieabbildung des aufzunehmenden Bauwerkes beruht ausschließlich auf ebenen Oberflächen
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
In modernen Gebäuden nimmt die Komplexität der Heizungstechnik ständig zu. Damit wird es auch immer schwieriger, ein ökologisch und ökonomisch vernünftiges Zusammenspiel der Komponenten zu gewährleisten. Die Vernetzung der verschiedenen Komponenten eines Heizsystems mittels Netzwerktechnik aus der EDV soll helfen, die Energieeffizienz zu erhöhen. Embedded Systems und Mikrocontroller fungieren als Regler für die Teilsysteme. Durch Kommunikation untereinander sollen sie ihr Regelverhalten aneinander anpassen. Eine Internetanbindung ermöglicht die Nutzung weiterer Informationen für die Betriebsführung. Außerdem kann der Internetanschluss für die Fernwartung der Anlage genutzt werden. Mit kleinen, im Webbrowser eines Rechners ausgeführten Java-Programmen, sogenannten Applets, können die Betriebszustände von Heizsystemen in Echtzeit visualisiert werden. Durch das Aufzeichnen von Betriebsdaten wird deren Analyse ermöglicht.
Der Beitrag basiert auf den Ansätzen und Ergebnissen des Forschungsprojekts >Prozessorientierte Vernetzung von Ingenieurplanungen am Beispiel der Geotechnik<, des DFG-Schwerpunktprogramms 1103 >Vernetzt-kooperative Planungsprozesse im Konstruktiven Ingenieurbau<. Ziel ist die Entwicklung einer netzwerkbasierten Kooperationsplattform zur Unterstützung von Ingenieurplanungen. Methodische Grundlagen hierfür stellen die Petri-Netze mit individuellen Marken in Verbindung mit einer semantischen Informationsbewertung dar. Der Beitrag zeigt an einem Beispiel die grundlegenden Möglichkeiten der Petri-Netze auf und stellt die Steuerung der Planungsprozesse aufgrund von Metainformationen dar. Darüber hinaus wird der Ansatz verfolgt, auf der Basis bauteilorientierter Prozessmuster für geotechnische Konstruktionselemente den veränderlichen Prozessablauf zu erfassen. Abschließend wird ein Weg zur Implementierung gezeigt.
In Anbetracht der leistungsstarken Computernetzwerke und der intensiven Globalisierung von Wissenschaft und Technik im Bauwesen ist es das Ziel der Bauinformatik, die Planungsprozesse des Konstruktiven Ingenieurbaus für die Nutzung verteilter Ressourcen zu gestalten, geeignete Kooperationsmodelle für die Fachplanung im Informationsverbund der Projektbeteiligten zu entwickeln und die kooperative Projektbearbeitung unter Nutzung verteilter Fachmodelle in Netzen zu ermöglichen. Dazu werden neue methodische Grundlagen geschaffen, welche die tiefgreifenden Veränderungen der Arbeits- und Organisationsstrukturen berücksichtigen. Vor diesem Hintergrund zeigt der Beitrag aktuelle Forschungsinhalte der Bauinformatik auf, die insbesondere im Rahmen des DFG-Schwerpunktprogramms 1103 'Vernetzt-kooperative Planungsprozesse im Konstruktiven Ingenieurbau' von verschiedenen Projekten arbeitsteilig entwickelt werden. Es wird ein integratives Prozessmodell vorgestellt, das die Grundlage für die Unterstützung der vernetzt-kooperativen Planung mit modernen Methoden der Informationsverarbeitung und Kommunikationstechnik zusammenführt. An einem Beispiel aus dem baulichen Brandschutz werden die methodischen Ansätze der Prozessmodellierung mit Petri-Netzen und der mobilen Softwareagenten zur Unterstützung der Kooperation in der Fachplanung des Bauwesens dargestellt und erläutert.
At present time neuronet's technologies have got a wide application in a different fields of technique. At the same time they give insufficient consideration to using neuron nets in the field of building. Use of approximating neuron nets will allow to definite the deflected mode of constructions elements using noticeably less computing facilities then by using universal methods, finite-element method for instance. Today neuron nets are used for calculation separate elements of building constructions. In this work use of neuron nets for calculation deflected mode of construction which consists of many elements is consider. The main idea of suggested analysis is using neuron nets for calculation internal intensities and transferences pieces of model which are selected by there functional destination. For example, a plate is destine for adoption intensity distributed among area, the purpose of core is taking up surface distributed intensity. Elements involved as intensity converter. Plate serve for intensities dispersion and their transfer. A template is associated with functional destination. A template regards as composition of model elements which has define functional destinations. A single template can incarnate several functional destinations. On receipt values of components transference the estimation of their permissibility is put into practice. In the case of detection a violation of permissible limit, in the component database is making a search for component with analogous functional destination, according to the type of violation. If such component is found than a change a previous component into new one is realized. Thus besides control a condition of construction by components there is a possibility to make a search for decisions of revealed problem....
Bei der direkten thermische Umwandlung von Gips in Stuckgips entstehen texturierte Halbhydratkristallite von geringer Beständigkeit gegen hygro-mechnische Beanspruchung. Überlässt man diese texturierten Kristallite einer natürlichen Alterung, werden \"Heilungseffekte\" beobachtet, die durch lokale Umkristallisierungsreaktion an Oberflächendefekten erklärt werden können. Die gealterten Stuckgipse sind stabiler gegen hygro-mechanische Beanspruchungen. Durch Besprühung von Gips mit verdünnten wässrigen Salzlösungen vor der Calcivierung entsteht aridisierter Stuck geringer texturiert und damit stabiler gegen hygro-mechanische Beanspruchungen.
Im Stahlbeton- und Spannbetonbau kommen in zunehmendem Maße Verbundkonstruktionen aus Betonfertigteilen und Ortbetonergänzungen zum Einsatz. Die Fertigteile werden je nach Spannweite, Belastung und speziellen Anforderungen mit schlaffer oder vorgespannter Be-wehrung ausgeführt. Aufgrund der im Allgemeinen unterschiedlichen Betone der einzelnen Querschnittsanteile sowie bedingt durch den zeitlichen Versatz in der Herstellung der Fertig-teile und der Ortbetonergänzungen ergeben sich Unterschiede im Langzeitverhalten, die bei der Bemessung und Nachweisführung zu berücksichtigen sind. Das Kriechen und Schwinden der Betone als Folge des zeitabhängigen Materialverhaltens und die Spezifik des Verbund-querschnitts können für die Gebrauchstauglichkeit relevant sein, insbesondere wenn die Fer-tigteile vorgespannt sind. Eine hinreichend wirklichkeitsnahe Beschreibung des Langzeitverhaltens von Beton gestattet die Theorie des elastisch-kriechenden Körpers, wobei sich im Allgemeinen keine geschlosse-ne Lösung für bewehrte Betonverbundquerschnitte angeben lässt. Eine Alternative hierzu ergibt sich, wenn für die einzelnen Kriechintervalle ein vereinfachter Ansatz für den Verlauf der Kriechfunktion entsprechend der Theorie des Alterns getroffen wird. Dabei werden die im Zeitintervall (tj-1,tj) umgelagerten Schnittgrößen als neue Belastung der einzelnen Querschnittsanteile im Zeitintervall (tj,tj+1) mit der Kriech-funktion f(tj+1,tj) berücksichtigt. Bei hinreichend kleinen Zeitschritten können die Nachteile der getroffenen Vereinfachung vernachlässigt werden.
In der heutigen Informationsgesellschaft sind alle Geschäftsprozesse in einem Unternehmen geprägt durch die Verwendung der vorhandenen Informations- und Kommunikationstechnologien. Diese haben zur Folge, dass Unternehmen mit einer wahren Flut an Informationen konfrontiert werden, die von extern und intern in das Unternehmen eingetragen wurden. Die erfolgreiche Beherrschung dieser Informationsflut bildet die Basis für das effektive Arbeiten im Unternehmen. Grundvoraussetzung hierfür ist vor allem ein harmonisches Zusammenspiel zwischen Mensch ↔ Organisation ↔ Technik. Dokumentenmanagementsysteme haben sich zur Aufgabe gemacht, den Anwender bei der technologischen Bewältigung dieser Aufgabenstellung zu unterstützen. Der hier vorgestellte Artikel zeigt die Probleme auf, die während der Umsetzung eines Dokumentenmanagementsystems auftreten können und konzentriert sich dabei besonders auf Kleinen und Mittleren Unternehmen (KMU) im Bauwesen. Charakteristisch für diese ist die Schwäche die eigenen Unternehmensstrukturen betriebswirtschaftlich aufzubereiten, woraus später bei einer technologischen Umsetzung schwerwiegende Probleme resultieren. Genau an diesem Punkt setzt der vorgestellte Artikel an und versucht den Zusammenhang zwischen Organisation und Technik herauszuarbeiten, um darauf aufsetzend einen allgemeingültigen Ansatz für die Umsetzung eines Dokumentenmanagementsystems zu liefern.
An einem Teil der Topologie architektonischer Räume, dem Volumenadjazenzgraphen (VAG), wird gezeigt wie topologisches Modellieren Anwendungen der Bauplanung integrieren kann. Dazu wird ein Prototyp vorgestellt, der im wesentlichen aus drei Komponenten besteht: Mit dem Anforderungsmanager werden Anforderungen eigegeben, die formal gut handhabbar sind. Mit dem Topologiemanager werden diese Anforderungen mit gezeichneten Räumen kombiniert. Die topologischen Relationen in den Zeichnungen werden mit den entsprechenden Mitteln des GIS berechnet und in eine Datenbank exportiert. Der Anforderungsprüfer vergleicht dann die Anforderungsdaten, die mit Hilfe des Anforderungsmanagers erzeugt wurden, mit den Topologiedaten. Dieser Ansatz soll zeigen, wie topologische Modelle eine Formalisierung semantisch hochstehender Informationen ermöglichen, indem sie als Eigenschaften von Graphen dargestellt werden
Die Lage oder der Standort eines Bauwerkes ist zweifellos charakteristisch mit diesem verbunden. Die räumliche Einordnung eines exponierten architektonischen Werkes, die Erschließung eines Gebäudes im innerstädtischen Umfeld oder die Verwaltung eines Bestands ist im Bauwesen oder der Architektur immer visuell. Die Interaktion mit Zeichnungen, die Orientierung anhand eines Lageplans oder die Dokumentation mit Fotos sind nur einige Beispiele. Die wirtschaftliche Optimierung unter Nutzung solcher Daten und deren nachfolgende Visualisierung soll hier mittels geeigneter Systeme gezeigt werden. Aber auch die Bewertung durch und Interaktion mit dem Benutzer unterstützt werden. So soll dieser Artikel beispielhaft den Transport und Verkehr fokussieren. Mathematik Graphen und Netze formen dabei Modelle zur Optimierung der zugrundeliegenden Logistikprozesse: Die Baustoffbedarfsplanung mit Bestellwesen, (Ab-)Transport und Lieferung von Material, Tourenzusammenstellung oder Standortauswahl. Informatik Weiterhin wird deren softwaretechnische Umsetzung und Einordung in begleitende Projekte der >Mathematischen Optimierung< vorgestellt.
Toplogical Houses
(2003)
Many properties of houses are of topological nature. The problem of three-dimensional encoding is solved here by first giving an axiomatic description of a simplified concept of >house< as a certain generalisation of a cw-complex and, secondly, by generalising local observation structures of embedded unconnected planar graphs to the three-dimensional case and proving that they allow retrieving all topological properties of these simplified houses. In the more general case of an architectural complex (a certain generalisation of a >house<) still much topolgical information is kept in these structures still making them a useful approach to encoding topological spaces. Finally, a lossless representation of observation structures in a relational database scheme which we call PLAV (Points, Lines, Areas, Volumes) is given. We expect PLAV to be useful for encoding higher dimensional (architectural) space-time complexes.
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
A realistic and reliable model is an important precondition for the simulation of revitalization tasks and the estimation of system properties of existing buildings. Thereby, the main focus lies on the parameter identification, the optimization strategies and the preparation of experiments. As usual structures are modeled by the finite element method. This as well as other techniques are based on idealizations and empiric material properties. Within one theory the parameters of the model should be approximated by gradually performed experiments and their analysis. This approximation method is performed by solving an optimization problem, which is usually non-convex, of high dimension and possesses a non-differentiable objective function. Therefore we use an optimization procedure based on genetic algorithms which was implemented by using the program package SLang...
The queer gaze
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
The conventional way of describing an image is in terms of its canonical pixel-based representation. Other image description techniques are based on image transformations. Such an image transformation converts a canonical image representation into a representation in which specific properties of an image are described more explicitly. In most transformations, images are locally approximated within a window by a linear combination of a number of a priori selected patterns. The coefficients of such a decomposition then provide the desired image representation. The Hermite transform is an image transformation technique introduced by Martens. It uses overlapping Gaussian windows and projects images locally onto a basis of orthogonal polynomials. As the analysis filters needed for the Hermite transform are derivatives of Gaussians, Hermite analysis is in close agreement with the information analysis carried out by the human visual system. In this paper we construct a new higher dimensional Hermite transform within the framework of Quaternionic Analysis. The building blocks for this construction are the Clifford-Hermite polynomials rewritten in terms of Quaternionic analysis. Furthermore, we compare this newly introduced Hermite transform with the Quaternionic-Hermite Continuous Wavelet transform. The Continuous Wavelet transform is a signal analysis technique suitable for non-stationary, inhomogeneous signals for which Fourier analysis is inadequate. Finally the developed three dimensional filter functions of the Quaternionic-Hermite transform are tested with traditional scalar benchmark signals upon their selectivity at detecting pointwise singularities.
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
The empire of language
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
The development of a consistent material model for textile reinforced concrete requires the formulation and calibration of several sub-models on different resolution scales. Each of these models represents the material structure at the corresponding scale. While the models at the micro-level are able to capture the fundamental failure and damage mechanisms of the material components (e.g. filament rupture and debonding from the matrix) their computational costs limit their application to the small size representative unit cells of the material structure. On the other hand, the macro-level models provide a sufficient performance at the expense of limited range of applicability. Due to the complex structuring of the textile reinforced concrete at several levels (filament - yarn - textile - matrix) it is a non-trivial task to develop a multiscale model from scratch. It is rather more effective to develop a set of conceptually related sub-models for each structural level covering the selected phenomena of the material behavior. The homogenized effective material properties obtained at the lower level may be verified and validated using experiments and models at the higher level(s). In this paper the development of a consistent material model for textile reinforced concrete is presented. Load carrying and failure mechanisms at the micro, meso and macro scales are described and models with the focus on the specified scales are introduced. The models currently being developed in the framework of the collaborative research center are classified and evaluated with respect to the failure mechanisms being captured. The micromechanical modeling of the yarn and bonding behavior is discussed in detail and the correspondence with the experiments focused on the selected failure and interaction mechanisms is shown. The example of modeling the bond layer demonstrates the application of the presented strategy.
The goal of the collaborative research center (SFB 532) >Textile reinforced concrete (TRC): the basis for the development of a new material technology< installed in 1998 at the Aachen University is a complex assessment of mechanical, chemical, economical and productional aspects in an interdisciplinary environment. The research project involves 10 institutes performing parallel research in 17 projects. The coordination of such a research process requires effective software support for information sharing in form of data exchange, data analysis and data archival. Furthermore, the processes of experiment planning and design, modification of material compositions and design parameters and development of new material models in such an environment call for systematic coordination applying the concepts of operational research. Flexible organization of the data coming from several sources is a crucial premise for a transparent accumulation of knowledge and, thus, for a successful research in a long run. The technical information system (TRC-TIS) developed in the SFB 532 has been implemented as a database-powered web server with a transparent definition of the product and process model. It serves as an intranet server with access domains devoted to the involved research groups. At the same time, it allows the presentation of selected results just by granting a data object an access from the public area of the server via internet.
Modellverwaltungssysteme sind eine geeignete technologische Basis zum Management digitaler Bauwerksmodelle bei Planungstätigkeiten für den Neubau als auch für die Revitalisierung von Bauwerken. Die Unterstützung von Revitalisierungsprozessen impliziert für den Entwurf integrierter Planungsumgebungen spezifische Anforderungen wie die Repräsentation von Informationen, die mit verschiedenen Typen von Vagheit behaftet sind, die Notwendigkeit, den Soll- sowie den Ist- Zustand des Bauwerks abzubilden und die Fähigkeit des Umgangs mit temporal inkonsistenten Modellzuständen. Die erforderliche Dynamik der Domänenmodelle und die erforderliche Nutzbarkeit in Virtual Enterprises stellen weitere Ansprüche an die Realisierungsbasis der Modellverwaltungssysteme. Zur Implementierung derartiger Systeme erweist es sich als vorteilhaft, Eigenschaften objektorientierter Programmiersprachen mit nichtstatischen Typsystemen auszunutzen, da diese durch die vorhandene Metaebene sowie Introspektions- und Reflektionsmechanismen eine effiziente Realisierungsbasis bereitstellen. Zur effektiven Unterstützung synchroner kooperativer Planungstätigkeiten innerhalb einzelner Fachdisziplinen wurde ein Benachrichtigungsmechanismus realisiert, der an das Modellverwaltungssystem angekoppelte Fachapplikationen über nebenläufig vorgenommene Modifikationen am zugehörigen Domänenmodell oder an Projektinformationen informiert. Weiterhin existiert ein Mechanismus zur vereinfachten Anbindung von existierenden Applikationen, die auf statischen Partialmodellen beruhen oder standardisierte, modellbasierte Austauschformate unterstützen. Abschließend wird eine aus einem zentralen Projektserver, Domänenservern und Domänenclients bestehende hybride Systemarchitektur vorgestellt, die geeignet ist, unter den Randbedingungen kooperativer und geographisch verteilter Arbeit bei Revitalisierungsvorhaben in Virtual Enterprises eingesetzt zu werden.
SYSBAT - An Application to the Building ProductionBased on Computer Supported Cooperative Work
(2003)
Our proposed solution is to enable partners of a construction project to share all the technical data produced and handled during the building production process by building a system through the use of internet technology. The system links distributed databases and allows building partners to access remotely and manipulate specific information. It provides an updated building representation that is being enriched and refined all along the building production process. A recent collaboration with Nemetschek France (subsidiary company of Nemetschek AG, AEC CAD software leader) focus on a building product repository available in a web context. The aim is to help building project actors to choose a technical solution that fits its professional needs, and maintain our information system with up to date information. It starts with the possibility to build on line building product catalogs, in order to link Allplan CAD entities with building technical features. This paper presents the conceptual approaches on which our information system is built. Starting from a general organization diagram organization, we focus on the product and the description branches of construction works (including last IFC model specifications). Our aim is to add decisional support to the construction works selection process. To do so, we consider the actor's role upon the system and the pieces of information each one needs to achieve a given task.
The subject of this talk is the problem of surface design based upon a mesh that may contain both triangular and quadrangular domains. We investigate the cases when such a combined mesh occurs more preferable for bivariate data interpolation than a pure triangulation. First we describe a modification of the well-known flipping algorithm that constructs a locally optimal combined mesh with a predefined quality criterion. Then we introduce two quality measures for triangular and quadrangular domains and present the results of a computational experiment that compares integral interpolation errors and errors in gradients caused by the piecewise surface models produced by the flipping algorithm with the introduced quality measures. The experiment shows that triangular meshes with the Delaunay quality measure provide better interpolation accuracy only if the interpolated function is strictly convex, as well as a saddle-shaped function is better interpolated by bilinear patches within a combined mesh. For a randomly shaped function combined meshes demonstrate smaller error values and better stability in compare with pure triangulations. At the end we consider other resources for mesh improvement, such as excluding >bad< points from the input set for the mesh generating procedure. Because the function values at these points should not be lost, some linear or bilinear patches are replaced by nonlinear patches that pass through the excluded points.
The problem F|n=2|F is to minimize the given objective function F(C1,m, C2,m) of completion times Ci,m of two jobs i Î J={1, 2} processed on m machines M={1, 2, …, m}. Both jobs have the same technological route through m machines. Processing time ti,k of job iÎ J on machine kÎ M is known. Operation preemptions are not allowed. Let R2m be space of non-negative 2m-dimensional real vectors t=(t1,1,…, t1,m, t2,1,…, t2,m) with Chebyshev’s distance d(t, t*). To solve problem F|n=2|F, we can use the geometric algorithm, which includes the following steps: 1) construct digraph (V, A) for problem F|n=2|F and find so-called border vertices in (V, A); 2) construct the set of trajectories corresponding to the shortest paths Rt in digraph (V, A) from the origin vertex to each of the border vertices; 3) find an optimal path in the set Rt that represents a schedule with minimal value of the objective function F. Let path tu Î Rt be optimal for the problem F|n=2|F with operation processing times defined by vector t. If for any small positive real number e > 0 there exists vector t*Î R2m such that d(t, t*) = e and path tu is not optimal for the problem F|n=2|F with operation processing times defined by vector t*, then optimality of path tu is not stable. The main result of the paper is the proof of necessary and sufficient conditions for optimality stability of path tu. If objective function F is continuous non-decreasing (e.g., makespan, total completion time, maximal lateness or total tardiness), then to test whether optimality of the path tu Î Rt is stable takes O(m log m) time.
Hydro- und morphodynamischen Prozesse in Binnengewässern und im Küstennahbereich erzeugen hochkomplexe Phänomene. Zur Beurteilung der Entwicklung von Küstenzohnen, von Flussbetten sowie von Eingriffen des Menschen in Form von Schutzbauwerken sind geeignete numerische Modellwerkzeuge notwendig. Es wird ein holistischer Modellansatz zur Approximation gekoppelter Seegangs-, Strömungs- und Morphodynamischer Prozesse auf der Basis stabilisierter Finiter Elemente vorgestellt. Der Großteil der Modellgleichungen der Hydro- und Morphodynamik sind Transportgleichungen. Dem Transportcharakter dieser Gleichungen entsprechend wird ein stabilisiertes Finites Element Verfahren auf Dreiecken vorgestellt. Die vorgestellte Approximation entspricht einem streamline upwinding Petrov-Galerkin-Verfahrens für vektorwertige mehrdimensionale Probleme, bei dem der Fehler eines Standard-Galerkin-Verfahrens mit Hilfe eines Upwinding-Koeffizienten minimiert wird. Die Wahl des Upwinding-Koeffizienten ist übertragbar auf andere Problemklassen und basiert ausschließlich auf dem Charakter der zugrundeliegene Das Modell wurde für Seegangs- und Strömungs-Untersuchungen im Jade-Weser-Ästuar an der deutschen Nordseeküste eingesetzt.
Spatializing difference
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Skinless architecture
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Today´s procedures for the awarding of public construction performance contracts are mainly paper-based. Although the usage of electronic means is permitted in the VOB, the regulations are not sufficient yet. Especially software agents within the AEC-bidding process were not considered at all. The acceptance of an agent-based virtual marketplace for AEC-bidding depends on a reliable and trustworthy public key infrastructure according to the (German) digital signature act. Only if confidentiality, integrity, non-repudiation, and authentication are provided reliably, users will assign sensitive business processes like public tendering procedures to software agents. The development of a secure agent-based virtual marketplace for AEC-bidding according to legal regulations is an entirely new approach from a technical as well as from a legal point of view. The objective of this research project is the development of intelligent software-agents which are able to legally call for bids, to calculate proposals, and to award the successful bidder.
Ein simultanes Lösungsverfahren für Fluid-Struktur-Wechselwirkungen aus dem Bereich des Bauingenieurwesens wird vorgestellt. Die Modellierung der Tragwerksdynamik erfolgt mit der geometrisch nichtlinearen Elastizitätstheorie in total Lagrangescher Formulierung. Die Strömung wird mit den inkompressiblen Navier-Stokes-Gleichungen beschrieben. Wenn Turbulenzeffekte massgeblich sind, kommen die Reynolds-Gleichungen in Verbindung mit dem k-omega-Turbulenzmodell von Wilcox zum Einsatz. Zur Beschreibung von komplexen freien Oberflächen wird die Level-Set-Methode eingesetzt. Die einheitliche Diskretisierung von Fluid und Struktur mit der Raum-Zeit-Finite-Element-Methode führt zu einem konsistenten Berechnungsmodell für das gekoppelte System. Da die isoparametrischen Raum-Zeit-Elemente ihre Geometrie in Zeitrichtung ändern können, erlaubt die Methode eine natürliche Beschreibung des infolge der Strukturbewegung zeitveränderlichen Strömungsgebiets. Die gewichtete Integralformulierung der Kopplungsbedingungen mit globalen Freiwerten für die Interface-Spannungen sichert eine konservative Kopplung von Fluid und Struktur. Ausgewählte Anwendungsbeispiele zeigen die Leistungsfähigkeit der entwickelten Methodik und belegen die guten Konvergenzeigenschaften des simultanen Lösungsverfahrens.
In ersten Teil des Vortrages wird eine Heuristik zur Approximation der Pareto Menge multikriterielle verallgemeinerter Job-Shop Scheduling-Probleme vorgestellt. Der Algorithmus basiert auf einer genetischen lokale Suche Heuristik. Die Mittelwertbildung der Startzeiten der Vorgänge wurde hierbei als Rekombinationsoperator verwendet. Als lokale Suche wurde ein Threshold Accepting Algorithmus implementiert. Der Algorithmus wurde auf einer großen Menge von Benchmark-Instanzen und den Zielfunktionen Makespan, Tardiness, Lateness und Summe der Fertigstellungszeiten getestet. Die Ergebnisse zu den verschiedenen Zielfunktionen werden vorgestellt. Die vom Algorithmus erzeugte Approximation der Pareto Menge kann eine große Anzahl von Lösungen enthalten. Aus dieser Menge muss der Entscheidungsträger eine Lösung auswählen. Da die Datenmenge schon bei moderaten Problemdimensionen sehr umfangreich wird, stellt dies ein Problem für den Entscheider dar. Deshalb muss die große Menge der Lösungen auf eine überschaubare Anzahl reduziert werden. Bei dieser Reduktion der Lösungen muss die Diversität der verbleibenden Lösungen beachtet werden. Diese Reduzierung wird als Short Listing bezeichnet und im zweiten Teil des Vortrages vorgestellt. Im ersten Schritt des Short Listings werden die Lösungen mittels Abstandsmaßen im Lösungsraum geclustert. Die dazu verwendeten Abstandsmaße werden auf den Permutationen der Vorgänge auf den Ressourcen definiert. Es wurden fünf Abstandsmaße und zwei Clusterverfahren, ein hierarchisches und ein nicht-hierarchisches, untersucht. Im zweiten Schritt wird aus jedem Cluster jeweils eine Lösung ausgewählt und dem Entscheidungsträger vorgelegt. Dabei wurden zwei Methoden untersucht. Im ersten Fall wurde die bezüglich einer Ranking-Funktion beste Lösung und im zweiten Fall die Medianlösung bezüglich des Abstandsmaßes ausgewählt. Die Abstandsmaße, Clusteralgorithmen und Auswahlmethoden wurden auf einer großen Menge von Benchmark-Instanzen verglichen. Die Ergebnisse werden im Vortrag vorgestellt.
Most of the existing seismic resistant design codes are based on the response spectrum theory. The influence of inelastic deformations can be evaluated by considering inelastic type of resisting force and then the inelastic spectrum is considerably different from the elastic one. Also, the influence of stiffness degradation and strength deterioration can be accounted for by including more precise models from material point of view. In some recent papers the corresponding changes in response spectra due to the P- Ä effect are discussed. The experience accumulated from the recent earthquakes indicates that structural pounding may considerably influence the response of structures and should be taken into account in design procedures. The most convenient way to do that is to predict the influence of the pounding on the response spectra for accelerations, velocities and displacements. Generally speaking the contact problems such as pounding are characterized by large extent of nonlinearity and slow convergence of the computational procedures. Thus obtaining spectra where the contact problem is accounted for seems very attractive from engineering point of view because could easy be implemented into the design procedures. However it is worth nothing that there is not rigorous mathematical proof that the original system can be decomposed into single equations related to single degree of freedom systems. It is the porpose of the paper to study the influence of the pounding on the response spectra and to evaluate the amplification due to the impact. For this purpose two adjacent SDOF systems are considered that are able to interact during the vibration process. This problem is solved versus the elastic stiffness ratio, which appears to be very important for such assemblage. The contact between masses is numerically simulated using opening gap elements as links. Comparisons between calculated response spectra and linear response spectra are made in order to derive analytical relationships to simply obtain the contribution of pounding. The results are graphically illustrated in response spectra format and the influence of the stiffness ratio is clarified.
Die Verfügbarkeit und die sichere Beherrschung moderner und kostengünstiger Informations- und Kommunikationstechnologien gestattet es auch kleinen unternehmerischen Einheiten im Bauwesen sich in betriebsübergreifenden Netzwerken zu organisieren und sich besser in die Wertschöpfungskette am Bau zu integrieren. In sogenannten >Virtuellen Organisationen< (VO) können diese für die Volkswirtschaft wichtigen Unternehmen ihre Wettbewerbsvorteile wie höhere Flexibilität, schnelle Reaktion auf Kundenwünsche und Marktnähe nutzen und somit ihr langfristiges Bestehen in einem liberalen Wettbewerb auf einem erweiterten EU-Markt sichern und ausbauen. Die derzeit existierenden Hindernisse im Informationsfluss zwischen Baustelle und Büro können durch den Einsatz mobiler, funkvernetzter Endgeräte, wie beispielsweise >Smart-Phones<, und einer neu zu gestaltenden Infrastruktur zum Wissensmanagement und zur kontextsensitiven Informationsdarstellung abgebaut werden. Im Rahmen dieser Veröffentlichung werden konzeptionelle Ansätze eines integrierten Informationsmanagements zur Unterstützung von VO, die im Rahmen des BMBF-Projektes >IuK-System Bau< derzeit entwickelt werden, vorgestellt.
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
After more than hundred years of arguments in favour and against quaternions, of exciting odysseys with new insights as well as disillusions about their usefulness the mathematical world saw in the last 40 years a burst in the application of quaternions and its generalizations in almost all disciplines that are dealing with problems in more than two dimensions. Our aim is to sketch some ideas - necessarily in a very concise and far from being exhaustive manner - which contributed to the picture of the recent development. With the help of some historical reminiscences we firstly try to draw attention to quaternions as a special case of Clifford Algebras which play the role of a unifying language in the Babylon of several different mathematical languages. Secondly, we refer to the use of quaternions as a tool for modelling problems and at the same time for simplifying the algebraic calculus in almost all applied sciences. Finally, we intend to show that quaternions in combination with classical and modern analytic methods are a powerful tool for solving concrete problems thereby giving origin to the development of Quaternionic Analysis and, more general, of Clifford Analysis.
Um die entsprechende Qualität der ÖPNV zu erreichen, sollte man das Verhältnis zwischen der Bedienungsqualität und dem Kostenaufwand analysieren. In den Bedingungen der anwachsenden Konkurenz aus der Seite der PKW und anderen Fuhrunternehmern soll man die Handlungen, die grösste Effektivität gewährleisten, aufnehmen. Es gibt viele Möglichkeiten die diese Qualität verbessern können, wie z.B. steigernde Frequenz der Fahrzeuge, Vergrößerung der Geschwindigkeit, Pünktlichkeit und Regelmäßigkeit, Einführung der Niederfußfahrzeuge und vieles mehr. Ich versuche in meinem Referat die Aspekte zu analysieren, die mit der Frequenz verbunden sind, d.h. die Erhöhung der Frequenz und das Erhalten der konstanten Häufigkeit der Linienbusse. Das Referat umfasst die Modelle und die Beispiele. In Verbindung mit den Untersuchungen, die die Bereitschaft der Bezahlung für die Verbesserung der Qualität betreffen, kann man schon Entscheidungen treffen, die unterschiedlichen Standard der Fahrt bestimmen.
Präventive Aufgaben der Sicherheits- und Gesundheitsschutz-Koordination im Facility Management
(2003)
Relation Kosten der Nutzung und Unterhaltung eines Bauwerkes zu den Herstellkosten; Versäumnisse der Planungsphase führen zu Mehraufwand bei Betrieb und Unterhaltung des Bauwerkes; Baumängel aus Sicht des Facility Managements, ganzheitliche Bauerkskonzeptionen, Phasen und Bruchlinien der Projektentwicklung; Anforderungen an den Sicherheits- und Gesundheitsschutz-Koordinator.
Prädiktive Wärmeflussregelung solaroptimierter Wohngebäude - Thermische Simulation komplexer Gebäude
(2003)
Moderne Wohngebäude heute, besonders aber die der Zukunft, werden sich zu einem großen Teil selbst mit Wärme versorgen. Hierbei spielen Entwicklungen im Bereich der Fassadenkonstruktionen eine zentrale Rolle. Zum erhöhten solaren Wärmeeintrag kommen die Eigenschaften der Wärmespeicherung und verzögerten Wärmeabgabe hinzu. Aufgrund dieser Eigenschaften definiert sich das Gebäudeverhalten neu und komplexer. Im Rahmen der Entwicklungen von Wärmeflussregelungen in solarthermisch beheizten Wohngebäuden mit neuartigen Fassaden wird in diesem Beitrag auf die Modellentwicklung moderner Fassadenkonstruktionen hinsichtlich Transparenter Wärmedämmung und Phasenwechselmaterialien im Wandverbund, kombiniert mit der regelungstechnisch interessanten Neuentwicklung von Verschattungseinrichtungen über schaltbare Schichten am Fenster, eingegangen. Der Beitrag beschreibt den Entwurf eines Regelungskonzeptes für die thermische Raumklimaregelung. Diese Untersuchungen basieren auf komplexen Simulationsmodellen, wobei bei der Modellentwicklung der neuartigen Fassadenelemente auf reale Messwerte zurückgegriffen werden konnte.