Refine
Document Type
- Conference Proceeding (83)
- Doctoral Thesis (14)
- Article (1)
- Book (1)
- Habilitation (1)
Institute
- Professur Informatik im Bauwesen (55)
- Professur Theorie und Geschichte der modernen Architektur (19)
- Professur Baubetrieb und Bauverfahren (11)
- Professur Massivbau I (3)
- Professur Allgemeine Baustoffkunde (2)
- Professur Geschichte und Theorie künstlicher Welten (2)
- Institut für Strukturmechanik (ISM) (1)
- Professur Bauklimatik (1)
- Professur Datenbanken und Kommunikationssysteme (1)
- Professur Entwerfen und Architekturtheorie (1)
Keywords
- Weimar (20)
- 1999 (19)
- Bauhaus-Kolloquium (19)
- Architektur (14)
- Globalisierung (11)
- Finite-Elemente-Methode (8)
- Baubetriebslehre (7)
- Modellierung (7)
- CAD (6)
- Baustelle (5)
Year of publication
- 2000 (100) (remove)
DETERMINATION OF THE DYNAMIC STRESS INTENSITY FACTOR USING ADVANCED ENERGY RELEASE EVALUATION
(2000)
In this study a simple effective procedure practically based upon the FEM for determination of the dynamic stress intensity factor (DSIF) depending on the input frequency and using an advanced strain energy release evaluation by the simultaneous release of a set of fictitious nodal spring links near the crack tip is developed and applied. The DSIF is expressed in terms of the released energy per unit crack length. The formulations of the linear fracture mechanics are accepted. This technique is theoretically based upon the eigenvalue problem for assessment of the spring stiffnesses and on the modal decomposition of the crack shape. The inertial effects are included into the released energy. A linear elastic material, time-dependent loading of sine type and steady state response of the structure are assumed. The procedure allows the opening, sliding and mixed modes of the structure fracture to be studied. This rational and powerful technique requires a mesh refinement near the crack tip. A numerical test example of a square notched steel plate under tension is given. Opening mode of fracture is studied only. The DSIF is calculated using a coarse mesh and a single node release for the released energy computation as well a fine mesh and simultaneous release of four links for more accurate values. The results are analyzed. Comparisons with the known exact results from a static loading are presented. Conclusions are derived. The values of the DSIF are significantly larger than the values of the corresponding static SIF. Significant peaks of the DSIF are observed near the natural frequences. This approach is general, practicable, reliable and versatile.
Petri-Netze und deren Erweiterungen stellen ein leistungsfähiges Instrument zur Model-lierung, Simulation und Animation von Systemen bzw. Prozessen dar. Mathematische Methoden die sowohl analytisch beschreibbar als auch graphisch darstellbar sind, wie z. B. Warteschlangenprobleme, Netzpläne, Suche optimaler Wege in Netzen bzw. Dynamische Optimierung, können mit Hilfe von Petri-Netzen modelliert werden. Werden Petri-Netze zur graphischen Darstellung gewählt, so können die Stellen (passive Knoten) mit Markenverweilzeiten sowie die Transitionen (aktive Knoten) mit Schaltzeiten belegt werden. Für die Zeiten sind deterministische bzw. stochastische Größen einsetzbar. Wird dem Gesamtnetz eine zentrale Uhr und den einzelnen zeitbehafteten Knoten jeweils eine lokale Uhr zugeordnet, so lassen sich die Prozeßabläufe mittels Animation sichtbar machen. Ein an der Professur Computergestützte Techniken entwickeltes Programmsystem dient zur Demonstration der einzelnen Probleme. In anschaulicher Weise kann damit das Ver-ständnis für die genannten Methoden sowie die mit ihrer Hilfe dargestellten Prozesse erleichtert werden.
Für planende Ingenieure und Architekten besteht seit jeher im Rekonstruktionsbereich die Aufgabe, vorhandene Gebäude in ihrer Geometrie und Struktur zu erfassen und daraus Rekonstruktionspläne und -technologien zu erarbeiten. Diese Erfassungsmaßnahmen sind sehr umfangreich und kostenintensiv. Ziel der hier vorzustellenden Ansatzes war es deshalb, ein kostengünstiges Verfahren zu entwickeln, das ein berührungsloses Aufmaß eben begrenzter Räume (polyedrischer Räume) mit einer den Erfordernissen entsprechenden Genauigkeit gewährleistet. Es werden im wesentlichen zwei Problemkreise behandelt. Der erste beinhaltet den Nachweis einer für die geplanten Anwendungen hinreichend genauen, maßstäblichen Rekonstruierbarkeit von ebenen Objekten (Wänden) aus monokularen Fotoaufnahmen. Anstelle des in der Photogrammetrie üblichen Weges über Kamerakalibrierung mittels exakt eingemessener Paßpunkte wurde ein Ansatz verfolgt, bei dem eine mittels Laserspotprojektoren auf dem Aufnahmeobjekt erzeugte parameterabhängige Maßfigur in Verbindung mit a priori bekannten Bildinhalten Grundlage für die maßstabsgerechte Rekonstruktion des Objektes ist. Der zweite Problemkreis behandelt die Zusammensetzung von eben begrenzten Räumen aus Einzelebenen (Wänden) die als Ergebnis des ersten Schrittes projektiv entzerrt, d.h. als orthogonale Draufsicht, allerdings verfahrensbedingt fehlerbehaftet vorliegen. Ziel ist hier, durch Nutzung von a-priori-Kenntnissen über die Raumstruktur mit Hilfe von Methoden der mathematischen Optimierung einen Genauigkeitsgewinn zu erzielen.
Im Vortrag wird der Frage nachgegangen, inwieweit zwischen den strukturellen Parametern Dispersion eines Verkehrsnetzes bzw. der Kennziffer der Unterentwicklung eines Verkehrsnetzes und den mittleren Fahrzeiten bzgl. unterschiedlicher Verkehrsbedarfsmatrizen ein Zusammenhang besteht. An Hand von 10 verschiedenen Ring-Radius-Strukturen für den MIV (Motorisierter Individual-Verkehr) und 3 verschiedenen Ring-Radius-Strukturen für den Busverkehr wird bei 5 unterschiedlichen O-D-Bedarfsmatrizen der Nachweiß eines solchen Zusammenhanges geführt. Die Ergebnisse erlauben es, auf Grund struktureller Analysen Aussagen über funktionelle Bewertungen des Verkehrsnetzes zu treffen. Da strukturelle Bewertungen mit wesentlich geringerem Aufwand an Input-Daten und an Rechenzeit als funktionelle Bewertungen bestimmbar sind, bringt dies deutliche Einsparungen in der Planungsphase von Verkehrsnetzen mit sich.
Im Rahmen des Sonderforschungsbereiches 524 “Konstruktionen und Werkstoffe für die Revitalisierung von Bauwerken“1 ist das primäre Anliegen des Teilprojektes D2 „Bauplanungsrelevantes digitales Gebäudeaufnahme- und Informationssystem“ die Entwicklung von Methoden und Techniken zur Aufnahme von Bestandsdaten vor Ort oder durch Auswertung vorhandener Dokumentationen und deren direkte Integration in ein Bauwerksmodell [11]. Das Vorhaben erarbeitet Grundlagen zu Aspekten der fachplanerischen Nutzung und der wissenschaftlichen Auswertungen arbeitsmethodischer Vorgehensweisen in der Bestandsaufnahme unter Einbeziehung softwaretechnischer Methoden. Dabei finden Sachverhalte der Strukturierung, die Herausarbeitung von Systematiken der wesentlichen Informations-/Datenmengen, die Ableitung von Methoden zur zerstörungsfreien Erfassung und die Darstellung planungsrelevanter Gebäudeinformationen in digitalen Systemen Berücksichtigung. In diesem Artikel werden ausgehend von Anforderungen der planungsrelevanten architektonischen Bauaufnahme eine Konzeption und die prototypische Realisierung zur flexiblen geometrischen Erfassung – dem Bauaufmaß – vorgestellt. Planungsrelevante Bauaufnahme Die Bauaufnahme dient der Modellbildung durch Erfassung und Wiedergabe eines real existenten Bauwerkes in seinem zum Zeitpunkt der Aufnahme angetroffenen Zustand. Die quasi vollständige Aufnahme ist aufgrund der großen zu ermittelnden Datenmengen und den hierdurch entstehenden Aufwendungen und Kosten nicht möglich [8]. Vielmehr muß eine Auswahl und Abstrahierung der aufzunehmenden Daten, ihrer Repräsentation und die Wahl ihrer Genauigkeit nach den Erfordernissen des jeweiligen Verwendungszweckes der Bauaufnahme erfolgen. So vielfältig die Erfordernisse einer Bauaufnahme ausfallen, so vielfältig sind auch die jeweiligen Forderungen und Auswahlen der aufzunehmenden Daten. In der überwiegenden Mehrheit aller Fälle ist auch die Wiedergabe der vorgefundenen geometrischen Ausprägung des Bauwerkes gewünscht oder erforderlich. Dabei werden unterschiedliche Genauigkeitsanforderungen an verschiedene Bereiche des Bauwerkes gestellt [9] [10]. So reicht vielleicht im Einzelfall eine skizzenhafte Wiedergabe des Umfeldes eines geplanten Ladenbereiches, während die umzunutzenden Bereiche in Ausführungsgenauigkeit zu erfassen sind. Die exakte geometrische Ausprägung eingebauter Bauelemente ist oft nur teilweise bekannt. In der Bauaufnahme muß ein enger Zusammenhang zwischen Geometrie und bauteilorientierter Konstruktion, sowie den verwendeten Ordnungssystemen bestehen. Um diesen Ansprüchen genüge zu tragen, werden entsprechende Aufnahmetechniken, rechnerinterne Abbildungen und Funktionalität zur Interaktion Nutzer - Modell gesucht.
Numerische Approximation makroskopischer Verkehrsmodelle mit der Methode der Finiten Elemente
(2000)
Makroskopische Verkehrsmodelle sind ein wesentliches Hilfsmittel bei der Beurteilung und Steuerung von Verkehrsflüssen auf Hauptverkehrsadern. Für die notwendige Beeinflussung des Verkehrsablaufs werden Online-Messungen und prognostische numerische Simulationen benötigt. Für die Simulationen bieten sich makroskopische Verkehrsmodelle an, die den Verkehr als kontinuierliche Fahrzeugströmeabbilden. Aufgrund der Analogie zu den Modellen der Strömungsmechanik lassen sich die numerischen Verfahren aus diesem Bereich auch zur Lösung makroskopischer Verkehrsmodelle verwenden. Es wird eine Finite-Elemente-Approximation für die numerische Umsetzung makroskopischer Verkehrsmodelle vorgestellt. Exemplarisch wird sie am Verkehrsmodell von Kerner und Konhäuser erläutert. Dieses und andere makroskopische Verkehrsmodelle wurden bisher mit der Methode der Finiten Differenzen gelöst. Die vorgestellte Approximation entspricht einem Petrov-Galerkin-Verfahren, bei dem der Fehler eines Standard-Galerkin-Verfahrens mit Hilfe eines Upwinding-Koeffizienten minimiert wird. Die Wahl des Upwinding-Koeffizienten ist übertragbar und basiert ausschließlich auf dem Charakter der zugrundeliegenden Gleichungen. Die Ergebnisse zeigen typische Phänomene eines Verkehrsablaufs wie die Entstehung von Stop-and-Go-Wellen oder Staus. Die Finite-Elemente-Methode erweist sich für unter-schiedlichste Verkehrsmodelle als ausgesprochen stabil.
Das Ziel der Arbeit besteht in der Entwicklung eines Bemessungskonzeptes auf der Basis nichtlinearer Schnittgrößen für statisch und dynamisch beanspruchte Stahlbetontragwer-ke. Das Konzept geht dabei von einheitlichen Kriterien zur Analyse der Tragfähigkeit und Gebrauchstauglichkeit auf der Grundlage deformationsbasierter Grenzzustandsbetrach-tungen aus. Der deformationsbasierte Grenzzustand ist dadurch charakterisiert, daß ne-ben der statischen und kinematischen Zulässigkeit eines Tragwerkszustandes auch die Einhaltung von definierten Verzerrungs- bzw. Verformungsgrenzwerten gewährleistet ist. Aus Betrachtungen im Kontinuum werden diskrete Modelle zur Lösung von physikalisch und geometrisch nichtlinearen Grenzwiderstandsaufgaben mit und ohne Berücksichtigung von Lastfolgeeffekten abgeleitet. Die numerische Untersetzung basiert auf Methoden der nichtlinearen Optimierung. Auf der Grundlage dieser Berechnungsmodelle wird eine Be-messungskonzeption entwickelt.
Schwerpunkt der Arbeit ist die Auseinandersetzung mit den Möglichkeiten und Grenzen der Desktop-VR als neue Generation der Benutzerschnittstellen. Besondere Bedeutung bei dieser Art des Interface-Designs kommt den Metaphern zu. Ein großer Teil der Arbeit beschäftigt sich mit der Klassifikation, der Auswahl und dem Einsatz passender Metaphern unter Berücksichtigung der in der Applikation darzustellenden Informationsinhalte. Aus der Kombination dieser beiden Merkmale (Art der Metapher, Informationsinhalt) ergeben sich vier verschiedene virtuelle Umgebungen, deren Eigenschaften und Besonderheiten konkretisiert und an Beispielen aus dem Anwendungsgebiet der Stadtinformationssysteme vorgestellt werden. Als praktischer Untersuchungsgegenstand dient das Anwendungsgebiet der Stadtinformationssysteme. Die theoretisch basierten Erkenntnisse und Schlußfolgerungen werden durch statistische Untersuchungen, in Form von Fragebögen zu Stadtinformationssystemen, überprüft und konkretisiert.
Die Dissertation adressiert das Gebiet der Entwicklung von (räumlicher) Präsenz in computer-generierten virtuellen Umgebungen im speziellen und virtueller Architektur im besonderen. Der erste Teil motiviert die Arbeit, führt in die Terminologie ein und beschreibt die grundlegenden Prinzipien der virtuellen Realität (VR) und von VR-basierter Architektur. Der Schwerpunkt liegt auf sogenannten immersiven VR-Systemen. Der folgende Teil erarbeitet den theoretischen Hintergrund der Entwickling von Präsenz unter besonderer Beachtung philosophischer und kognitiver Ansätze. Ein eigenes Kapitel widmet sich der Klassifikation von Präsenz-Faktoren unter dem Gesichtspunkt der praktischen Gestaltung virtueller Architektur. Letztendlich werden verschiedene empirische Untersuchungen vorgestellt, die die entwickelten Ansaetze evaluieren und beschreiben. Die Ergebnisse werden im Kontext des architektonischen Gestaltens diskutiert.
Computer Spiel Welten
(2000)
Eine diskursarchäologische Studie zur Entstehung von Computerspielen entlang der Begriffe von Reaktion, Entscheidung und Regulation in Mensch-Maschine-Systemen. Sie rekonstruiert die Emergenz des Computerspiels aus heterogenen Wissensbereichen wie Experimentalpsychologie, Arbeitswissenschaft, Kriegstechnologie, Hard- und Softwaregeschichte, Graphentheorie, Meteorologie, Speläologie, Philosophie, Behaviorismus, Kognitionswissenschaft, Spieltheorie und Kybernetik.
Die Dissertation analysiert und bewertet die Kindergartenarchitektur des 20.Jhd.'s im Spektrum von individueller Planung und Baukastensystemen. Den Ausgangspunkt bildet ein Defizit an Betreuungsplätzen in Deutschland am Ende des 20.Jhd.'s. Dieses resultiert aus dem gesetzlich garantierten Rechtsanspruch auf einen Kindergartenplatz und der rezessiven Wirtschaftslage. Der dringende Handlungsbedarf der Kommunen führte zu einer primär ökonomisch ausgerichteten Baukultur. Anhand eines Kriterienkataloges wird u.a. bewertet, wie eine ökonomische Architektur im Kindergartenbau ohne Qualitätsminderung erzielt werden kann. Zukunftsweisende Kindergartenplanungen für das 21.Jhd. werden analysiert. Ein eigenes weiterführendes, integriertes Planungskonzept wird u.a. hinsichtlich seiner Mehrfach- und Umnutzungspotentiale überprüft. Nur ein ganzheitlicher Architekturansatz kann die vielfältigen Anforderungen an Kindergärten realisieren und zukunftsweisende Überlegungen sinnvoll integrieren.
Die Stadt Weimar nimmt in der deutschen Geschichte und in deren Rezeption eine besondere Stellung ein. Sie steht als Metapher für verschiedene kulturhistorische Epochen. Seit der Jahrhundertwende avancierte sie zum komprimierten Spiegelbild deutscher Befindlichkeiten. Für die Nationalsozialisten stellte Weimar eine wesentliche Station für ihren Aufstieg von München nach Berlin, einen erfolgreichen "Kampf- und Experimentierort" dar. Doch auch von 1932-1945 konnten sie in der Stadt außerordentlich aktiv werden. Beispielhaft äußerte sich das in den zeitgenössischen Bauprojekten, in der zeitgenössischen Baupolitik. Die Dissertation behandelt die gesamte Spannbreite der baulichen und planerischen Aktivitäten in und um Weimar in der Zeit des Nationalsozialismus. Sie thematisiert sowohl die repräsentativen Projekte, als auch die Baulichkeiten des Komplexes zum Konzentrationslager Weimar-Buchenwald, ebenso die Wohn- und Kulturbauten, die Kasernenarchitekturen, die Industrie-, Verkehrs- und Behelfsbauten sowie städtebauliche Planungen. Die Gebäude und Komplexe werden im kulturpolitischen Kontext betrachtet, planungs- und baugeschichtlich untersucht, umfassend architektonisch-gestalterisch und städtebaulich-gestalterisch analysiert, dokumentiert, in ihrer gegenseitigen Beeinflussung dargestellt, verglichen und gewertet. Gegebenenfalls werden Querbeziehungen zu anderen Objekten in Deutschland, außerdem zu zeitgleichen nichtbaulichen Ereignissen in Weimar bzw. Deutschland aufgezeigt. Ein Gesamtbild zur Bauplanung und zum Bauschaffen im Dritten Reich in einer Stadt, beispielhaft in der symbolbeladenen Stadt Weimar wird erstellt; ein Stück verdrängter Kulturgeschichte der Stadt Weimar wird rekonstruiert.
Schwerpunkt dieser Arbeit ist die Untersuchung des Ausbruchverhaltens von unbewehrten Porenbetonplatten bei konzentrierter Lasteintragung in Randnähe. In der Praxis tritt diese Problematik bei Befestigungen oder Verankerungen auf, die eine punktuelle Beanspruchung bewirken. Hauptziel der durchgeführten experimentellen und numerischen Untersuchungen war das Erkennen von Gesetzmäßigkeiten für Versagenserscheinungen und für Bruchlasten in Abhängigkeit von variierenden Geometrie- und Materialparametern. Dabei waren Größe und Lage der Lasteinleitungsstelle sowie die Materialfestigkeit die wichtigsten Einflussfaktoren. Von besonderem Interesse war auch das spröde Verhalten des Porenbetonmaterials auf das Ausbruchverhalten. Die Arbeit gliedert sich in drei Hauptteile: die Experimente mit anschließend weiterführenden numerischen Untersuchungen, sowie Bemessungskonzepten mit Ausbruchgleichungen. Ein weiteres Kapitel behandelt die Zugfestigkeit von Porenbeton. Die Experimente wurde an für Wand- oder Deckenplatten originaldicken Versuchskörpern durchgeführt. Dabei waren die Lagerbedingungen so festgelegt, dass sich möglichst ein ungestörter Ausbruchkörper ausbilden konnte. Numerische Spannungsuntersuchungen über eine räumliche Idealisierung der Versuchskörper mit dem Finite- Element- Programmsystem ANSYS gaben Aufschlüsse über Ort und Größe von bruchverursachenden Spannungen. Des weiteren wurden über die Versuchsergebnisse hinaus Berechnungen über den Einfluss von Variationen bei der Plattengeometrie durchgeführt. Es wurden Betrachtungen über die Zugfestigkeit als einen maßgebenden Faktor für das Ausbruchverhalten geführt. Numerische Risssimulationen gaben Aufschluss über den Spannungszustand und den Ablauf der Rissentwicklung.
Die Arbeit gliedert sich in drei Komplexe. Der erste Komplex umfaßt Voruntersuchungen zum Ultraschallmeßsystem hinsichtlich Sendefrequenzen, Ankoppeldruck und gerätespezifischen Verzögerungszeiten. Zur schrittweisen Entwicklung eines berührungslos arbeitenden Ultraschallverfahrens werden Grundlagenuntersuchungen zur laserinduzierten Anregung von Ultraschallwellen und zur berührungslosen Signalerfassung mittels Laservibrometer durchgeführt. Der zweite Komplex beinhaltet die Untersuchung von Gefügeschädigungen durch Frostangriff. Als Kennwert der inneren Schädigung wird die Änderung des dynamischen E-Moduls durch Anwendung von akustischen Meßverfahren (z.B. Dehnwellenresonanzverfahren) bestimmt. Der Erfassung und Visualisierung des Schädigungsgradienten wird besondere Bedeutung beigemessen. Der dritte Komplex umfaßt die Untersuchung der Gefügeentwicklung während der Hydratation von Normalbetonen zur Bestimmung der Erhärtungsdruckfestigkeit mit dem Ultraschallmeßsystem CONSONIC 60. Ausgewertet werden kontinuierliche und diskontinuierliche Impulslaufzeitmessungen unter Einbeziehung der Betonrezeptur.
1921 nennt der Mathematiker Hermann Weyl (1885-1955) das Kontinuum ein "Medium des freien Werdens". Diese Formulierung nimmt die Dissertation zum Anlass, um die medientheoretische Bedeutung der philosophischen Schriften von Hermann Weyl zu untersuchen. Das konstruktive Kontinuum, in dem nach Weyls Auffassung die Physik präparierte Ereignisse ansiedelt, ist scharf von der anschaulichen Wirklichkeit zu unterscheiden. Weyl erklärt in Diskussionen der Positionen Hilberts und Brouwers in der mathematischen Grundlagenkrise das Kontinuum als Produkt des menschlichen Bewusstseins. Weyls Theorie des Kontinuums weicht von der Darstellung in der Philosophie der symbolischen Formen Ernst Cassirers ab. Cassirer setzt in seinem Hauptwerk voraus, daß der mathematische Symbolismus und das konstruktive Kontinuum eine Brücke zwischen Bewusstsein und Wirklichkeit bilden. Das Wechselverhältnis zwischen dem Mathematiker Weyl und dem Philosophen Cassirer zeigt beispielhafte Formen der Vermittlung zwischen Philosophie und moderner Naturwissenschaft. Weyls Schriften werden als paradigmatisch für die Medientheorie gedeutet.
Ausgehend von der These, dass es keine völlig neuen Medien gibt, Medien vielmehr aus Veränderungen und Hybridisierungen anderer Medien entstehen, stellt die Arbeit die Untersuchung der Narrativität von Videospielen in einen intermedialen Zusammenhang. Dabei werden die medienspezifischen Differenzen der Erzählung und des Erzählens in Film, Fernsehen und Videospielen fokussiert. Neben der Strukturanalyse wird die visuelle Darstellungsebene sowie der Einbezug des Spielers in den Prozess der Narration betrachtet. Dies mündet in einer Theorie der Beobachtungsperspektive und der Handlungsposition des Spielers (Point-of-View und analog "Point-of-Action"), die wichtige Bestandteile des komplexen Erzählersystems der Videospiele bilden. Damit stellt die Arbeit ein, auf Kriterien der Narrativität basierendes, systematisches Beschreibungsinstrumentarium für Videospiele bereit.
In dieser Arbeit wird eine neue Methode für die Integration von Informationen in digitalen Planungsunterlagen erarbeitet. Die Grundidee des Integrationsansatzes stützt sich auf die aktive Einbeziehung der Anwender während der Realisierung der Übernahme von Informationen und bei der Aktualisierung von Planungsunterlagen, die inkonsistent zu anderen Planungsunterlagen sind. Diese Grundidee kombiniert mit den Möglichkeiten neuer Kommunikationstechnologien war für die Spezifikation von neuen Methoden für die Übernahme von Informationen und für die Überwachung von Veränderungen ausschlaggebend. Die neuen Methoden werden in dieser Ausarbeitung erarbeitet und vorgestellt. Ziel der Ausarbeitung ist die Definition von implementationstechnischen Regeln, die alle auszutauschenden Objekte erfüllen müssen. Die Realisierung der Integrationsaufgaben durch den Anwender basiert dabei auf den Möglichkeiten der traditionellen Integration analoger Dokumente.
The availability of the WWW technology and the introduction of the Internet as basic resource like water, electricity or gas changes dramatically normal live, business and of course civil engineering. New technologies enable innovative technical solutions and offer new potential for improvements towards support of humans nature appropriate ways of working. This demands a new culture of work and collaboration. To contribute to theses challenges is a matter the discipline 'Bauinformatik' by supporting related research, development, education and training in civil engineering. This contribution to the IKM Conference 2000 in Weimar sketches selected research and education activities of the institutes of the authors on the topics of WWW based simulation systems (example WEASEL) and of WWW based project platforms (projects MorWin and TaiGer as well as an European education experiment). Both topics supports the collaboration by new ways of tele cooperation in international, heterogeneous and interdisciplinary engineering. Demonstration from this developments and projects will be used to illustrate the dimension of changes in civil engineering in due to modern ICT.
A method of automatic maintenance of vibration amplitude of a number of mechanisms at given level, when exiting force amplitude is varied greatly is given. For this purpose a pendulum is attached to a mechanism through a viscoelastic hinge. Load of a pendulum can move along an arm and it is viscoelastic connected to it.
Im vorliegenden Beitrag wird ein in das FE-Programmsystem ANSYS implementiertes elastoplastisches Berechnungsmodell zur nichtlinearen, räumlichen Untersuchung von Mauerwerkstrukturen vorgestellt. Die Modellierung des heterogenen Baustoffs Mauerwerk erfolgt mit Hilfe eines verschmierten Ersatzkontinuums. Das anisotrope Materialverhalten wird sowohl hinsichtlich der Spannungs-Dehnungsbeziehung als auch bei der Beschreibung der Festigkeit berücksichtigt. Durch die Verwendung einer zusammengesetzten Fließbedingung ist es möglich, das Versagen der einzelnen Mauerwerkkomponenten Stein und Mörtelfugen und des Verbundes zu berücksichtigen. Dadurch ist die Anwendbarkeit des Modells für mehrere Mauerwerksarten gegeben. Die hierfür verwendeten Materialparameter sind aus einfachen Kleinkörperversuchen bestimmbar oder innerhalb gewisser Grenzen aus empirischen Formeln berechenbar. Die notwendige Beschränkung der Anzahl der Materialparameter sichert die praktische Anwendbarkeit des entwickelten Berechnungsmodells. Die numerische Umsetzung des hier verwendeten impliziten Berechnungsverfahrens lässt sich in eine lokale und eine globale Iterationsebene gliedern. Die lokale Iteration am Integrationspunkt dient der Spannungsrückführung. Dabei sind die Besonderheiten der Verarbeitung mehrflächiger Fließfiguren zu beachten. Die globale Iteration auf Systemebene sichert die Umlagerung des Residuums. Mit der Nachrechnung von Versuchsergebnissen soll das entwickelte Modell verifiziert und seine physikalische Leistungsfähigkeit eingeschätzt werden.
The cost of keeping large area urban computer aided architectural design (CAAD) models up to date justifies wider use and access. This paper reviews the potential for collaborative groupwork creation and maintenance of such models and suggests an approach to data entry, data management and generation of appropriate levels of detail models from a Geographic Information System (GIS). Staff at the University of the West of England (UWE) modelled a large area of Bristol to demonstrate millennium landmark proposals. It became swiftly apparent that continued amendment of the model to keep it an accurate reflection of changes on the ground was a major data management problem. Piecing in new CAAD models received from Architectural Practices to visualise them in context as part of the planning negotiation process has often taken staff several days of work for each instance. The model is so complex and proprietary that Bristol City operates a specialist visualisation bureau service. UWE later modelled the environs of the Tower of London to support bids for funding and to provide the context for judging the visual impact of iterative design development. Further research continued to develop more effective approaches to. Data conversion and amalgamation from all the diverse sources was the major impediment to effective group working to create the models. It became apparent that a GIS would assist retrieving all the appropriate data that described the part of the model under creation. It was possible to predict that management of many historic part models stepping back through time, allowing for different expert interpretations to co-exist would be in itself a major task requiring a spatial database/GIS. UWE started afresh from the original source data, to explore the collaborative use of GIS and Virtual Reality Modelling Language (VRML) to integrate models and interventions from various sources and to generate an overall navigable interactive whole. Current exploration of the combination of event driven behaviours and Structured Query Language is seeking to define how appropriately to modify objects in the VRML model on demand. This is beginning to realise the potential for use of this process for: asynchronous group modelling on the lines of a collaborative virtual design studio; historic building maintenance management; visitor management; interpretation of historic sites to visitors and public planning information.
Der Schwerpunkt von Forschung und Entwicklung auf dem Gebiet der Tragwerksplanungs-Software lag in den letzten Jahren auf der Erweiterung des funktionalen Umfangs. In der Folge ist es notwendig, den gestiegenen Funktionsumfang einem möglichst breiten Anwenderkreis durch ingenieurgemäß gestaltete Arbeitsumgebungen zugänglich zu machen, so dass ein möglichst effizientes und fehlerarmes Arbeiten ermöglicht wird. Aus der Sicht der Tragwerksplaner muss eine ingenieurgemäß gestaltete Software eine dem spezifischen Arbeitsablauf angepasste Nutzer-Software-Interaktion aufweisen. Dabei sind die benötigten Funktionalitäten in ein einheitliches System zu integrieren und eine Anpassbarkeit durch den Anwender sicherzustellen. Die Berücksichtigung dieser Anforderungen mit herkömmlichen Mitteln würde einen unverhältnismäßig hohen Entwicklungsaufwand erfordern. Infolgedessen muss aus der Sicht der Software-Entwickler eine moderne Software-Architektur für die Tragwerksplanung eine Erhöhung des Wiederverwendungsgrades und eine unabhängige Erweiterbarkeit als zusätzliche Anforderungen erfüllen. In diesem Beitrag wird ein auf Verbunddokumenten basierendes Konzept vorgestellt, mit dem eine Zusammenführung von Standard-Software und fachspezifischen Software-Komponenten zu einer ingenieurgemäßen Arbeitsumgebung ermöglicht wird. Damit kann die Analyse und die Dokumentation eines Tragelementes einschließlich der zugehörigen Datenhaltung innerhalb eines Verbunddokumentes erfolgen. Gleichzeitig kann der software-technische Wiederverwendungsgrad durch die Definition eines Component Frameworks als unabhängig erweiterbare Software-Architektur und durch den Einsatz von Software-Komponenten mit eigener Nutzeroberfläche über das bisher erreichte Niveau hinaus gesteigert werden. Die Umsetzbarkeit des Konzeptes wird durch eine Pilotimplementierung demonstriert.
COMPARISON OF SOME VARIANTS OF THE FINITE STRIP METHOD FOR ANALYSIS OF COMPLEX SHELL STRUCTURES
(2000)
The subject of this paper is to explore and evaluate the semi-analytical, analytical and numerical versions of the finite strip method (FSM) for static, dynamic and stability analyses of complex thin-walled structures. Many of bridge superstructures, some roof and floor structures, reservoirs, channels, tunnels, subways, layered shells and plates etc. can be analysed by this method. In both semi-analytical and analytical variants beam eigenvalue vibration or stability functions, orthogonal polynomials, products of these functions are used as longitudinal functions of the unknowns. In the numerical FSM spline longitudinal displacement functions are implemented. In the semi-analytical and numerical FSM conventional transverse shape functions for displacements are used. In the analytical FSM the accurate function of the strip normal displacement and the plane stress function are applied. These three basic variants of the FSM are compared in quality and quantity in view to the following: basic ideas, modelling, unknowns, DOF, a kind and order of the strips, longitudinal and transverse displacement and stress functions, compatibility requirements, boundary conditions, ways for obtaining of the strip stiffness and load matrices, a kind and size of the structure stiffness matrix and its band width, mesh density, necessary number of terms in length, accuracy and convergence of the stresses and displacements, approaches for refining results, input and output data, computer resources used, application area, closeness to other methods, options for future development. Numerical example is presented. Advantages and shortcomings are pointed. Conclusions are given.
Die Versagenswahrscheinlichkeit nach einem Grenzzustand wird gewöhnlich mit dem Integral I der Basisvariablen-Verteilungsdichte über den Versagensbereich bestimmt. Dabei ist eine geschlossene Lösung nur im Spezialfall normalverteilter Basisvariablen bei Linearität der Grenzzustandsgleichung möglich. In anderen Fällen sind verschiedene Näherungsverfahren gebräuchlich, die auf den Momenten der Basisvariablen und geeignet gewählten Indizes als Sicherheitskenngrößen beruhen. Eine größere Genauigkeit bieten die Zuverlässigkeitstheorien erster bzw. zweiter Ordnung, die ebenfalls von I ausgehen. Im Beitrag wird ein neuartiges Verfahren vorgestellt, dessen Ausgangspunkt nicht I, sondern das Kraftgrößenverfahren als einem Standardalgorithmus des konstruktiven Ingenieurbaus ist. Die Einbeziehung der maßgebenden Zufallsgrößen in die Matrix der Vorzahlen und die Belastungszahlen führt zur Verallgemeinerung des Systems der Elastizitätsgleichungen zum zufälligen System der Elastizitätsgleichungen. Dessen Lösung, die durch den Übergang zu einem deterministischen Ersatzsystem gewonnen wird, liefert die statisch Unbestimmten als Funktionen der im System wirkenden Zufallsgrößen (z.B. E-Modul der Stäbe und Belastung). Da dieser Zusammenhang analytisch vorliegt, kann die Wirkung einzelner Zufallseinflüsse auf die statisch Unbestimmten und die daraus folgenden sicherheitsrelevanten Zustandsgrößen beurteilt werden. Die Dichtefunktion der Grenzzustandsgleichung kann berechnet oder durch Simulation ermittelt werden. Daraus folgt . Nicht normalverteilte Zufallsgrößen werden durch Entwicklung in orthogonale Polynome Gaußscher Zufallsgrößen berücksichtigt.
Für den Entwurf der i.a. aus langen schmalen Rechtecken bestehenden Schal- bzw. Werkpläne wird eine Entwurfsunterstützung vorgestellt, bei der die Größe der Rechtecke wie immer festgelegt wird, die Lage der Rechtecke aber durch topologische Angaben. Letztere bilden programmtechnisch Bedingungen, wobei zwischen Berühr- und Bündigkeitsbedingen unterschieden wird. Diese Angaben positionieren das neue Rechteck im Bezug zu einem bereits platzierten. Zum Beispiel erlaubt die Angabe, die Säule ist oberhalb des Fundamentes und belastet dieses mittig, eine eindeutige Festlegung der Lage der Säule bei gegebener Lage des Fundamentes und gegebenen Abmessungen beider Rechtecke. Die Formulierung mittels Bedingungen hat den Vorteil daß diese auch bei Änderung von Abmessungen gültig bleiben. Die hier vorgestellte Eingabeart der relativen Positionierung ist eine Erweiterung des Orthomodus, wie er bei Bau-CAD-Programmen stets gefunden wird.
Die Inverse Matrizeniteration ist ein Verfahren zur Bestimmung der Eigenzustände reeller, symmetrischer Matrizen mit konvexer Profilstruktur. Das Verfahren zeichnet sich besonders durch den Erhalt der Profilstruktur und die Bestimmung der Eigenwerte in geordneter Reihenfolge aus. Die Iteration ermöglicht die gezielte Bestimmung mehrerer aufeinander folgender betragskleinster Eigenwerte, wie es im Bauwesen insbesondere für Stabilitäts- und Schwingungsanalysen erforderlich ist. Die Anwendung dieses Verfahrens hat gezeigt, daß ein Teil der gesuchten Eigenwerte mit wenigen Iterationszyklen bestimmt werden kann, während andere eine größere Anzahl von Iterationszyklen erfordern. Diese lokale Konvergenzverschlechterung kann durch eine Jacobi-Randkorrektur, wie sie im Beitrag näher erläutert wird, behoben werden.
Berechnungsmethoden mit Berücksichtigung des physikalisch nichtlinearen Verhaltens von Stahlbetonkonstruktionen werden mit Einführung der europäischen und nationalen Normung verstärkten Einsatz in der Tragwerksplanung finden. Hierbei sind im Gegensatz zu linearen Berechnungen zeitliche Aspekte der Tragwerksbeanspruchung zu berücksichtigen. Ein Lösungsansatz zur Beherrschung von Lastfolgeeffekten kann auf der Grundlage der Theorie des adaptiven Tragwerkes abgeleitet werden. Unter Verwendung von Algorithmen der mathematischen Optimierung lassen sich derartige Probleme numerisch lösen. Von besonderem Interesse sind dabei spezielle Formulierungen zur Bestimmung von Grenzwiderständen, die zur Bemessung von Stahlbetontragwerken herangezogen werden können. Im Beitrag werden zwei Konzepte zur numerischen Bestimmung von adaptiven Grenzwiderständen auf der Basis der nichtlinearen Optimierung vorgestellt, diese sind: - Konzept des superponierten Restzustandes - Konzept der gekoppelten plastischen Antwort. Es wird von einem elastisch- plastischen Verhalten der untersuchten Struktur ausgegangen.
Humans are able to think, to feel, and to sense. We are also able to compute but not very well. In contrast, computers are giants in computing. Yet, they can not do anything else besides computing. Appropriate combinations of the different gifts and strengths of human and computer may result in impressive performances. In the 3-Hirn approach one human and two computers are involved. On the computers different programs are running. The human starts the machines and inspects the solutions they propose. He compares these candidate solutions and finally decides for one of the alternatives. So, the human makes the final choice from a small number of computer proposals. In performance-oriented chess, 3-Hirn combinations consisting of an amateur player and commer-cial software have reached world class level. 3-Hirn is a Decision Support System with Multiple Choice Structure. Such Multiple Choice Systems will be exhibited and discussed.
Prozeßoptimierung in der logistischen Kette erfordert eine interdisziplinäre betriebsüber-greifende Projektarbeit. Im Zeitalter der Globalisierung der Märkte und der stetigen Verbesserung der Wettbewerbsfähigkeit mittelständischer Unternehmen ist eine innerbetriebliche und überbetriebliche Ressourcen- und Tourenplanung (Optimierung) über eine Informationsvernetzung ebenso notwendig wie die Aufbereitung von Informationen und die Analyse von Geschäftsprozessen. Die Prozessoptimierung umfaßt die Aufgaben der Analyse, Gestaltung, Planung und Kontrolle von Prozessen. Supply Chain Management (SCM) ist die übergreifende Prozessoptimierung in der logistischen Kette, d.h. die logische Weiterführung der PPS auf die Lieferbeziehungen. Das Strukturmodell der logistischen Kette umfaßt die Prozesse der * Produktentstehung * Entwicklung * Auftragsgewinnung (Vertrieb, Marketing) * Produktionsplanung * Beschaffung * Produktion * Distribution und Entsorgung Diese Prozesse werden durch das Supply Chain Management nach unternehmensspezifischen Zielsetzungen in Richtung Kunden, Lieferanten und Dienstleistern gestaltet und optimiert (Optimierung der Wertschöpfungskette). Anwendungssystem der Informatik übernehmen die Informationsversorgung in der logistischen Kette.
Jubiläumsbroschüre zum Tag des Baubetriebs >Prozesssteuerung-Projektleitung-Dienstleistung< am Freitag, dem 7. Juli 2000 in Weimar. Geleitwort des Rektors der Bauhaus-Universität Weimar 45 Jahre technologische Lehre und Forschung in Weimar Bauen im Jahr 2020 – Wohin verändert sich Baubetrieb? Statistische Übersichten
In Erstanwendung des Fernstraßenbauprivatfinanzierungsgesetzes wurde der Konzessionär in einer frühen Projektphase noch vor der Planfeststellung beauftragt. Nur hierdurch war es möglich, ein umfassendes, speziell auf die Technologie eines Ausführungsbetriebes zugeschnittenes Baustellenmanagement-Konzept als Basis für die Planfeststellung zu erarbeiten. Vorstellung des Vorhabens, Baumanagement-Konzept: Grobbauablaufplanung, Baustelleneinrichtung, Arbeitskräfteeinsatz, Bodenmanagement, Hauptbaustoffversorgung und Erdstofftransporte im öffentlichen Bauraum, Verkehrsumleitungskonzeption für den öffentlichen Verkehr entsprechend den Bauphasen.
Eine integrierte Gesamtplanung, ein konzentriertes Planungs- und Freigabesystem, ein konsequentes Baustellenmanagement sowie die Einbeziehung und Bündelung des Know how und der Leistungsfähigkeit solventer Partner sind Grundlage für die Optimierung der Kommunikations- und Entscheidungswege für die systemgeführte Prozesslenkung. Das wird am Beispiel der Errichtung des Innerstädtischen Einkaufszentrums Anger 1 belegt.
Bauschäden im Wohn- und Gewerbebau – eine Thüringer Bestandsaufnahme und Ansätze zur Problemlösung
(2000)
Der Verfasser gibt einen Überblick über die aktuelle Bauschadensforschung an Wohn-, Gewerbe- und Industriebauten (Schadensanfälligkeit, zeitliche Verteilung von Bauschäden, Verteiliung der Verursachung und des Verschuldens, Schadensintensität in Abhängigkeit von den Vertragsstrukturen, Mängel- und Schadensbeseitigungskosten). Es werden Schlussfolgerungen auf notwendige Maßnahmen zur Reduzierung der Schadensintensität gezogen.
Dynamic testing for damage assessment as non-destructive method has attracted growing in-terest for systematic inspections and maintenance of civil engineering structures. In this con-text the paper presents the Stochastic Finite Element (SFE) Modeling of the static and dy-namic results of own four point bending experiments with R/C beams. The beams are dam-aged by an increasing load. Between the load levels the dynamic properties are determined. Calculated stiffness loss factors for the displacements and the natural frequencies show differ-ent histories. A FE Model for the beams is developed with a discrete crack formulation. Cor-related random fields are used for structural parameters stiffness and tension strength. The idea is to simulate different crack evolutions. The beams have the same design parameters, but because of the stochastic material properties their undamaged state isn't yet the same. As the structure is loaded a stochastic first crack occurs on the weakest place of the structure. The further crack evolution is also stochastic. These is a great advantage compared with de-terministic formulations. To reduce the computational effort of the Monte Carlo simulation of this nonlinear problem the Latin-Hypercube sampling technique is applied. From the results functions of mean value and standard deviation of displacements and frequencies are calcu-lated. Compared with the experimental results some qualitative phenomena are good de-scribed by the model. Differences occurs especially in the dynamic behavior of the higher load levels. Aim of the investigations is to assess the possibilities of dynamic testing under consideration of effects from stochastic material properties
Ausgehend von den klassischen Variationsprinzipien der Mechanik werden kinematische und gemischte Extremalprinzipe abgeleitet, die zur Beschreibung geometrisch und physikalisch nichtlinearen Tragverhaltens geeignet sind. Ein Schwerpunkt der Arbeit besteht in der Anwendung der Prinzipe zur Analyse und Bemessung von Stahlbeton-, Spannbeton- und Verbundquerschnitten. Aus einem einheitlichen Berechnungsmodell wird eine Vielzahl praxisrelevanter Problemstellungen abgeleitet. Ein weiterer Schwerpunkt ist die Anwendung der kinematischen Extremalformulierung für die geometrisch und physikalisch nichtlineare Berechnung von Stabtragwerken.
n allen Stadien des Planungsprozesses von Gebäuden nehmen Entwurfsentscheidungen starken Einfluß auf die bauphysikalische Qualität eines Gebäudes. Im Rahmen dieses Beitrags wird deshalb die Integration bauphysikalischer Gesichtspunkte in den Planungsprozeß vorgestellt, bei welcher dem Fachingenieur geeignete Werkzeuge zur Verfügung gestellt werden, die es erlauben, das zu planende Gebäude als Einheit von baulicher Hülle, Anlagentechnik und Nutzung zu betrachten. Darauf aufbauend wird eine gezielte Überprüfung des Gebäudemodells mit Hilfe von bauphysikalischen Nachweisen und Simulationen durchgeführt, um eine bauphysikalische Entscheidungsunterstützung im Entwurfsprozeß vornehmen zu können. Das erarbeitete Programmsystem VAMOS (Verteilte Applikation zur Modellierung und Optimierung bauphysikalischer Systeme) nutzt die Middleware-Technologie CORBA konsequent für die dynamische, netzwerkweite Integration fünf verschiedener aufgabenspezifischer Komponenten: Die erste Komponente zur Modellerzeugung und -manipulation wurde auf Basis des CAD-Systems AutoCAD als ARX-Laufzeitmodul erstellt. Dadurch ist es einerseits möglich, bestehende Planungsabläufe unter Verwendung von Standardwerkzeugen des entwerfenden Ingenieurs zu erhalten, andererseits können die umfangreichen Fähigkeiten des AutoCAD-Geometriekerns für die Erstellung komplexer dreidimensionaler Bauteilgeometrien genutzt werden. In der zweiten Komponenten wurde eine objektorientiertes Datenbanksystem in das Gesamtsystem integriert, das auch für die Verwaltung verschiedener Versionen von Gebäudeentwürfen verwendet wird. Die bauphysikalischen Nachweise, die auf Basis der zentral im Netzwerk bereitgestellten Modelle automatisiert durchgeführt werden können, wurden auf Basis der Java-Applet-Technologie abgebildet, um die zentrale Wartbarkeit und Anpassbarkeit an Veränderungen der Vorschriften und Gesetzesgrundlagen zu ermöglichen. Dabei wurden sowohl die aktuelle Wärmeschutzverordnung (WSVO) als auch die Energieeinsparverordnung (EnEV) berücksichtigt. Für die ganzheitliche Erfassung des Gebäudeenergiehaushaltes wurde das Simulationsprogramm TRNSYS um ein Schnittstellenmodul unter Verwendung von IDL-Interfaces erweitert, so daß die direkte Integration der umfangreichen Funktionalitäten in das Gesamtsystem möglich wird. Um die Modellierung auf der Basis von realistischen Parametern durchführen zu können, wurde eine Komponente entwickelt, die unter Verwendung der Technologie mobiler Internet-Agenten die dynamische Recherche von herstellerspezifischen Parametern im Internet ermöglicht.
Bei komplexen Gründungskonstruktionen sind Planungsfehler durch eine konsistente Modellierung vermeidbar. Manuelle Berechnungsmethoden ermöglichen im allgemeinen ein dreidimensionales Vorgehen nicht. Numerische Berechnungsmethoden, wie z.B. die Finite-Element-Methode, sind ein optimales Werkzeug zur ganzheitlichen Simulation des Problems. Die für die Finite-Element-Analyse notwendige Diskretisierung komplexer Bau- grundstrukturen ist manuell nicht zu bewältigen. Der vorliegende Beitrag zeigt wie ein Finite-Element-Modell automatisch aus einem geotechnischen Modell unter Berücksichtigung der spezifischen Anforderungen der Baugrund-Tragwerk-Struktur und des Bauablaufes erzeugt werden kann. Hierbei wird die Berücksichtigung der geometrischen und der mechanischen Besonderheiten bei der Netzgenerierung dargestellt.
Die Entwicklung von Projekten des Hoch- und Industriebaus ist durch eine Vielzahl von zu verarbeitenden Informationen und Bewertungsgrundlagen in den Planungsphasen der Bau-land- sowie der Hoch- und Industriebauentwicklung für die Kostenkalkulation geprägt. Die Identifizierung, Beschaffung, Verwaltung und Verarbeitung dieser nach Art, Form und Inhalt bei den Kommunikationspartnern verteilt vorliegenden Informationen führt zu komplexen Planungsprozessen. Zur Bewältigung dieser Komplexität ist die Bauprojektentwicklung kooperativ in vernetzten Systemen durchzuführen. Insbesondere kann die Kostenkalkulation auf Basis der sich zeitlich verändernden Fachinformation im Netz effizient, zeitnah und mit hoher Qualität durchgeführt werden. Die bisher eingesetzten Methoden und Verfahren unterstützen die Projektplaner bei der Datenerfassung und -verarbeitung der kostenrelevanten Informationen nur in lokalen Computernetzen. Die Erfassung von Kosteninformationen, wie zum Beispiel Kostenschätzungen zur Planung von Projekten oder die im Laufe der Projektentwicklung entstehenden Kosten, liegen jedoch verteilt bei den Projektpartnern vor. Es ist daher notwendig, zur Vermeidung von Erfassungs-fehlern und zur Steigerung der Kooperation der Projektpartner bei der wirtschaftlichen Kalkulation von Bauprojekten, den Projektpartnern eine rechnergestützte und projektweite Kalkulation unter Nutzung von Computernetzwerken zu ermöglichen. Die Autoren stellen ein agenten-basiertes Kooperationsmodell für die Kosten-Kalkulation in Rahmen der Bauprojektentwicklung in vernetzten Systemen vor, das durch Strukturierung der Planungsinformationen die selbständige Suche nach klar definierten Informationen auf Basis mobiler Internet-Agenten dynamisch-adaptiv unterstützt.
The method of difference potentials can be used to solve discrete elliptic boundary value problems, where all derivatives are approximated by finite differences. Considering the classical potential theory, an integral equation on the boundary will be investigated, which is solved approximately by the help of a quadrature formula. The advantage of the discrete method consists in the establishment of a linear equation system on the boundary, which can be immediately solved on the computer. The described method of difference potentials is based on the discrete Laplace equation in the three-dimensional case. In the first step the integral representation of the discrete fundamental solution is presented and the convergence behaviour with respect to the continuous fundamental solution is discussed. Because the method can be used to solve boundary value problems in interior as well as in exterior domains, it is necessary to explain some geometrical aspects in relation with the discrete domain and the double-layer boundary. A discrete analogue of the integral representation for functions in will be presented. The main result consists in splitting the difference potential on the boundary into a discrete single- and double-layer potential, respectively. The discrete potentials are used to establish and solve a linear equation system on the boundary. The actual form of this equation systems and the conditions for solvability are presented for Dirichlet and Neumann problems in interior as well as in exterior domains
Die nach dem kumulativen Verfahren verfasste Habilitationsschrift fasst in 3 Kapiteln wissenschaftliche Beiträge des Autors aus den Jahren 1995 – 1999 zusammen. Kapitel 1 befasst sich mit Fragen einer Integration von Aspekten des energiesparenden, ressourcenschonenden und gesundheitsgerechten Bauens in die Prozesse der Planung und Entscheidungsfindung. Dargestellt werden u.a. die methodischen Grundlagen für die Ermittlung und Bewertung des Energie- und Stoffstromes während des Lebenszyklusses von Bauwerken, eine Systematik energiebezogener Grenz- und Zielwerte sowie eine Analyse verfügbarer Planungs- und Bewertungshilfsmittel. Im Kapitel 2 wird ein System zur Sicherung der Qualität bei der Planung und Errichtung von Niedrigenergiehäusern vorgestellt sowie dessen Wechselwirkung mit Energieausweisen und Gebäudepässen diskutiert. Kapitel 3 analysiert Unterschiede und Gemeinsamkeiten einer ökologischen Bewertung von Standort, Unternehmen, Prozess und Produkt.