Refine
Document Type
- Master's Thesis (46)
- Part of a Book (17)
- Conference Proceeding (12)
- Doctoral Thesis (12)
- Article (9)
- Diploma Thesis (4)
- Report (3)
- Book (2)
- Preprint (1)
Institute
- Professur Baubetrieb und Bauverfahren (21)
- Professur Medienphilosophie (15)
- Professur Grundbau (8)
- Institut für Strukturmechanik (ISM) (6)
- Professur Verkehrsplanung und Verkehrstechnik (6)
- Professur Baumechanik (5)
- Professur Bodenmechanik (5)
- Professur Stahlbau (5)
- Professur Geschichte und Theorie künstlicher Welten (4)
- Professur Siedlungswasserwirtschaft (4)
Keywords
- 2005 (16)
- Medien (16)
- Archiv für Mediengeschichte (15)
- Geisteswissenschaften (15)
- Kulturphilosophie (14)
- Arbeitsschutz (13)
- Baustelle (11)
- Angewandte Mathematik (6)
- Baubetriebslehre (6)
- Strukturmechanik (6)
Year of publication
- 2005 (106) (remove)
50 Jahre Dissertationen an der Hochschule für Architektur und Bauwesen und der Bauhaus-Universität
(2005)
Diese Veröffentlichung dokumentiert über einen Zeitraum von 50 Jahren die an unserer Hochschule entstandenen Dissertationen, deren Zahl sich auf 1100 beläuft. Damit werden ein wichtiger Teil der Hochschulgeschichte Weimars und zugleich ein Teil der Hochschulgeschichte der DDR aufgearbeitet. Die Bibliographie liefert Bausteine für eine Geschichte der Disziplinen und Fakultäten an der Weimarer Hochschule und darüber hinaus für eine Sozialgeschichte der Wissenschaftler in Thüringen. So hat z. B. eine Vielzahl der heute in leitender Stellung an der Universität Tätigen – sowohl Professoren als auch Mitarbeiter der Universitätsverwaltung – in Weimar promoviert. Das lässt sich auch ausdehnen auf Personen in führenden wissenschaftlichen, politischen oder wirtschaftlichen Positionen in der Region oder im Ort. Hier könnte die vorliegende Bibliographie Anstoß für weitere Forschungen geben.
Die 10. Ausgabe der Schriftenreihe der Professur Baubetrieb und Bauverfahren ist dem 50-jährigen Bestehen der Professur an der Fakultät Bauingenieurwesen gewidmet. Neben einem historischen Überblick werden aus den letzten fünf Jahren 2000 bis 2005 beschrieben: - Lehrbetrieb, - Juniorprofessur >Theoretische Methoden des Projektmanagements<, - Forschungsergebnisse und -vorhaben, - Centrum für intelligentes Bauen - CIB.Weimar, - Promotionsvorhaben, - Öffentlichkeitsarbeit, - ausewählte Aktivitäten geselligen Beisammenseins, - Personalentwicklung.
Im Rahmen dieser Arbeit wurde der Energieeintrag beim Laserstrahl-schweißen untersucht. Das verwendete Material ist ein Stahl der Sorte S355 J2G3. Für das FE-Programm SYSWELD sind verschiedene Wärmequellen entwickelt, erprobt und über Temperaturfelder mit einander verglichen wurden. Dabei kamen unterschiedliche Netz-varianten zum Einsatz. Der Energieeintrag wurde abzüglich der Verluste die beim Laserstrahlschweißen entstehen betrachtet, dabei sind die Verluste aus Transmission, Reflexion und Metalldampf separat betrachtet wurden. Es wurden auch Materialparameter wie: Verdampfungsenthalpie, spezifische Wärmekapazität sowie Wärmeleit-fähigkeit analysiert. Die Ergebnisse zur Anpassung des Energieeintrages waren im Gegensatz zu den Materialparametern noch ausbaufähig.
Die Finite-Elemente-Methode entwickelte sich in den letzten beiden Jahrzehnten zu einem wichtigen und mächtigen Werkzeug für Berechnungen im Ingenieurwesen. Waren zu Beginn dieser Entwicklung nur kleine Probleme lösbar, sind mit der heutigen Rechentechnik Systeme mit vielen Tausend Freiheitsgraden berechenbar. Durch diese Entwicklung werden Berechnungen von sehr komplizierten Strukturen möglich. Besonders in der Automobilindustrie kann mit einem solchen Verfahren die Konstruktion von Strukturen verbessert und optimiert werden. Um gute Ergebnisse bei den Berechnungen erzielen zu können müssen Programme entwickelt werden, die entsprechende mathematische Methoden enthalten. Besonders im Maschinenbau, aber auch in anderen Ingenieurbereichen wie dem Bauwesen, werden häufig gekrümmte dünne Schalenstrukturen untersucht. Eine effiziente und logische Konsequenz daraus ist die Nutzung von Schalenelementen innerhalb der FE-Berechnungen. Wird nun noch Wert auf eine realitätsnahe Modellierung gelegt, dann lässt es sich oft nicht vermeiden von der im Bauwesen üblichen Theorie erster Ordnung in eine nichtlineare Berechnungstheorie zu wechseln. Hierfür sind Methoden notwendig, die es vermögen diese Theorie abzubilden. Sollen Schalenstrukturen mit großen Verschiebungen betrachtet werden, ist es notwendig, die linearen Elementformulierungen um die nichtlinearen Ansätze der Strukturmechanik zu erweitern. Die Grundlage dieser Formulierung stellt oft die Lagrange'sche Betrachtungsweise dar, die Berechnungen an Strukturen mit großen Verformungen zulässt. Die Inhalte dieser Formulierung werden in Abschnitt 1.5 dieser Arbeit betrachtet. Räumlich veränderlichen Strukturen, also solche mit großen Verformungen, sind im Allgemeinen mit großen Rotationen verknüpft. Diese Rotationen werden bei Volumenelementen durch die unterschiedliche Verschiebung zweier benachbarter Elementknoten realisiert. Bei der Formulierung von dünnen Schalenelementen wird hingegen die Struktur als gekrümmte Raumfläche betrachtet. Da in Dickenrichtung nur ein Elementknoten zur Verfügung steht, muss die Rotation über eine andere Formulierung in die Berechnung einfließen. Ansätze zu allgemeinen großen Rotationen werden im Kapitel 2 betrachtet und für den Einsatz in einer Elementformulierung vorbereitet. Für die beschriebenen Schalenstrukturen werden häufig vierknotige Elemente genutzt, da mit ihnen Strukturen in einfacher Weise abgebildet werden können. Ein weiterer Vorteil besteht in der sich ergebenden geringen Bandbreite der Elementmatrizen. Diese Elementgruppe besitzt jedoch bei der klassischen isoparametrischen Formulierung einen großen Nachteil, der in der Erzeugung von parasitären Steifigkeitsanteilen besteht. Um dieses Sperrverhalten, was auch als 'Locking' bekannt ist, zu minimieren wurden in der Vergangenheit verschiedene Ansätze entwickelt. Ein sehr effizienter Ansatz zur Minimierung des Transversalschublockings bei bilinearen Schalenelementen stellt das Verfahren der veränderten Verzerrungsverläufe auf Elementebene dar. Dieses Verfahren wird vielfach in der Literatur aufgegriffen und als 'Assumed-Natural-Strain'-Ansatz oder als 'Mixed Interpolation of Tensorial Components' bezeichnet. Dieses Verfahren wird im Abschnitt 1.6 vorgestellt. Das Programmsystem SLang ermöglicht eine Berechnung von Strukturen mittels der Finite-Elemente-Methode. Um mit diesem Programm auch nichtlineare Probleme an Schalentragwerken berechnen zu können, wird im Rahmen dieser Diplomarbeit ein vierknotiges nichtlineares Schalenelement implementiert, das die genannten Ansätze für große Verformungen und finite Rotationen enthält. Für die Vermeidung von Transversalschublocking wird ein ANS-Ansatz in die Formulierung integriert. Das Kapitel 3 beschreibt die Formulierung dieses SHELL4N-Elementes. Dort werden die Elementmatrizen und deren Aufbau ausführlich dargestellt. Einige numerische Berechnungsbeispiele mit diesem neuen Element werden zur Evaluierung im Kapitel 4 dieser Arbeit dargestellt.
In dieser Arbeit wird eine umfassende Untersuchung der raumakustischen Qualität der Schlosskapelle des Weimarer Residenzschlosses für den Zustand, wie sie zwischen 1658 und 1774 existierte, durchgeführt. Die Schlosskapelle als sakraler Raum innerhalb der Schlossanlage diente der Ausübung religiöser Handlungen und war fester Bestandteil des kulturellen Lebens am Weimarer Hof. Eine wesentliche Bedeutung erlangte sie in diesem Zusammenhang als musikalische Wirkungsstätte Johann Sebastian Bachs. Mit ihrer akustischen Qualität hatte sie einen erheblichen Einfluss auf sein musikalisches Schaffen. Die Untersuchung der raumakustischen Situation stellt damit eine notwendige Grundlage für eine musikwissenschaftliche Einordnung der Schlosskapelle als Aufführungsstätte geistlicher Kompositionen dar. Der raumakustische Zustand der Weimarer Schlosskapelle ist eng mit der baulichen Entwicklung der gesamten Schlossanlage verbunden, die infolge äußerer Einflüsse einem steten Wandel unterlag. Die Umgestaltung der Schlosskapelle zu Beginn des 17. Jahrhunderts erfolgte nach barocken Raumvorstellungen. Einen wesentlichen Einfluss auf die Gestaltung des Innenraumes übte zudem die reformierte Kirche mit ihren liturgischen Anforderungen aus. Die historische Entwicklung der architektonischen Stilepoche sowie der protestantischen Kirche wird in Bezug zu dem akustischen Erscheinungsbild der Schlosskapelle näher untersucht. Ausgehend von der architektonischen Rekonstruktion wird die Raumstruktur der historischen Schlosskapelle in ein Computermodell übertragen, mit dem die Berechnung akustischer Bewertungskriterien möglich ist. Eine ausgiebige Recherche nach verwendeten Materialien und der Ausbildung baulicher Konstruktionen ist dabei die Grundvoraussetzung für aussagekräftige Simulationsergebnisse. Die Wahl der Materialparameter sowie der Einfluss der geometrischen Besonderheiten der Weimarer Schlosskapelle auf die simulierten Schallfeldparameter werden durch die Untersuchung eines Referenzobjektes verifiziert. Dafür werden die akustischen Bewertungskriterien mit einer raumakustischen Messung ermittelt und mit Simulationsergebnissen verglichen. Ein besonderes Interesse bei der Simulation der Schlosskapelle gilt der Nachhallzeit als Charakteristikum der Halligkeit, die in sakralen Gebäuden die auffälligste akustische Raumeigenschaft darstellt. Mit der rekonstruierten Nachhallzeit wird die Schlosskapelle mit barocken Kirchen verglichen und bezüglich ihrer Lage im baustiltypischen Bereich beurteilt. Der Direktschall und die im zeitig folgenden Reflexionen sind bei der raumakustischen Simulation maßgeblicher Gegenstand der Betrachtung. Während der Nachhall das Verschmelzen einzelner Töne zu einem Gesamtklang fördert, ist der Direktschall für die Deutlichkeit von Sprache und der klanglichen Durchsichtigkeit von musikalischen Strukturen verantwortlich. Der Einfluss des Direktschalls wird mit speziellen Energiekriterien beurteilt, mit denen gezielte Aussagen über die akustische Qualität einzelner Platzbereiche möglich sind. Die unterschiedlichen akustischen Anforderungen an die Schlosskapelle bei der jeweiligen Nutzung des Raumes werden mit den Energiekriterien differenziert untersucht und bewertet.
Für die weitgehende Nutzung der enthaltenen Nährstoffe in häuslichem Abwasser und die Realisierung des Kreislaufgedankens auch in kommunalen Abwassersystemen ist eine Trennung der Abwasserströme, wie sie vielfach bereist in der industriellen Produktion eingesetzt wird, Vorrausetzung. Die getrennte Erfassung und Sammlung sowie die Nutzung bzw. Behandlung der einzelnen Teilströme weicht von den üblichen Verfahren der bisher praktizierten end-of-pipe-Systeme ab und es gilt nach alternativen Verfahrensmöglichkeiten zu suchen, um die Ziele eines teilstromorientierten Abwasserkonzeptes zu verwirklichen. Im Rahmen dieser Arbeit wird ein anaerobes mesophiles Behandlungsverfahren für den Teilstrom Braunwasser untersucht. Zu diesem Zweck wurden verschieden Versuche mit Faeces mit unterschiedlichen Wassergehalten und in unterschiedlichen Mischungen von Einsatz des Rohsubstrates bis hin zur Zugabe von Urin, Wasser und/oder Impfschlamm untersucht. Während der Versuche in temperierten Reaktoren fand eine Aufzeichnung der Gaserträge der einzelnen Ansätze, der pH-Werte in ausgewählten Ansätzen, der Raumtemperatur und der Substrattemperatur im Reaktor statt. Diese verschiedenen Ansätze sind anhand ihrer Zusammensetzung dargestellt und in den gewonnenen Ergebnissen untereinander und mit denen in der Startliteratur angegebenen Werten verglichen und bewertet. Ziel der anaeroben Behandlung war es, ein stabilisiertes Substrat aus der anaeroben Stufe zu erhalten. Aus den gewonnenen Ergebnissen wird ein Verfahrensvorschlag für eine anaerobe Stabilisierung gemacht.
Dieser Beitrag versucht, einige Aspekte der individuellen Lebensentwicklung mit den Möglichkeiten wirksamen Arbeitsschutzes zu verknüpfen. Er wirt damit die Frage auf, ob und wie die Sensibilisierung für Sicherheit und Gesundheitsschutz, für vorbeugende Maßnahmen und für die Akzeptanz bei den Betroffenen verbessert werden kann. Was hat Arbeitsschutz mit dem Lebensalter zu tun? Verhalten sich Routiniers im Bauwesen anders als Berufanfänger?
The paper analyses the application of 3D gaming technologies in the simulation of processes associated with human resources and machinery on construction sites in order to determine process costs. It addresses the problem of detailing in process simulation. The authors outline special boundary conditions for the simulation of cost-relevant resource processes on virtual construction sites. The approach considers different needs for detailing in process simulation during the planning and building phase. For simulation of process costs on a construction site (contractors view) the level of detail has to be set to high. A prototype for determination of process durations (and hereby process costs) developed at the Bauhaus University Weimar is presented as a result of ongoing researches on detailing in process simulation. It shows the method of process cost determination on a high level of detail (game between excavator and truck) through interaction with the virtual environment of the site.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
Zur Tragwerksanalyse bzw. zu Tragfähigkeits- und Bemessungsaufgaben dienen Betrachtungen an ausgewählten Querschnitten der Tragelemente. Besonders interessieren Normalspannungs- und Dehnungsverteilungen sowie Grenzbeanspruchungsniveaus und Grenzkapazitäten am Querschnitt. Die statische Wirksamkeit von Verbundquerschnitten basiert auf Verbundwirkung zwischen Querschnittsanteilen unterschiedlicher Materialeigenschaften (z.B. Verbundbau) oder unterschiedlicher Zeitpunkte ihrer statischen Mitwirkung (z.B. nachträgliche Querschnittsergänzungen). Hierbei kommt es häufig zu Fehlinterpretationen des prinzipiellen Tragverhaltens. In der vorliegenden Arbeit werden numerische Berechnungsmodelle zur Querschnittsanalyse vorgestellt und das Tabellenkalkulationsprogramm MS EXCEL zur Lösung der iterativen Berechnungsalgorithmen genutzt. Betrachtet werden Querschnitte üblicher Konstruktionen des Massiv-, Stahl- und Verbundbaus (Baustahl-Beton) unter ein- oder zweiachsiger Biegebeanspruchung und Normalkraft. Zur annähernden Erfassung des realen Tragverhaltens zu ausgewählten Zeitpunkten sind nichtlineare Spannungs-Dehnungs-Beziehungen der Materialien, Vordeformationen von einzelnen Querschnittsanteilen, nachträgliche Ergänzungen zu neuen statisch wirksamen Verbundquerschnitten sowie Rissbildungsmodelle im Beton berücksichtigt. Die im Rahmen dieser Arbeit entstandene programmtechnische Umsetzung „VerbQ“ (auf Basis von MS EXCEL und MS VISUAL BASIC) wurde anhand von Beispielrechnungen vorgestellt und erläutert.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
Norbert Wieners >Cybernetics> von 1948 geht aus von einem Vergleich zählender, durchmusternder Astronomie mit der neuen, statistikbasierten Meteorologie. Das Buch beginnt mit der ersten Strophe von >Weißt du vieviel Sternlein stehen<. ... Dieses Liedchen ist ein interessantes Thema für die Philosophie und die Geschichte der Wissenschaft, indem es zwei Wissenschaften nebeneinander stellt, die einerseits sich beide mit der Beobachtung des Himmels über uns beschäftigen, andererseits aber beinahe in jeder Beziehung höchst gegensätzlich sind. Die Astronomie ist die älteste der Wissenschaften, während die Meteorologie zu den jüngsten zählt, die erst anfangen, den Namen zu verdienen. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
Among all imaging techniques that have been invented throughout the last decades, computer graphics is one of the most successful tools today. Many areas in science, entertainment, education, and engineering would be unimaginable without the aid of 2D or 3D computer graphics. The reason for this success story might be its interactivity, which is an important property that is still not provided efficiently by competing technologies – such as holography. While optical holography and digital holography are limited to presenting a non-interactive content, electroholography or computer generated holograms (CGH) facilitate the computer-based generation and display of holograms at interactive rates [2,3,29,30]. Holographic fringes can be computed by either rendering multiple perspective images, then combining them into a stereogram [4], or simulating the optical interference and calculating the interference pattern [5]. Once computed, such a system dynamically visualizes the fringes with a holographic display. Since creating an electrohologram requires processing, transmitting, and storing a massive amount of data, today’s computer technology still sets the limits for electroholography. To overcome some of these performance issues, advanced reduction and compression methods have been developed that create truly interactive electroholograms. Unfortunately, most of these holograms are relatively small, low resolution, and cover only a small color spectrum. However, recent advances in consumer graphics hardware may reveal potential acceleration possibilities that can overcome these limitations [6]. In parallel to the development of computer graphics and despite their non-interactivity, optical and digital holography have created new fields, including interferometry, copy protection, data storage, holographic optical elements, and display holograms. Especially display holography has conquered several application domains. Museum exhibits often use optical holograms because they can present 3D objects with almost no loss in visual quality. In contrast to most stereoscopic or autostereoscopic graphics displays, holographic images can provide all depth cues—perspective, binocular disparity, motion parallax, convergence, and accommodation—and theoretically can be viewed simultaneously from an unlimited number of positions. Displaying artifacts virtually removes the need to build physical replicas of the original objects. In addition, optical holograms can be used to make engineering, medical, dental, archaeological, and other recordings—for teaching, training, experimentation and documentation. Archaeologists, for example, use optical holograms to archive and investigate ancient artifacts [7,8]. Scientists can use hologram copies to perform their research without having access to the original artifacts or settling for inaccurate replicas. Optical holograms can store a massive amount of information on a thin holographic emulsion. This technology can record and reconstruct a 3D scene with almost no loss in quality. Natural color holographic silver halide emulsion with grain sizes of 8nm is today’s state-of-the-art [14]. Today, computer graphics and raster displays offer a megapixel resolution and the interactive rendering of megabytes of data. Optical holograms, however, provide a terapixel resolution and are able to present an information content in the range of terabytes in real-time. Both are dimensions that will not be reached by computer graphics and conventional displays within the next years – even if Moore’s law proves to hold in future. Obviously, one has to make a decision between interactivity and quality when choosing a display technology for a particular application. While some applications require high visual realism and real-time presentation (that cannot be provided by computer graphics), others depend on user interaction (which is not possible with optical and digital holograms). Consequently, holography and computer graphics are being used as tools to solve individual research, engineering, and presentation problems within several domains. Up until today, however, these tools have been applied separately. The intention of the project which is summarized in this chapter is to combine both technologies to create a powerful tool for science, industry and education. This has been referred to as HoloGraphics. Several possibilities have been investigated that allow merging computer generated graphics and holograms [1]. The goal is to combine the advantages of conventional holograms (i.e. extremely high visual quality and realism, support for all depth queues and for multiple observers at no computational cost, space efficiency, etc.) with the advantages of today’s computer graphics capabilities (i.e. interactivity, real-time rendering, simulation and animation, stereoscopic and autostereoscopic presentation, etc.). The results of these investigations are presented in this chapter.
>The dust and smoke of continents in flame will defeat the light of the sun, and utter darkness will reign anew upon the world. [...] Eternal snows will cover the Sahara desert; the vast rain forests of the Amazon, destroyed by hail, will disappear from the face of the planet, and the age of rock and heart transplant will revert to ist glacial infancy.< Diese eindringliche Beschreibung der Folgen eines nukearen Schlagabtausches stammt aus einer Rede, die der Literaturnobelpreisträger Gabriel García Márquez am 6. August 1986, dem Jahrestag der Bombardierung Hiroshimas, vor einer Versammlung von Politikern, Intellektuellen und Umweltaktivisten gehalten hat. Die hier so dramatisch geschilderte Vorstellung, einem Atomkrieg würde eine neue Eiszeit, ein so genannter 'nuklearer Winter' folgen, war erst drei Jahre zuvor von einer Gruppe von Wissenschaftlern um den Klimaforscher Richard Turco und dem Astronomen Carl Sagan der Öffentlichkeit vorgestellt worden. ...
We present a museum guidance system called PhoneGuide that uses widespread camera equipped mobile phones for on-device object recognition in combination with pervasive tracking. It provides additional location- and object-aware multimedia content to museum visitors, and is scalable to cover a large number of museum objects.
Bei der Bearbeitung geotechnischer Aufgabenstellungen treten häufig Probleme bei der Vorhersage des Setzungsverhaltens von Böden auf. Numerische Methoden auf Basis finiter Elemente oder finiter Differenzen werden oftmals als Hauptinstrumente der Prognose verwendet. Dabei erzielen sie jedoch nicht selten Ergebnisse, die im Nachhinein als unbefriedigend bezeichnet werden müssen. Eine Begründung dafür liegt in der Verwendung linearer Stoffgesetze, die auf Ansätze aus der Elastizitätstheorie beruhen. Werden höherwertige Stoffgesetze eingesetzt, so fehlen oftmals gesicherte Aussagen zu den erforderlichen Bodenkennwerten. Diese müssen durch ein umfangreiches Versuchsprogramm mit einer aufwendigen Auswertung bestimmt werden. Ziel dieser Arbeit ist es daher, eine robuste Methode zu entwickeln, die in der Lage ist, aus Messwerten (Feld) und Versuchsergebnissen (Labor) geeignete Parameter für Modelle mit nichtlinearer Konsolidationstheorie zu ermitteln. Dazu werden die Möglichkeiten der Mathematik ausgenutzt, welche inverse Methoden zur Verfügung stellt, mit denen man mehrere Bodenkennwerte (hauptsächlich Steifigkeiten und Durchlässigkeiten) gleichzeitig unter Be-rücksichtung ihrer Wechselbeziehungen zueinander bestimmen kann. Als Instrumentarium dafür steht das Programm AdConsol-1D zur Verfügung, welches die inverse Parameterermittlung auf Basis mathematischer Optimierungsmethode ermöglicht. Ein Test- und Versuchsdamm, der im Finnischen Haarajoki (Haarajoki Test Embankment) errichtet wurde und über längeren Zeitraum messtechnisch überwacht wurde, dient als Validationsbeispiel. Dieser wurde auf sehr verformungsempfindlichem Boden errichtet. Durch Aufbereitung und Auswertung der Feld- und Laborversuche am Haarajoki Test Embankment wurden die Grundlagen für die inverse Parameterermittlung geschaffen. Dazu wurde eine Methode zur Konstruktion plausib-ler Porenwasserüberdrücke aus Setzungsmessungen und Laborversuchsdaten entwickelt. Mit den Werten der Optimierung wurde ein Modell im 2D FEM Programm Plaxis erstellt, welches die in Haarajoki gemessenen Setzungen und Porenwasserdrücke möglichst genau reproduzieren sollte. Es zeigte sich, dass sich Bodenparameter des eindimensionalen nichtlinearen Konsolidati-onsmodells nicht problemlos auf ein 2D FEM Modell übertragen lassen. Insbesondere fehlen gesicherte Aussagen über die Größe des horizontalen Durchlässigkeitskoeffizienten kx und des Referenzsekantenmoduls E50Ref aus dem Triaxialversuch. Die inverse Berechnung für sich betrachtet verlief dahingegen zufrieden stellend mit dem eindimensionalen Modell in AdConsol-1D. Auf dieser Grundlage ist die Erstellung einer realistischen Prognose des weiteren Konsolidationsverlaufes am Haarajoki Test Embankment möglich.
Eignet sich das perspektivische System zur Repräsentation von Phänomenen, die die gewohnten Maße der menschlichen Ordnung sprengen? Anders gesagt: Bieten göttliche Handlungen, die diese Welt auf das Jenseits hin öffnen, und allgemeiner mystische - oder sogar nur physische - Begegnungen zwischen Himmel und Erde, bieten sie Stoff zur Repräsentation? ...
In Deutschland hat sich das vollautomatische Bauen bisher vergleichsweise bescheiden entwickelt. Ein hoher Automatisierungsgrad ist dagegen seit Jahren bei den stationären Mischanlagen von Baustoffen, wie Beton und Asphalt sowie in der Serienfertigung standardisierter Betonwaren zu finden. Jedoch fehlen in Deutschland die Voraussetzungen, um grundlegend neu konzipierte, flexibel automatisierte oder roboterisierte Maschinen und Systeme zu entwickeln und einzusetzen. Zur Schaffung dieser Voraussetzungen soll die vorliegende Arbeit einen Beitrag leisten. Sie betrachtet ausschließlich die Skelettbauweise. Diese stellt ein Teilgebiet des Betonfertigteilbaus dar. Da eine Automatisierungslösung grundsätzlich erst bei großen Objekten mit einer hohen Wiederholungsrate der Prozesse und Elemente wirtschaftlich ist, wird die Montage eines Mehrzweckkomplexes untersucht. Die Tragstruktur dieses Gebäudes setzt sich, charakteristisch für die Skelettbauweise, aus Stützen und Bindern zusammen. Dabei werden im Hinblick auf die Aufgabenstellung dem herkömmlichen Montageablauf die Besonderheiten und bautechnischen Voraussetzungen einer automatisierten Montage hinzugefügt. Es wird eingrenzend speziell die Montage einer Fertigteilstütze und eines Unterzuges aufgezeigt. Nach einem einleitenden Kapitel sind in Kapitel 2 die Grundlagen der Automatisierung dargestellt. Darin werden die Gründe für eine Automatisierung und deren theoretischen Vorraussetzungen beleuchtet. Vornehmlich umfasst dies die Erläuterung der Anforderungen an Automatisierungsgeräte und automatisierungsgerechte Fertigteile. Im sich anschließenden Kapitel 3 werden die Vorraussetzungen der Planung, der Vermessung und der Herstellung umfassend dargelegt. Die Planungs-voraussetzungen beschreiben den ganzheitlichen Lösungsansatz von Entwurf, Planung, Herstellung, Ausführung (Montage) und Betrieb der Gebäude. Die verschiedenen Technologien zur Positionsbestimmung, Identifikation und Objektverfolgung werden in den vermessungstechnischen Grundlagen erläutern. Um alle Bereiche, die vor dem Beginn der eigentlichen Montage notwendig sind zu beleuchten wird schließlich in den herstellerseitigen Vorraussetzungen insbesondere beschrieben, welche optischen Markierungen, Sensoren und andere Hilfsmittel in die Fertigteile zu integrieren sind. Das Kapitel 4 beschreibt detailliert die beispielhafte Montage der Fertigteilstütze und des -unterzuges. Ergänzend sind in die einzelnen Schritten der Montage selbst entwickelte Varianten integriert. Als Grundlage werden zu jedem Prozess Gemeinsamkeiten aller Varianten aufgeführt. Daran schließen sich nach Bedarf individuelle Erläuterungen an. Die Varianten sind aus Überlegungen des Autors und aus den Konsultationen mit dem betreuenden Lehrstuhl entwickelt worden. Sie werden in diesem Teil der Arbeit detailliert beschrieben und ihre Eigenarten und Verwendungszwecke erläutert. Im Ganzen gesehen ergibt dieses Kapitel eine komplette Montage mit verschiedenen Möglichkeiten die einzelnen Schritte auszuführen. Im Kapitel 5 werden zu den jeweiligen Varianten die Vor- und Nachteile knapp und übersichtlich dargestellt. Aus welchen Gründen eine Variante weiterverfolgt werden sollte oder sie nicht umsetzbar ist, ist in einem sich jeweils anschließenden kurzen Fazit begründet. Anschließend wird unter teilweiser Verwendung der Varianten eine Vorzugsvariante zur automatisierten Montage entwickelt. Auf detailliertere Ausführungen wurde hier verzichtet um sich nicht zu wiederholen und Redundanzen zu vermeiden. Ausführlich wurden die einzelnen verwendeten Varianten bereits im Kapitel 4 beschrieben. Das Kapitel 6 untersucht die wirtschaftlichen Potentiale einer automatisierten Fertigteilmontage und stellt die Kosten einer automatisierten Montage, denen einer herkömmlichen Montage gegenüber. Dabei wurden verschiedene Annahmen getroffen, die aus den Ergebnissen der vorliegenden Arbeit, den Ergebnissen der Diplomarbeit von Frau Lauterbach und weiteren Literaturrecherchen abgeleitet wurden. Kapital 7 fasst die Ergebnisse der Arbeit zusammen und gibt Hinweise auf notwendige weiterführende Forschungen und Untersuchungen.
Ziel dieser Diplomarbeit war es unter Verwendung von Messwerten und mathematischen Grundlagen eine Ermittlung der Tragfähigkeit vorhandener Straßenkonstruktionen. Ausgangspunkt waren Messungen auf zwei verschiedenen Strecken (L 2141 Andisleben-Dachwig, L1042 Gierstedt-Kleinfahner). Die Messungen wurden jeweils mit dem Benkelmannbalken und dem Falling-Weight-Deflectometer vorgenommen. Beide Verfahren unterscheiden sich durch die Art der Lateintragung. Die Lasteintragung erfolgt mit dem Benkelmannbalken statisch und mit dem Falling-Weight-Deflectometer dynamisch. Daraus folgt, dass die aus den Einsenkungswerten ermittelten E-Module mittels Benkelmannbalken statische E-Module und mittels Falling-Weight-Deflectometer. dynamische E-Module sind. Der E-Modul einer Schicht ist ein Maß für den Verformungswiderstand einer Straßenkonstruktion. Jede Straßenkonstruktion weist ein kompliziertes Verformungsverhalten auf. Betonstraßen besitzen in der Regel größere E-Module als Asphaltstraßen, die sich aber viskoelastisch und viskoplastisch verformen können. Der E-Modul einer Schicht ist auch von der jeweiligen Schichthöhe abhängig. Grundsätzlich gilt, je mehr Einsenkungswerte von einer Straßenkonstruktion zur Verfügung stehen, desto genauer fallen die Beurteilungen hinsichtlich ihrer Tragfähigkeit aus. Die mathematische Ermittlung der Tragfähigkeit einer Straßenkonstruktion erfolgt über die Festlegung eines mathematischen Modells. Es wurden verschiedene Modelle untersucht. Das einfachste Modell zur Beschreibung einer Straßenkonstruktion ist der elastisch- isotrope Halbraum, wobei der gesamte Straßenkörper durch einen einzigen E-Modul beschrieben wird. Eine wesentlich exaktere Beschreibung einer Straßenkonstruktion ist das Zweischichtensystem. In diesem System wird der bituminöse Aufbau mit der Schichtdicke h und dem E-Modul E1 gekennzeichnet und die Unterlage (Frostschutzschicht und Untergrund zusammengefasst) mit dem E-Modul E2 beschrieben. Das Zweischichtensystem hat den Vorteil, dass ein erkennbarer E-Modul Sprung zwischen der gebundenen Schicht (E1) und der ungebundnen Schicht (E2) entsteht. Ein drei oder mehrschichtiges System hier anzuwenden ist sehr schwierig, da dieses nicht eindeutig bestimmt ist. Das Zweischichtensystem ist eindeutig bestimmt und liefert genügend gute Ergebnisse, um die Tragfähigkeit zu beschreiben.
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
In dieser Arbeit wird die Fällung von Magnesium-Ammonium-Phosphaten (MAP) aus Schlachthofabwasser behandelt. Einleitend wird der Schlacht- und Zerlegprozess von Tieren in der Nahrungsmittelindustrie beschrieben und dabei die Stellen des Abwasseranfalls gekennzeichnet. Nachfolgend werden einige chemische Grundlagen zum MAP und dessen Kristallisationsparameter erläutert und ausgewertet. Nach Auswertung eigener Fällungsversuche wird ein Vorschlag für eine technische Lösung gebracht und dessen Kosten abgeschätzt.
We present PhoneGuide – an enhanced museum guidance approach that uses camera-equipped mobile phones and on-device object recognition. Our main technical achievement is a simple and light-weight object recognition approach that is realized with single-layer perceptron neuronal networks. In contrast to related systems which perform computational intensive image processing tasks on remote servers, our intention is to carry out all computations directly on the phone. This ensures little or even no network traffic and consequently decreases cost for online times. Our laboratory experiments and field surveys have shown that photographed museum exhibits can be recognized with a probability of over 90%. We have evaluated different feature sets to optimize the recognition rate and performance. Our experiments revealed that normalized color features are most effective for our method. Choosing such a feature set allows recognizing an object below one second on up-to-date phones. The amount of data that is required for differentiating 50 objects from multiple perspectives is less than 6KBytes.
Innerhalb der Arbeit wurden vorliegende Druckversuche an bewehrten Elastomerlagern hinsichtlich des Druckstauchungsverhaltens systematisch ausgewertet. Die Druckversuche wurden an Lagern verschiedener Hersteller durchgeführt. Die Versuchsdurchführung und Auswertung erfolgte nach DIN 4141-140 bzw. nach EN 1337-3. Die ermittelten Druckstauchungswerte in Form des ideellen E-Moduls wurden anschließend den vereinfachten Berechnungsansätzen der Normen DIN 4141-14/A1 und EN 1337-3, sowie den Berechnungsansätzen nach Topaloff gegenüber gestellt. Als Nebenaspekt der Arbeit wurde eine am Lehrstuhl vorliegende Versuchsdatenbank auf ihre Eignung und Funktionalität untersucht.
Bei Produktionsprozessen, die auf den Prinzipien „Just-In-Time“ oder „Just-In-Sequence“ beruhen, ist es wichtig, dass die notwendigen Lieferteile pünktlich am Verarbeitungsort vorliegen. Wie groß die Auswirkungen des heutigen und des zukünftigen Verkehrsgeschehens, insbesondere der Verkehrsstörungen, auf die Transportdauern und die somit einzuplanenden Lieferzeiten sind, soll mit dieser Arbeit untersucht werden. Neben der Ermittlung der DTV-Werte für die Jahre 2007 und 2015 mittels einer „linearen Einfachregression“ und der Abschätzung der zukünftigen Baustellensituation wurden dazu Verkehrsmeldungen der Autobahnen 9, 14 und 93 von rund 100 Tagen derart aufbereitet und ausgewertet, dass es am Ende möglich wird, in Abhängigkeit einer bestimmten Tageszeit, Aussagen über die momentane Reisezeitverteilung zu treffen. Somit kann abgeschätzt werden, zu welcher Startzeit die Wahrscheinlichkeit einer störungsfreien Fahrt sehr hoch ist und welche Zeit vermieden werden sollte, da dann auf jeden Fall eine zusätzliche Reisezeit eingeplant werden müsste. Wie hoch diese Reisezeitzuschläge sind, hängt von der Länge der Wegintervalle, den Arten der Verkehrsstörungen und ihren Eintretenswahrscheinlichkeiten ab. Ein weiteres Ergebnis dieser Diplomarbeit liegt darin, Autobahnabschnitte aufzuzeigen, die derzeit besonders häufig von Stau oder stockendem Verkehr betroffen sind und somit oft längere Reisezeiten zur Folge haben. Aufbauend auf den heutigen Ergebnisse wird auch abgeschätzt, wie sich diese Reisezeitverteilung in den nächsten Jahren ändert, wenn die zukünftigen Verkehrsstärken und Querschnitte der Autobahnen zugrunde gelegt werden.
Es werden Zusammenhänge zwischen den Gestaltungsformen von Straßenbahnhaltestellen sowie deren baulichen und verkehrlichen Umfelds auf die Verkehrssicherheit von Fußgängern erarbeitet. Die Analyse wurde an den Stadtbahnhaltestellen der Stadt Erfurt durchgeführt. Im ersten Teil der Arbeit erfolgt eine Literaturrecherche über bisherige Untersuchungen und rechtliche Grundlagen. Der zweite Teil bildet die Charakterisierung von Haltestellengrundformen. Im Anschluß daran wurden mögliche Einflussfaktoren erarbeitet, deren mögliche Einflüsse auf die Verkehrssicherheit im Hauptteil mit Hilfe einer örtlichen Unfalluntersuchung und Beobachtungen erörtert werden.
The effective and efficient cooperation in communities and groups requires that the members of the community or group have adequate information about each other and the environment. In this paper, we outline the basic challenges of managing awareness information. We analyse the management of awareness information in face-to-face situations, and discuss challenges and requirements for the support of awareness management in distributed settings. Finally, after taking a look at related work, we present a simple, yet powerful framework for awareness management based on constraint pattern named COBRA.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Das FEM-Programmsystem „SYSWELD“ kommt für die Berechnung des Temperaturfeldes bei einer Laserstrahlschweißung zum Einsatz. Insbesondere sollen der Einfluss des Energieeintrages und die damit verbundene Gefügeumwandlung eines Feinkornbaustahles untersucht und Aussagen zur notwendigen Modellierungsgenauigkeit der Nahtgeometrie bzw. Netzverfeinerung getroffen werden. Im Einzelnen sind folgende Teilaufgaben zu lösen: - ausführliche Literaturrecherche zur numerischen Analyse von Schweißverbindungen insbesondere zu temperaturabhängigen Materialeigenschaften von Feinkornbaustählen, - Darstellung der Wärmequelle für das Laserstrahlschweißen, - Erprobung unterschiedlicher Netzvarianten für die FE-Analyse von instationären Temperaturfeldern, - Untersuchung zur Modellierungsgenauigkeit der Nahtgeometrie, - Parameterstudien zum Einfluss der Materialkennwerte und Gefügekinetik auf das Temperaturfeld sowie das Gefüge.
Shrinkage tests and unconfined compression tests were carried out in this research. Four soil with different percentages of fines were used. Three possibilities to measure the matric suction of a soil are shown in this tesis – Tempe pressure cell test – pressure plate test and null-type-axis-translation test.
Im Rahmen dieser Diplomarbeit werden die diffusen Phosphoreinträge am Beispiel des Einzugsgebietes der oberen Rur bilanziert . Im theoretischen Teil dieser Diplomarbeit werden die Grundlagen für die Darstellung des Nährstofftransportes erarbeitet. Dabei erfolgt die Beschreibung der Eintragswege von Phosphor in die Gewässer, die Herkunft und Art von Phosphoreinträgen sowie die wichtigen Eintragspfade der diffusen Phosphoreinträge. Mit diesen gewonnenen Erkenntnissen ist es möglich, den Stofftransport einschließlich der ablaufenden Prozesse mittels mathematischer Gleichungen über die Eintragspfade zu simulieren. Somit gelingt es, die Funktionsweise und die Anwendbarkeit, der zum Einsatz kommenden aktuellen Wasser- und Stofftransportmodelle zur Quantifizierung diffuser Phosphoreinträgen zu verstehen. Im praktischen Teil dieser Diplomarbeit werden die diffusen Phosphoreinträge im Einzugsgebiet der oberen Rur unter Hilfenahme der zuvor ermittelten Grundlagen bilanziert. Dabei ist es nötig, das Einzugsgebiet zu beschreiben, abzugrenzen und die enthaltenen Gewässer zu beleuchten. Weiterhin erfolgte eine Recherche der im Einzugsgebiet vorhandenen Flächennutzungen, um die Bilanzierung mit den aus der Literatur ermittelten Gleichungen und Werten durchführen zu können. Das Ergebnis ist eine Phosphorjahresfracht mit der das Einzugsgebiet bewertet werden kann.
Ziel dieser Arbeit war es, eine Treibgutsperre zu entwerfen, welche frühzeitig Treigut abhält, sowie einen Ablassvorgang zu ermitteln, welcher Sediment in so geringen Mengen abführt, dass der weiterführende Flusslauf nicht geschädigt wird. Die Versuche wurden am Modell des HRB Grimmelshausen im Hydrolabor Schleusingen durchgeführt. Aus den Untersuchungen resultierte auf der einen Seite der Entwurf einer Treibgutsperre schräg zur Fliessrichtung mit Verlängerung aus Rechen- bzw. Schwimmkörper und auf der anderen Seite der Ablass des Staubereiches in elf aufeinanderfolgenden Hochwasserereignissen.
Der Einsatz von Glasfaserverstärkten Kunststoffen im Verbundbrückenbau wurde überprüft. Hierzu wurden Vergleichsbrücken in Stahl / Beton und GFK / Beton entwickelt und vergleichend überprüft. Im Vergleich wurden nicht nur die Kriterien der Tragfähigkeit und Gebrauchstauglichkeit sondern auch ökonomisch günstige sowie ökologisch vertretbare Faktoren betrachtet. Der Vergleich der Bauweisen wird anhand der Effizienzwertmethode (EWM) durchgeführt, welche an der Bauhaus ? Universität Weimar von Dr. Derek Eisert entwickelt wurde. Mit Hilfe der EWM ist es möglich ganzheitliche und nachhaltige Bewertungen durchzuführen. Im Rahmen der Anwendung der EWM war vor allem die Überprüfung des Kriterienkataloges im Hinblick auf die Anwendbarkeit bei Verbundbrücken ein Ziel dieser Arbeit. Um eine exakte Bewertung durchführen zu können ist es notwendig exakte Beiwerte für die einzelnen Kriterien (Tragen, Gebrauchen, Erleben, Ökonomie und Ökologie) zu ermitteln. Hierzu sind entsprechende Grundlagen und Recherchequellen aufgezeigt.
Schleierwolken des Realen
(2005)
In seinem XX. Seminar hat Jacques Lacan ein Modell vorgeschlagen, zu dem seine eigenen Erläuterungen relativ kryptisch blieben. An den Ecken eines Dreiecks sind die drei Kategorien des Symbolischen, des Imaginären und des Realen angeordnet, an den Seiten des Dreiecks finden sich drei Reste des Realen ... Die Wolke, so wie sie im Folgenden auftritt, lässt sich dem Kontinuum des Realen zuordnen, das im Symbolischen nicht aufgehen kann. Über die drei realen Reste wird es aber möglich, in einzelnen historischen Episoden Wolkeneffekter auszumachen und zu benennen. ...
Sieben Bestandsbauten der Herzogin-Anna-Amalia-Bibliothek Weimar sollten umgenutzt und durch zwei oberirdische und drei unterirdische Neubauten ergänzt werden. Im Beitrag näher beschrieben: Schadstofferkundung und Beurteilung der Gefahren der Baumaßnahmen, Sicherheitsmaßnahmen, Durchführung von Reinigungsarbeiten
Die Arbeit befasst sich mit der österreichischen Bogenstaumauer Kölnbrein, die während des Ersteinstaus geschädigt wurde. Diese Schäden, sowie mögliche Ursachen sind anhand von Literaturquellen dokumentiert. Nach Erstellung eines Rechenmodells wurden, durch ein Randelementeprogramm, Rissfortschrittsberechnungen durchgeführt und mit dem realen Bauwerk verglichen. Zum Einsatz kamen die Anwendungen „OSM“, „FRANC3D“ und „BES“ der Cornell-University.
Mit der Einführung des semiprobabilistischen Sicherheitskonzeptes im Bauwesen wurden auch die Berechnungs- und Nachweisgrundlagen für Brücken neu definiert. Für die praktische Anwendung auf nationaler Ebene und die Präzisierung der Festlegungen des EC’s wurde ein ARS mit konsistenten Regeln zur Ermittlung von Kräften und Verformungen für Brückenlager erstellt. Schwerpunkt der Arbeit ist die Ermittlung von Kräften und Verformungen an stahlbewehrten Elastomerlagern nach den Normengrundlagen der DIN 1072 und des DIN-Fachbericht 101 (in Erweiterung durch den Entwurf des ARS vom 25.07.2005) an einem komplexen Spannbeton-Brückentragwerk, um einen Normenvergleich bezüglich des Sicherheitsniveaus anstellen zu können. Die Berechnungen wurden unter Verwendung des FE-Programmsystems ANSYS am nichtlinearen, komplexen Gesamtsystem durchgeführt. Im Vorfeld erfolgte dazu ein grundlegender Vergleich der Sicherheitskonzepte, der Lastannahmen und maßgebenden Lastfallkombinationen. Für die Windlastannahmen wurden die aktuellen Regelungen der DIN 1055-4 (2005-03) und der EN 1991-1-4 (2005-07) angewandt. Für die Vorbemessung und Nachweise des Spannbeton-Überbaus wurde ein InfoCAD-FE-Modell genutzt. Resultierend in der Lagerdimensionierung wurde anhand der Untersuchungsergebnisse die Vergleichsanalyse des jeweils erreichbaren Sicherheitsniveaus durchgeführt. Unter der betrachteten Bemessungssituation ist das erreichte Sicherheitsniveau nach neuer Normung vergleichbar mit dem des bisherigen Erfahrungsbereiches der DIN 1072.
Für die Implementierung in einem Materialmodell wird die Festigkeitsentwicklung bei faserparalleler Druckbeanspruchung untersucht und in einer entsprechenden numerischen Formulierung wiedergegeben. Im Zuge einer mathematischen Formulierung der Festigkeitsentwicklung werden die umfassenden Versagensmechanismen bei longitudinaler Druckbeanspruchung unter verschiedenen Aspekten umfassend untersucht. Dazu werden eigene Druckversuche unter Voll- und Teilflächenbelastung ausgewertet. Eine Auswertung der Druckversuche erfolgte anhand von Kraft- und Wegmessdaten aus einer induktiven bzw. photogrammetrischen Verformungsmessung. Im Rahmen der Versuchsauswertung wird der Einfluss des Lasteinleitungsbereiches und dessen Auswirkung auf die Festigkeitsentwicklung sowie das Verformungsverhalten oberhalb der Proportionalitätsgrenze in den Bereichen inner- und außerhalb der sich ausbildenden Stauchschicht untersucht. In diesen Betrachtungen wird auch das Materialverhalten nach Erreichen der Höchstlast und die damit einhergehende Entfestigung auf ein gleichbleibendes Niveau mit einbezogen. Von großem Interesse ist hierbei, ob die Versagensvorgänge während der Entfestigungsphase Einfluss auf das Verformungsverhalten des gesamten Probekörpers haben oder auf einen lokalen Bereich beschränkt sind.
Aufgabe war es, eine Schweißnaht numerisch zu simulieren und die dabei entstehenden Eigenspannungen mit dem Programm SYSWELD zu simulieren. Dazu war es notwendig, eine entsprechende Wärmequelle für das MIG-Schweißen abzubilden, um die eingetragene Wärme in Form eines Temperaturfeldes darzustellen. Die Berechnung erfolgte unter Verwendung der temperaturabhängigen Materialkennwerte der verschweißten Werkstoffe, die in einer Literaturrecherche zusammengestellt wurden. Untersucht wurde außerdem der Einfluss der Modelliergenauigkeit auf die entstehenden Eigenspannungen. Dabei konnte festgestellt werden, dass eine realitätsnahe Darstellung der Naht von großer Bedeutung ist, um die Kerbwirkung der Schweißnaht zu erkennen.
Bestimmungen und Anforderungen an den Entwurf von Baustelleneinrichtungen (BE), Kraneinsatzplan als Bestandteil der BE, planungstechnische Aspekte, Untersuchung von CAD-Anwendungen für die Planung von Baustelleneinrichtungen, Entwicklung eines Kraneinsatzplaners, Sicherheitsaspekte bei der Planung von Baukraneinsätzen. Es zeigte sich, dass gerade die Forderung der Betrachtung kausaler und räumlicher Abhängigkeiten mit den in der Praxis angewandten Planungswerkzeugen nicht oder nur eingeschränkt realisierbar ist. Mit dem Programm >EasyCrane TK< wird eine Möglichkeit aufgezeigt, die Erstellung von Kraneinsatzplänen effizienter und für die Umsetzung auf der Baustelle sicherer zu gestalten.
Diese Arbeit stellt die Implementierung von Scheibenelementen mit B-Spline Ansätzen n-ter Ordnung speziell für rechteckige Gebiete mit orthogonaler Vernetzung vor. Dabei kam insbesondere eine spezielle elementbasierte Formulierung auf Grundlage der einzelnen B-Spline Segmente zum Einsatz, die zur Aufbringung von Randbedingungen an den Rändern modifizierte B-Splines benutzt. In der Folge entstehen verschiedene Elementtypen zur Diskretisierung von rechteckigen Gebieten, deren Erzeugung, Speicherung und Anwendung im Zusammenhang mit der Finiten Elemente Methode Gegenstand der Arbeit sind. Anhand von untersuchten Beispielen werden die erfolgreiche Implementierung nachgewiesen und verschiedene Eigenschaften der Methode herausgestellt.
The hydraulic properties of the polymer-enhanced bentonite-sand mixtures (PEBSMs) investigated in this study consisted of the water retention behaviour (or the soil-water characteristic curve (SWCC)) and the saturated and unsaturated coefficients of permeability. The SWCCs of the compacted polymer-enhanced bentonite-sand mixtures were measured using two techniques; namely, axis-translation technique and vapour equilibrium technique. The results obtained from both methods were combined to establish a single SWCC for each specimen. The saturated coefficient of permeability of the material was measured using the constant-head flexible wall permeameter method. The unsaturated coefficient of permeability was computed from the SWCCs and the saturated permeability values using the statistical model. The study revealed that the wetting curves for the PEBSM and clay are above the drying curves. The fact is thought be due to the specimens being not saturated before starting the drying tests. Since the specimens are expensive soil such a trend can be expected. The permeability deduced from the oedometer test data over-estimates the actual water flow rate resulting in a higher computed saturated coefficient of permeability compared to the measured values. The nets of polymer and bentonite clusters are thought to retard the flow of water during the direct measurement. However, the net of polymer and bentonite clusters are compressed during loading and rebound during unloading. Hysteresis effect was found for the PEBSMs in the permeability versus degree of saturation curve. This is due to possible difference in the spatial distribution of water in the specimens depending whether the specimens were on drying or wetting path.
'Vielleicht sollten wir aufhören, darüber zu streiten, ob die dräuenden, jagenden Wolken seiner Bergfilme die gleichen waren, aus denen Hitlers Flugzeuge am Anfang des Reichsparteitagsfilms nach Nürnberg herabschwebte.' Dieser Stoßseufzer Matthias Fancks, seines Zeichens Enkel des berühmtesten Protagonisten des Genre Bergfilm in der Weimarer Republik, Dr. Arnold Fanck, dürfte auf absehbare Zeit seiner Erfüllung harren. Als zu wirkungsmächtig hat sich jenes Verdikt erwiesen, das hier zugleich noch einmal aufgerufen wird, nämlich Siegfried Kracauers (retrospektive) Deutung des Bergfilms Fanck'scher Prägung - und auch und besonders deren Wolkenbilder - als einer Präfiguration faschistischer Ästhetik, wie sie in dem als >messianische Ankunft< inszenierten Flug Hitlers durch die Wolkendecke über Nürnberg in Leni Riefenstahls einschlägigem Propagandafilm ihren sinnfälligen Kulminationspunkt gefunden habe ...
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
Im Ergebnis dieser Arbeit ist es gelungen, die Form der Überdachung des Frei-lufttheaters in Grötzingen als Stabnetzschale zu generieren und in einer Vorbe-messung konstruktiv durchzubilden. Im iterativen Prozess der Formfindung bilden Form, Last, Auflager und Tragver-halten eine Einheit, welche die letztendliche Form eines Tragwerks bestimmt. Kommt es auf Effizienz, Leichtigkeit und große Spannweiten an, so ist die Form eines Tragwerks dem gewünschten Beanspruchungszustand anzupassen. Die Form sollte somit die Folge des Sollkraftzustandes sein und nicht umgekehrt. Während der Formfindung in DOMEdesign ist es nicht gelungen, die Schalen-form über ein Netz mit quadratischen Maschen zu erzeugen, da sich die Berech-nung immer an derselben Stelle der Generierung festgefahren hat. Die Ursache hierfür kann durch die Anzahl der Unbekannten je Knoten während Iterations-schritte in der Berechnung erklärt werden. Die genaue Form wurde durch die Verwendung eines Hexagonnetzes realisiert. Vorher musste das Netz jedoch mittels AutoCad in die geneigte Lage gedreht werden. Den entscheidenden Ein-fluss für die entstehende Form haben die Größen der Radien des ebenen Aus-gangsnetzes. Je kleiner der Radius des Randes, desto schlanker und filigraner bildet sich die Form der Schale aus. Als sehr positives Programmtool soll die Im- und Exportfunktion von DOMEdesign erwähnt werden. Mit deren Hilfe kann jede Konstruktion problemlos als dxf-File in CAD - Programmen bearbeitet und wieder importiert werden. Die Überführung der Netztopologie in eine dreieckige Vermaschung ist im Pro-gramm AutoCad durchgeführt worden. Hierzu war es notwendig, jeden zweiten Punkt eines Hexagons zu fangen und durch Verbinden, Dreiecke zu erzeugen. Nach der ersten Vorbemessung schien die Entscheidung sinnvoll, aufgrund der zunehmenden Normalkräfte zum Auflager hin, eine Staffelung der Stabquer-schnitte vorzusehen. Die Querschnitte variieren von 120/70 (in Schalenmitte) bis 180/70 (am Auflager). Am Übergang zweier Stabgrößen werden gevoutete Stäbe angeordnet. Im Rahmen dieser Vorbemessung stellte sich heraus, dass sich eine reine Schalentragwirkung (nur Druckkräfte) in der gefundenen Konstruktion nicht zu 100 % einstellt. Grund dafür ist der Zusammenhang von Netztopologie, Ge-ländeneigung- bzw. Lage der Lagerpunkte und Art der Beanspruchung. Deshalb treten in der Stabnetzschale vereinzelt Zugkräfte auf, welche vom Dreieck hin zum Hexagon abnehmen. Im maßgebenden Lastfall bewegen sich die Beträge der Verformungen in einem tolerierbaren Bereich von bis zu maximal 3,7 cm, welche die Zulässigen von maximal 13,3 cm deutlich unterschreiten. Die Fortschritte durch Computer - orientierte - Verfahren zur Formfindung und Bemessung haben die Formvielfalt beim Bau von doppelt gekrümmten Flächen aus Stahl und Glas erweitert. Die automatisierte Fertigung erlaubt es, sich von den bisher immer geforderten gleichen Stablängen und gleichen Knotenausbil-dungen loszulösen. Um die gefundene Schalenform konstruktiv umzusetzen, ist es notwendig einen Knoten zu finden, welcher den Ansprüchen in Bezug auf Stabverdrehung, Glasauflagerung und Schalenkrümmung genügt. Hierbei gibt es eine Vielzahl an möglichen Konstruktionen. Da an bestimmten Knoten große Un-terschiede zwischen Vertikalwinkeln auftreten, fiel in dieser Arbeit die Entschei-dung zu Gunsten eines Zylinderknotens, dessen lokale Geometrie durch die unterschiedlichen Stabenden realisiert wird. Der Knoten selbst übernimmt nur die Einstellung der Horizontalwinkel. Die Verbindung zwischen Stab und Knoten wird mittels zweier Schrauben, die übereinander und senkrecht zur Knotenachse aus-gerichtet sind, hergestellt. Dazu wird an den Stabenden ein 1 cm starkes Blech angeschweißt, wodurch die Schrauben vom Knoten her vorgespannt werden können. Die Oberkante des Knotens darf dabei nicht über die Staboberseiten herausragen, da sonst keine durchgehende Auflage der Glasscheiben möglich ist.
Ziel war es eine MAG- Stumpfschweißverbindung mit anschließender WIG- Überschmelzung zu simulieren. Es galt den Einfluss einer WIG- Nachbehandlung auf die Gefügestruktur der Stumpfnaht aus S690QL und dessen Eigenspannungszustand zu untersuchen. Die WIG- Nachbehandlung erzeugt eine im Wesentlichen martensitische Gefügestruktur im überschmolzenen Bereich der kerbgefährdeten Schweißnahtübergänge. Dieses konnte anhand von Mikroschliffbildern der Schweißverbindung verifiziert werden. Die Härtewerte nach Vickers sind durch die WIG- Nachbehandlung gering gesenkt und auf einen weniger konzentrierten Bereich verteilt worden. Das Zugspannungsniveau im Bereich der Nahtübergänge konnte ebenfalls gering gesenkt werden.
Wenn Wolken als Grenzfiguren zwischen dem Darstellbaren und dem Nicht-Darstellbaren gerade von der bildenden Kunst immer wieder als Herausforderung begriffen worden sind, dieses Terrain mit ihren Mitteln zu erforschen, so ist es im 20. Jahrhundert allen voran der Surrealismus, der sie in diesem Sinne für sich entdeckt. Dabei geht es nicht allein um ihre Gestaltqualitäten und den Deutungshorizont, den diese eröffnen. Sie erweisen sich vielmehr als ideales Medium für ein künstlerisches Programm, das sich für das Informe interessiert und für den Prozess, das eine Ästhetik der Wandelbarkeit und der Verwandlung im Experiment mit den künstlerischen Mitteln verfolgt, die zugleich mit dem Streben nach mentaler Grenzüberscheitung korrespondieren. ...
Klangwolken
(2005)
In einer Musik, die ihren Rückhalt nicht mehr in überlieferten Formen sucht, verstehen sich Anfänge nicht von selbst. Richard Wagner hat sich dieser Schwierigkeit ästhetischer Formsetzung auf eine ebenso einfache wie elegante Weise entledigt. Das Vorspiel seiner Oper 'Das Rheingold' (1854) hört über 136 Takte hinweg nicht auf anzufangen. ... Der Anfang des 'Rheingoldes' ist scheinbar den Gesetzen der Natur abgelauscht. ...
This master thesis explores an important and under-researched topic on the so-called bridging of length scales (from >meso< to >macro<), with the concept of homogenization in which the careful characterization of mechanical response requires that the developed material model >bridge< the representations of events that occur at two different scales. The underlying objective here is to efficiently incorporate material length scales in the classical continuum plasticity/damage theories through the concept of homogenization theory. The present thesis is devoted to computational modeling of heterogeneous materials, primarily to matrix-inclusion type of materials. Considerations are focused predominantly on the elastic and damage behavior as a response to quasistatic mechanical loading. Mainly this thesis focuses to elaborate a sound numerical homogenization model which accounts for the prediction of overall properties with the application of different types of boundary conditions namely: periodic, homogeneous and mixed type of boundary conditions over two-dimensional periodic and non-periodic RVEs and three-dimensional non-periodic RVEs. Identification of the governing mechanisms and assessing their effect on the material behavior leads one step further. Bringing together this knowledge with service requirements allows for functional oriented materials design. First, this thesis gives attention on providing the theoretical basic mechanisms involved in homogenization techniques and a survey will be made on existing analytical methods available in literature. Second, the proposed frameworks are implemented in the well known finite element software programs ANSYS and SLang. Simple and efficient algorithms in FORTRAN are developed for automated microstructure generation using RSA algorithm in order to perform a systematic numerical testing of microstructures of composites. Algorithms are developed to generate constraint equations in periodic boundary conditions and different displacements applied spatially over the boundaries of the RVE in homogeneous boundary conditions. Finally, nonlinear simulations are performed at mesolevel, by considering continuum scalar damage behavior of matrix material with the linear elastic behavior of aggregates with the assumption of rigid bond between constituents.
Alles beginnt in Francis Ford Coppolas 'Bram Stokers's Dracula' mit, alles emergiert aus der Wolke: rechte Hälfte der Einstellung hell, linke dunkel, wölkt sich Dunst um die Kuppel mit dem christlichen Steinkreuz, verdichtet, schickt sich an, den Buchstaben des Gesetzes der westlich-abendländischen Hemisphäre zu verschlingen, schluckt ihn schließlich ganz, bevor das aufgerichtete Kreuz, paradigmatisches Zeichen des Christentums; Phallus, herausragender Signifikant des Symbolischen und damit der Ära der bewegten Lettern Gutenbergs, auf rotem Grund zerschellt. ...
Diese Arbeit umfasst eine Zusammenfassung der aktuellen Fertigteil- und Montagetechnik sowie Grundkenntnisse von automatisierten Systemen im Bauwesen. Dabei wird ein Überblick über den Stand der Technik gegeben und die daraus entstehenden Voraussetzungen für eine automatisierte Fertigteilmontage, beginnend bei den TUL-Prozessen bis hin zur Montage, definiert. Folgend werden Grundüberlegungen hinsichtlich weiterer Forschungsansätze bzw. Weiterführungen dieser modernen Technologien aufgezeigt sowie Schnittstellen zwischen Maschinen und Vermessungstechniken und Systemlücken bei der Anwendung analysiert. Eine Wirtschaftlichkeitsbetrachtung der mechanischen und automatisierten Fertigteilmontage soll die Zeit- und Lohnkosteneinsparungen aufzeigen. Weiterhin wurde eine Systematisierung von besonderen Verbindungs- und Anschlaghilfsmittel durchgeführt. Dabei bezog sich die Auswertung auf die Produktpaletten der vier größten deutschen Firmen. Grundsätzlich versteht sich die Arbeit als zukunftsorientiert und basiert auf einer sachlichen Untersuchung der Zusammenhänge.
Die Charakteristiken von Großprojekten werden bei internationaler Bautätigkeit vor allem durch das erhöhte Risiko und die Komplexität infolge länderspezifischer Rahmenbedingungen erweitert. Aufgrund des anwachsenden Konkurrenzkampfes international tätiger Bauunternehmen, müssen die Gewinnmargen jedoch kontinuierlich verringert werden, während Reaktionsfähigkeit, Spezialisierung und Flexibilität vorausgesetzt wird. Daher gewinnt das Risikomanagement und die bewusste Entscheidungsfindung im Umgang mit Risiken verstärkt an Bedeutung. Die zur Verfügung stehenden Risikoanalysetechniken untersuchen zumeist Teilbereiche und stellen in der Regel hohe Anforderungen an den Dateninput. Die Daten können nur aus vorangegangenen Projekten oder aus Expertenurteilen abgeleitet werden. Diese Tatsache steht im Widerspruch zur Einmaligkeit von Bauprojekten und zur schwierigen Beschaffung realer Daten und Einschätzungen von Praxispartnern. Folglich leitet sich der Bedarf nach einer Entscheidungsmethode ab, die den Risikoumfang in seiner Gesamtheit erfassen kann und losgelöst von quantitativen Daten eine Entscheidungsunterstützung herbeiführt. Aus diesem Grund wurde in der vorliegenden Diplomarbeit am Beispiel von identifizierten Risiken für Wasserbauprojekte in Indien ein multikriterielles Entscheidungsmodell entwickelt, dem die Arbeitsweise des Analytic Hierarchy Process (AHP) zugrunde liegt und dessen Umsetzung in Excel 2000 erfolgte. Das Modell strukturiert die Problemsituation anhand einer Risikohierarchie, dient der systematischen Risikobewertung zur Veranschaulichung der relativen Bedeutungen innerhalb des Gesamtrisikoumfangs, beinhaltet ein risikobezogenes Zielsystem zur Bewertung von Risikobehandlungsalternativen und ermöglicht die selbstständige Wahl der Risikobehandlung. Infolge der prozentualen Anteile jeder Risikobehandlung am Gesamtrisikoumfang können Projektstrategien und weitere Erfolgsfaktoren abgeleitet werden.
Wolken modellieren
(2005)
Wolkenformationen und ihre Verwandlungen auf bilddigitalem Weg zu simulieren und in klimatologische Studien zu integrieren, ist eine der komplexesten Aufgaben der aktuellen Umweltphysik. Die Schwierigkeit erklärt sich zum einen sicherlich aus der Konturlosigkeit der nebulösen Gebilde - ihre formale Instabilität und dynamische Prozessualität widerspricht und widersetzt sich der Prognosetätigkeit der Meteorologen bzw. Klimatologen. Immer wieder stellt sich dabei die Frage nach der Codier- und Fixierbarkeit der diffusen Formverläufe, nach der Umrissbildung und Bestimmung eines prinzipiell ungeklärten Figur-Grund-Verhältnisses. Im Folgenden soll die Problemstellung komplexer Simulationstechniken auf klimatologische Bildgebungsverfahren angewandt werden. ...
Erfassung der Zeitparameter eines in einer VR-Umgebung simulierten Arbeitsprozesses aus dem Bauwesen
(2005)
Thema dieser Arbeit ist die Erstellung einer Prozess-Simulation in einer Echtzeit VR-Umgebung. Besonderes Augenmerk wird dabei der Erfassung des Zeitparameters einzelner Prozessabschnitte geschenkt. Mittels einer Datenbankanbindung können somit Daten zwischen einer externen Datenbank und der Simulation ausgetauscht werden. Neben der Realisierung des Datenzugriffes wurde eine Uhr in der virtuellen Umgebung realisiert un somit das Wechselspiel zwischen Erdbaumaschiene und Transportgerät modelliert. Im schriftlichen Teil dieser Arbeit werden die Grundlagen dazu behandelt, das baubetriebliche Anliegen untersucht und die Erstellung in der Software Quest3D dokumentiert.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Um den thermoplastischen Baustoff Bitumen verarbeiten zu können, muss dieser in einen niedrigviskosen Zustand überführt werden. Dazu gibt es verschiedene Wege. Eine Möglichkeit dafür ist die Emulgierung des Bitumens in Wasser. Daraus entstehen die kaltverarbeitbaren Bitumenemulsionen. Bitumenemulsionen sind besonders für Anwendungen im Bereich des Straßenerhaltes ein geeigneter Baustoff. Die Dünnschicht-Bauweise Oberflächenbehandlung ist eine der häufigsten eingesetzten Anwendungen von Bitumenemulsionen im Straßenbau. Im Rahmen der Arbeit wurde geprüft, ob es möglich und sinnvoll ist, Wachse als Additive zur Modifizierung von Bitumenemulsionen (für die Anwendung im Bereich von Oberflächenbehandlungen) einzusetzen. Dazu wurde im theoretischen Teil der Arbeit durch Recherche des umfassenden Begriffes Wachs ein Überblick zum Thema gegeben und eine Einteilung der verschiedenartigen Wachse vorgenommen. Im praktischen Teil wurde ein Ausgangsbitumen mit ausgesuchten Wachsen (auf Grundlage der theoretischen Recherche) in verschiedenen Anteilen modifiziert und die Bindemittelkennwerte ermittelt. Weiterhin wurden auf Basis der vorangegangenen Bindemitteluntersuchungen einige Additive ausgewählt und diese zur Herstellung von Bitumenemulsionen eingesetzt. Die hergestellten Emulsionen wurden mit den üblichen Prüfverfahren untersucht und die Ergebnisse miteinander verglichen.
Am Beispiel des ICE-Knotens Erfurt werden positive Erfahrungen bei der Umsetzung der Baustellenverordnung berichtet. Die Erfahrungen haben gezeigt, dass konkrete Vorgaben und das Festlegen und Fordern bestimmter Sicherheitsvorkehrungen die Sicherheit auf der Baustelle wesentlich mitbestimmen. Ein wichtiges Hilfsmittel dazu ist ein konkreter SiGe-Plan, dessen Realisierung durch permanente Sicherheitsbegehungen kontrolliert werden muss. Durch eine zielgerichtete Einflussnahme und sachgemäße Arbeitsweise der Fachfirmen wurden die Bauabläufe realisiert, ohne dass es zu schweren Unfällen und Störungen insbesondere im Bahnverkehr kam. Die Baustellenverordnung mit ihren Forderungen war dabei ein wichtiges Instrumentarium, welches durch die DB AG vollinhaltlich umgesetzt wurde.
Kurzfassung Das Messprinzip faseroptischer Sensoren beruht auf der Tatsache, dass durch eine Faser Licht geleitet wird. Aufgrund externer Einflüsse, die physikalischer, chemischer oder auch anderer Art sind, werden die Eigenschaften des Lichtes, wie z.B. die Wellenlänge oder auch die Intensität geändert. Diese Veränderungen können von einem Messsystem für sofortige oder auch spätere Analysen aufgenommen werden. Bei der Kostenbetrachtung eines Bauwerkes sollten nicht nur die für die Erstellung notwendigen Kosten, sondern auch die Kosten zum Unterhalt und zur Instandhaltung betrachtet werden. Um die zu erwartenden Kosten im Falle einer Sanierung und Instandsetzung zu reduzieren, müssen notwendige Verfahren bereits bei der Errichtung von Bauwerken angewandt werden. Ein solches Verfahren ist die permanente Bauwerksüberwachung (Monitoring). Sie dient einerseits zur Sicherstellung der Nutzungsfähigkeit des Bauwerkes und soll andererseits vor allem während der Bauzeit die Möglichkeit bieten, Veränderungen die ohne geeignete Gegenmaßnahmen zu Schäden führen können, rechtzeitig zu erkennen. Bereits in der Planungsphase eines Bauwerks sollte geprüft werden, ob die Anwendung einer Bauwerksüberwachung sinnvoll und notwendig ist. Dabei sind die für die Errichtung auftretenden Baukosten den notwendigen Kosten für die Installation und den Betrieb eines solchen Verfahrens gegenüber zu stellen. Die Folgekosten, die bei einem eventuellen Schaden am Bauwerk und somit einer Instandhaltung bzw. Sanierung anfallen würden, sollten nicht außer Acht gelassen werden. Im Rahmen dieser Arbeit ist die Anwendbarkeit faseroptischer Sensoren im Bauwesen und speziell in der Geotechnik bei Pfahlgründungen untersucht worden. Bei der Qualität der zu erfassenden Messwerte zeigen FOS kaum Unterschiede zu den herkömmlichen Sensoren. Erst bei weiteren Betrachtungen der Eigenschaften und Einsatzmöglichkeiten FOS ergeben sich deutliche Vorteile gegenüber herkömmlicher Sensorik. Diese Vorteile, wie z.B. die Widerstandsfähigkeit gegenüber Störeinflüssen, den Einsatz in chemisch aggressiver Umgebung, die hohe Langlebigkeit u.a. prädestinieren die faseroptische Sensorik für die Installation in Pfählen.
Speziell für die Sandwich-Platten der Außenfassade von DDR-Plattenbauten, die in ihrem Inneren in den meisten Fällen Mineralwolle (Handelsname: Kamilit) enthalten, wurden belastungsarme Abbruch- bzw. Rückbautechnologien untersucht und durch Gefahrstoffmessungen begleitet. Es werden Vorschläge für zukünftig zu bevorzugende Abbruchtechnologien unterbreitet.
Aufgabe der Masterarbeit war es, eine Eibnführung in die WRRL und deren Implementierung zu geben sowie das Darstellen erster Umsetzungsschritte in Norwegen.
Während der Sommermonate der Jahre 1821 und 1822 ging der englische Landschaftsmaler John Constable (1776-1837) jeden Morgen von seinem Haus in Lower Terrace am Südende des Dorfes Hamstead zu den Hängen am Prospect Walk, um Wolkenbilder zu malen. Täglich kehrte er an denselben Ort zurück, um ein Bild des Himmels im Verlauf der Zeit zu malen. Später wurden die mehr als hundert losen Blätter als >Cloud Studies< zusammengefasst und gehören seither zu den am meisten bewunderten Werken der zeitgenössischen Landschaftsmalerei und zum Bilderkanon der europäischen Romantik. Constable war keineswegs der erste Maler, der Wolken nach der Natur malte, aber er gehörte zu den ersten, der die handwerklichen Techniken einer alten Kunst - der Malerei - mit den Definitionen der Meteorologie - einer jungen Wissenschaft - verknüpfte. ...
Diese Diplomarbeit beschreibt die Durchführung eines dynamischen Sandsäulenversuches zur Bestimmung der Wassercharakteristikkurven (SWCC) und der teilgesättigten Durchlässigkeiten des Sandes. Als Messinstrumente wurden TDR-Sonden und Tensiometer verwendet. Die TDR-Sonden wurden eigens für diesen Versuch kalibriert. Messgrößen waren der volumetrische Wassergehalt und die Kapillarspannung im Sand. Für die Auswertung kamen statistische Modelle zum Einsatz, insbesondere das Modell nach FREDLUND & XING. Darüber hinaus wurde geprüft, in wie weit die Wassercharakteristikkurven (SWCC) auch über inverse Berechnungsverfahren ermittelbar sind.
Zielstellung: Im Rahmen von Verkehrswegebauprojekten werden häufig Dämme aus Felsbruchmaterialien hergestellt. Solche Materialien weisen in der Regel einen hohen Anteil an Steinen und Blöcken auf. Dieses Größtkorn muss zerkleinert werden, um eine hohlraumarme Verdichtung gewährleisten zu können und damit spätere Sackungen durch Verlagerung der Gesteinsblöcke auszuschließen. Die diesbezüglichen Vorgaben der ZTVE-StB sind einzuhalten. Über die eingesetzte Verdichtungstechnologie lassen sich Gesteine bis zu bestimmten maximalen einaxialen Druckfestigkeiten auf entsprechende Korngrößen zertrümmern. Der Unternehmer muss entscheiden, ob mit einer gewählten Verdichtungstechnologie das Felsbruchmaterial ausreichend stark zertrümmert wird, um die Vorgaben zu erfüllen. Gleichzeitig darf der Feinkornanteil durch den Zertrümmerungsvorgang nur geringfügig ansteigen, um den Anforderungen bezüglich Durchlässigkeit und Frostempfindlichkeit gerecht zu werden. Die geforderten Tragfähigkeiten und Dichten müssen sichergestellt sein. Aufgrund fehlender Vergleichsuntersuchungen ist die Beurteilung der geeigneten Verdichtungstechnologie meist problematisch. Größenordnungen und Leistungsansätze können dadurch falsch eingeschätzt werden. Ziel dieser Diplomarbeit ist die Untersuchung der Beziehung zwischen Festigkeit und Zertrümmerung von Felsbruchmaterial in Abhängigkeit der eingesetzten Verdichtungstechnologie. Es soll untersucht werden, inwieweit vorhandene Steine und Gesteinsblöcke durch Verdichtungsvorgänge eine Zertrümmerung erfahren und welche Auswirkungen das auf die Korngrößenverteilung, insbesondere auch hinsichtlich des Feinkornanteils, hat. Ein Zusammenhang zu den erreichten Tragfähigkeiten und Dichten soll hergestellt werden. Dadurch kann die geplante Verdichtungstechnologie im Bezug auf ihre Wirksamkeit besser eingeschätzt und gegebenenfalls optimiert werden. Die Beurteilung von Leistungsansätzen und Kosten im Rahmen der Angebotserarbeitung wird somit deutlich vereinfacht.
Die vorliegende Arbeit befasst sich mit der verkehrsplanerischen Untersuchung der Verkehrsanbindung des Klinikums Bad Hersfeld. Auf der theoretischen Grundlage des Verkehrsplanungsprozesses wurde der Planungsablauf methodisch beschrieben. Im Anschluss erfolgte die Zustandsanalyse am konkreten Beispiel -Verkehrsanbindung des Klinikums Bad Hersfeld - in enger Zusammenarbeit mit den Anwohnern des Wohngebietes, der Stadt Bad Hersfeld, der Polizei und des Krankenhauses. Im Rahmen der Analyse wurde ein Zielsystem aufgestellt und eine Mängelanalyse durchgeführt. Auf Basis der gewonnenen Erkenntnisse wurden anschließend verschiedene Lösungsvorschläge erörtert. Anschließend wurde anhand eines Bewertungssystems und eines einfachen Rangordnungsverfahrens eine Vorzugsvariante benannt und deren Vor- und Nachteile beschrieben.
Quo vadis Arbeitsschutz?
(2005)
Bei der grundbautechnischen Bemessung und der Errichtung von Bauwerken im Grundwasser sind die wesentlichen Einwirkungen auf hydrodynamische Effekte zurückzuführen. Die zu-verlässige Funktion eines solchen Bauwerkes ist maßgeblich von der richtigen Einschätzung der unterschiedlichen Effekte abhängig. Aufgabe ist es, hydraulisch bedingte Versagensformen wie Hydraulischer Grundbruch, innere Erosion, Aufschwimmen und Auftrieb zu charakterisieren und voneinander abzugrenzen, ty-pische Beispiele dieser Versagensformen zu nennen, Interaktionen zwischen ihnen aufzu-zeichnen und zu quantifizieren sowie Einflussparameter und Grenzzustände zu beschreiben. Aufbauend auf diesen Betrachtungen soll am praktischen Beispiel einer Baugrubensicherung durch konventionelle Rechnung und numerische Simulation das Versagensprinzip des Hyd-raulischen Grundbruches in nicht bindigem Boden nachvollzogen werden. Die Ergebnisse der Analyse sind unter dem Gesichtspunkt der Richtigkeit der zugrunde liegenden physikalischen Gesetzmäßigkeiten zu bewerten.
In dieser Diplomarbeit werden – anhand eines Simulationsprogrammes – die diffusen Schallfelder in Atrien untersucht. Diesbezüglich standen Referenzobjekte in Berlin zur Verfügung. Es wurde untersucht, inwieweit sich die Raumgeometrie, die Volumina und die Absorptionseigenschaften der Umhüllungsflächen auf die Energieverteilung im Atriumsraum auswirken. Ziel der Arbeit ist es, Optimierungspotenziale aufzuzeigen und Lösungsvorschläge zu entwickeln, die zeigen, mit welchen Mitteln und Methoden die Raumakustik nachträglich verbessert werden kann.
An Experimental Study on Hydro-Mechanical Characteristics of Compacted Bentonite-Sand Mixtures
(2005)
Nuclear and hazardous waste disposal issues have become universal issues and problems related to the final disposal of these waste including finding a suitable site, natural and engineered barriers used, construction of the repository, long-term performance assessment have gained increasing attention all over the world. High-level radioactive and hazardous waste are required to be buried in deep geological repositories. In Germany, the ongoing researches have assessed the suitability of salt-stone formation in the country as a host rock candidate for its nuclear waste repository. Bentonite-based materials have been proposed to be used as sealing and buffer elements for the nuclear waste repository. Several hydro-mechanical processes will take place in the field and influence behaviour of the sealing and buffer elements of the repository. In this dissertation, a study on the hydro-mechanical characterisation of bentonite-sand mixtures is presented. Mixtures of a calcium-type bentonite, named Calcigel, and quartz sand were used in the investigation. Series of experiments including basic and physico-chemical characterisation, microstructure and fabric studies, suction and swelling pressure measurements, wetting and drying test, one-dimensional compression-rebound test, one-dimensional cyclic wetting-drying test under constant vertical stress, and saturated permeability test were conducted. The experimental data obtained are analysed and several characteristics of the material are brought out in this dissertation. Conclusions regarding basic behaviour of the materials are drawn based on the results of microstructure and fabric studies. Factors influencing the magnitude of suction and swelling pressure of the materials are outlined and discussed. The suction-induced compression and rebound characteristics of the material are described. The wetting and drying behaviour as influenced by the material boundary conditions are discussed. Permeability characteristics of the materials are examined based on several available permeability models. Several mechanical and hydraulic parameters that can be used in modelling using some available constitutive modelling approaches are derived based on the experimental data. At the end, conclusions regarding the hydro-mechanical characteristics of the materials are drawn and suggestions for future studies are made.
Ziel dieser Arbeit war es, die verschiedenen Bemessungskonzepte zur Kehlnahtberechnung vorzustellen, zu erläutern und zu vergleichen. Dabei wurden die Konzepte der TGL 13500, der DIN 18800, EC 3, nach ZIS - Mitteilungen und für Mismatch - Verbindungen ausgewählt.Im Rahmen der Arbeit wurden weiterhin Vergleichsrechnungen aufgestellt. Des Weiteren wurden zum ZIS - Bemessungskonzept ein Excel-Anwender-Programm geschrieben. Abgeschlossen wurde die Arbeit mit Erläuterungen zum versuchtechnischen Hintergund des EC 3.
Entwicklung eines Algorithmus für ein nichtlineares Materialgesetz für die vollautomatische Rissentwicklungssimulation unter Verwendung der am Institut für Strukturmechanik entwickelten netzfreien Verfahren. In Anlehnung an die Kontinuumsplastizität wird unter Verwendung einer arbeitsbasierten Formulierung mit Kombination der Mode I und Mode IIa Bruchenergien für sensitive Strukturen und eines nicht-assoziierten Fließgesetzes werden die Rissweggrößen (Rissöffnungsweite und Rissgleitungen) iterativ ermittelt. Dadurch ist es möglich, den Dilatanzeffekt sowie die verzahnte Kontaktfläche und die daraus resultierenden erhöhten Schubwiderstände abzubilden. Umsetzung mit Hilfe des sehr effizienten impliziten Closest Point Projection Iterationsverfahren auf Basis einer 3-D Kontaktformulierung (Kontakt-Elemente). 2-D Implementation in die Forschungssoftware SLang des Instituts für Strukturmechanik der Bauhaus-Universität Weimar. Verifikation der Modellcharakteristik mit signifikanten Belastungszuständen. Zwei Anwendungsbeispiele zur Rissfortschrittsberechnung sind unter Verwendung des umgesetzten Materialgesetzes zum Einsatz gekommen. Untersuchungen hinsichtlich der Materialparameter wurden vorgenommen.
Untersuchung zum effizienten Schalungseinsatz bei häufig vorkommenden Sonderaufgaben im Schalungsbau
(2005)
Der Schalungseinsatz auf einer Ortbetonbaustelle hat wesentlichen Einfluß auf die Wirtschaftlichkeit einer Baumaßnahme. Der Arbeitsvorbereitung mit der Auswahl des geeigneten Schalungssystems kommt dabei die größte Bedeutung zu. In Ergänzung zu den Systemschalungen existieren einige Sonderlösungen der Schalungsanbieter, deren Einsatz sich bereits bei wenigen Nutzungen als kostengünstig erweisen kann. Der Kostenvergleich zwischen verschiedenen Varianten ist von vielen Faktoren abhängig. Da jedes Bauvorhaben ein Unikat darstellt, können keine allgemeingültigen Aussagen oder Berechnungen angestellt werden.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der last- und zeitabhängigen Verformungseigenschaften und der Steifigkeits-Degradation von unbewehrtem Normalbeton und hochfestem, selbstverdichtendem Beton (SVB). Neben experimentellen Untersuchungen werden numerische Simmulationen des Beton-Kriechverhaltens unter kurzzeitiger, quasi-statischer, uniaxialer Druckbeanspruchung vorgenommen.
Mit dieser Diplomarbeit werden die wichtigsten limnologischen Wechselwirkungen eines Gewässer- Ökosystems und der beteiligten Organismen ausführlich dargestellt. Dabei ist der „Nährstoffabbau“ speziell des Phosphors durch Plankton, Algen und Wasserpflanzen sowie dessen Einflussfaktoren wesentlich. In diesem Zusammenhang spielt die Phosphordynamik zwischen Gewässer, Sediment und Organismen eine entscheidende Rolle. Anhand ausgewählter Thüringer Badegewässer wird der Zusammenhang zwischen dem Phosphorgehalt und der Cyanobakterien- Dominanz untersucht. Von Bedeutung sind weitere hygienische Parameter der Wasserqualität. Mögliche Aussagen bei der Analyse der oligotrophen, natürlichen Badegewässer werden auf die naturnahen Schwimm- und Badeteiche übertragen. Da Schwimm- und Badeteiche künstlich errichtete Bauwerke sind, sind Aspekte der anthropogenen Nutzung bedeutsam. Hierzu zählen die Bauformen bzw. Größenver-hältnisse und der Technikeinsatz. Es wird geprüft, ob aufgrund vorliegender Daten be-züglich des Eintrages und der Elimination eine Bilanzierung des Phosphors in Schwimm- und Badeteichanlagen möglich ist. Als Ergebnis dieser Diplomarbeit werden Empfehlungen zu Errichtung und Betrieb von Schwimm- und Badeteichen erarbeitet, die den überwachungsbedürftigen Parameter Phosphor betreffen.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Monitoring systems usually used to control tailings, primarily pore water pressure gages and observation wells, are not self evidently representative for mechanical considerations. Therefore an effective risk assessment and risk management is necessary to get additional information to determine indicators for critical situations. Several tailings observations showed an alteration in chemical and radiological parameters during rising saturation induced by climatic changes. These parameters are appropriate to stress indices. A systematically research on correlations between changes in stress indices and the phreatic surface is part of the research activities of the Bauhaus University in Weimar. The contribution presents the principle of this kind of monitoring, the soil mechanical background, details of the equipment and first results.
Ziel der Arbeit ist es, die Breite des Aufgabengebietes Bauen im Bestand zu analysieren und grafisch aufzuwerten. In einem Verantwortlichkeitskataster werden in Anlehnung an die HOAI die Aufgaben während eines Bestandsvorhabens den einzelnen Beteiligten zugeordnet. Die Bestandsaufnahme als entscheidenden Bestandteil eines Bestandsprojektes wird näher erläutert und beschrieben. Einige Besonderheiten in der Vorbereitung und Überwachung eines Vorhabens im Bestand werden in Ansätzen zu einem Leitfaden zur Ingenieurtätigkeit zusammengefasst.
Die projektgetriebene Bauwirtschaft wird dominiert durch einen branchenspezifischen Preiswettbewerb. Eine wissenschaftliche Auseinandersetzung mit den Gründen für diesen Preiswettbewerb und den Voraussetzungen für einen Leistungswettbewerb hat bislang kaum stattgefunden. Im Rahmen der vorliegenden Dissertation werden zunächst die bauwirtschaftlichen Besonderheiten hinsichtlich Bauwerk, Bauleistungen und Branchenstruktur, untersucht und die Auswirkung auf den Wettbewerb herausgearbeitet. Ziel einer Strategie des nicht preisbasierten Wettbewerbs muss es demnach insbesondere sein, die Risiken der Transaktion für den Kunden zu minimieren und die Nutzeneinschätzung des Kunden vor dem Kauf zu verbessern. In der vorliegenden Arbeit wird erstmals ein Grundmodell entwickelt, welches sämtliche Treiber eines Leistungswettbewerbs integriert. Grundlage hierfür sind die wirtschaftswissenschaftlichen Theorien der Produktdifferenzierung und der Differenzierungsstrategie aus den Bereichen Volkswirtschaftslehre, Marketing Management und Strategisches Management. Die Bestandteile des Modells auf Projektebene sind Qualität, Zeit und Varietät. Die Treiber auf Unternehmensebene sind Innovation und Marke. Neben den unmittelbaren Treibern des Leistungswettbewerbs wirken sich die Unternehmensstrukturen und Kernkompetenzen, die Zielmarktbestimmung und das Strategische Sourcing mittelbar auf die Performance des Unternehmens aus. Die Wirkungsweise der Treiber und die jeweilige Bedeutung für einen Leistungswettbewerb in der Bauwirtschaft werden im einzelnen dargestellt und erläutert. Die Dissertation stellt eine Grundlagenarbeit zum Thema Wettbewerbsstrategien in der Bauwirtschaft dar. Die Aspekte des Leistungswettbewerbs, in Abgrenzung zum Preiswettbewerb, stehen im Mittelpunkt der Arbeit. Im Zuge der Diskussion der Einzelaspekte wird qualitativ nachgewiesen, dass die Umsetzung einer Strategie des nicht preisbasierten Wettbewerbs in der Bauwirtschaft, einen positiven Einfluss auf die Performance des Unternehmens hat.
Die vorliegende Arbeit beschäftigt sich mit der dynamischen Analyse der Sprottetalbrücke infolge aufgetretener Asphaltschäden. Sie beinhaltet die Erstellung eines FE-Modells, der Darstellung der theoretischen Grundlagen der Dynamik sowie die Auswertung von berechneten Eigenformen und Asphaltspannungen unter Berücksichtigung der derzeit gültigen Normen.
Beim Entwurf signalgesteuerter Knotenpunkte werden Signalsteuerung und Knotenpunktgestaltung aufeinander abgestimmt. Die bauliche Gestaltung vorfahrtgeregelter und lichtsignalgesteuerter Knotenpunkte weist demnach Differenzen auf. Ein Ausfall der LSA wie auch das Abschalten dieser während der Nachtstunden stellt eine Abweichung vom ursprünglichen Betriebskonzept dar. Zwei maßgebliche Anforderungen an Knotenpunkte in Hinblick auf die Verkehrssicherheit stellen die Erkennbarkeit und Begreifbarkeit des Knotenpunktes dar. Es wurde ein Kriterienkatalog entwickelt, der die bauliche Ausbildung des Knotenpunktes speziell hinsichtlich dieser beiden Aspekte untersucht und somit Mängel in der Verkehrssicherheit von Knotenpunkten mit ausgefallener und abgeschalteter LSA aufzeigt. Hierbei werden sowohl allgemeingültige Defizite als auch solche, die aus der unterschiedlichen Ausbildung entsprechend der geplanten Verkehrsregelung resultieren, aufgezeigt. Der entwickelte Kriterienkatalog diente als Leitfaden bei der Untersuchung von sechs lichtsignalgesteuerten Knotenpunkten im Stadtgebiet Weimar. Entsprechend der hier aufgezeigten Defizite wurden Maßnahmen entwickelt, die diese Mängel beseitigen sollen und zum Teil auf andere Knotenpunkte übertragbar sind.
Die Kurzfassung ist auf deutsch und die ganze Arbeit + Anhänge auf französisch.
AUSGANGSPUNKT
Die Spannung zwischen Sanierung und sozialem Wandel Nach dem Wegzug der mittleren Schichten aus den Innenstädten gibt es seit mehr als 50 Jahren ein öffentliches Bestreben, europäische Städte zu sanieren. Damit soll die Attraktivität dieser Stadtteile gesteigert sowie Investitionen gefördert werden. In mehreren wissenschaftlichen Arbeiten und empirischen Untersuchungen über die Ergebnisse dieser Sanierungspolitik haben Forscher vor den negativen Effekten für die Anwohner gewarnt und den Begriff der „Gentrifizierung“ eingeführt. Die Aufwertung der Innenstädte sei mit einem sozialen Umstrukturierungsprozess durch den wachsenden Druck am Wohnungsmarkt und eine kontinuierliche Mietpreiserhöhung verbunden.
FRAGESTELLUNG
Die Sanierungsprojekte, die in den 80er-Jahren im Rahmen der I.B.A. entwickelt wurden, sind international als „good practice“ bezeichnet worden. Die zwölf Leitsätze der „behutsamen Stadterneuerung“ sind das Vorzeigekind der deutschen Sanierungspraxis. Diese Erfahrungen wurden nach dem Fall der Mauer auf die Situation im Prenzlauer Berg übertragen. Die vorliegende Arbeit (in französischer Sprache) ist der Frage nachgegangen, inwiefern die behutsame Stadterneuerung in Berlin Prenzlauer Berg als Modell städtebaulicher Politik im Altbaugebiet dienen kann? „Modell“ ist dabei nicht als Reproduktionsmodell, sondern im Sinne von „Vorbild“ gemeint. ...
Wolkenbotschaft
(2005)
Lange Zeit, so scheint es, machten die Wolken und ein wolkiger Himmel den Schlaf der Physik. Als nämlich Galileo Galilei im März 1610 und mit einiger Hast seinen >Sidereus Nuncius<, seine Sternenbotschaft oder seinen Sternenboten publizierte, musste er mit dem Protokoll langer und schlafloser Winternächte auch einige Pausen, einige Lücken und Leerstellen verzeichnen. Denn dieser Sternenbote, der die astronomische Nachricht von neuen und bisher ungesehenen Gestirnen vom nächtlichen Himmel auf die Erde herabholte, wurde verschiedentlich und auf empfindliche Weise gestört. ...
Central point of this study is to evaluate stiffness properties of pavement, specifically the E or G- modulus determined by different testing methods. Stiffness of soil is both stress and strain dependent property and otherwise different methods usually affect the material in different ways. The Young’s modulus E0 and shear modulus G0 correspond to the very small strain level are regarded as the initial or maximal stiffness of the relevant stress-strain curves of a given material. The modulus decay curve is called the degradation curve, which also reviewed in this study. With the results of different measurement methods applied for a reclaimed mining site in Klettwitz for determining of stiffness parameter of subsoil, author have tried to find a unification between the results considering the relationship between stiffness parameter and the range of strain levels. The testing methods executed at plant S9 in Klettwitz-Südfeld are: laboratory oedometer test, static plate load test, dynamic plate load test, and seismic testing methods (spectral analysis of surface wave, SASW). Some results getting from this study are: one receives different absolute values of stiffness parameter from different testing methods. The reason is different testing methods produce different range of strain levels in soil during their execution. Conventional and non-destructive testing methods should be combined together for investigating of subsoil characteristics. This means, the soil parameters must be adjusted to the current range of strain level. Especially for settlement calculation it is recommended that different values of stiffness modulus, Es, resulted by different testing methods should be simultaneously utilized along the depth beneath loading surface. Accuracy for determining of stiffness degradation curves depends a lot on the determination of maximal stiffness parameters (E0, G0) at the range of very small strain level, and it still requires much further studies.
Das Ziel der vorliegenden Diplomarbeit war es, „Untersuchungen hinsichtlich des Einflusses von Phase Change Materials auf die Raumlufttemperatur“ durchzuführen und anschließend die Ergebnisse auszuwerten. Dabei galt es, thermodynamische Grundlagen zu erläutern sowie den derzeitigen Stand der Forschung darzulegen. Dies wurde umfassend bearbeitet, allerdings kann hierbei aufgrund des Umfangs und der Vielfalt im Bereich der internationalen PCM-Forschung kein Anspruch auf Vollständigkeit erhoben werden. Ein Hauptteil dieser Arbeit bestand darin, den Versuchsaufbau der Referenzräume im Eiermann-Bau in Apolda als Grundlage für spätere Messungen detailliert zu beschreiben. Dabei wurde auf die gesamte Messanlage, die eingebrachten PCM sowie auf daraus resultierende physikalische Kenngrößen ausführlich eingegangen. Es galt, geometrische, chemische und physikalische Einflüsse einzuschätzen, aber auch Schwachstellen aufzudecken, um die später folgenden Messreihen exakt auswerten zu können. Als kritisch einzuschätzende Größe fiel dabei besonders das eingebrachte Salzgemisch auf, welches hinsichtlich des Schmelz- und Kristallisationsbereiches als kaum beurteilbar auffiel. Dies konnte auch nach mehreren Untersuchungen, hier ist insbesondere die dynamische Differenzkalorimetrie zu nennen, nicht hinreichend geklärt werden. Basierend auf diesen Erkenntnissen wurden vergleichende Messreihen durchgeführt, welche durch verschiedene Luftwechselraten gestaltet wurden. Im Maximum konnte dabei im PCM-konditionierten Raum eine Reduktion der Temperatur um 6 K erreicht werden. Dabei muss allerdings berücksichtigt werden, dass diese Differenz größtenteils auf die thermische Masse des Salzgemischs zurückgeführt werden kann. Eine abschließende Messung ohne Salzgemisch zeigte, dass aufgrund des latenten Wärmespeichervermögens des PCM-Putzes lediglich eine thermische Differenz von 2 K erreicht werden kann. Hinsichtlich der Luftwechselrate ist anzumerken, dass die erwartete, vergleichsweise zügige Auskühlung trotz Lüftung in der Praxis nicht nachvollzogen werden konnte. Zur Auswertung der gewonnenen Messwerte galt es, das am Lehrstuhl Bauphysik vorhandene mathematische Minimalmodell auf die am Objekt vorhandenen Randbedingungen anzupassen. Aus den Datenwolken der Atmosphärentemperatur sowie der Globalstrahlung mussten Funktionen approximiert werden, da diese äußeren Zwänge einen entscheidenden Einfluss auf den Verlauf der Innenraumtemperatur ausüben. Die Ergebnisse der Berechungen des Temperaturverlaufs können als zufrieden stellend betrachtet werden, jedoch wurde deutlich, dass ein genaues Nachstellen nicht möglich ist. Dies ist vor allem auf die Tatsache zurückzuführen, dass das Minimalmodell lediglich eine Beschreibung der wesentlichen Prozesse mathematisch abbildet. Eine kritische Auseinandersetzung hinsichtlich allgemeiner Standpunkte als auch der Anwendbarkeit auf die Referenzräume wurde abschließend diskutiert.
In der Gründerzeit der amerikanischen Filmindustrie gab es ein paar Jahre, in denen Hollywood geradezu im Raum schwelgte: in den Weiten der vielfältigen kalifornischen Landschaft und in den stetig wachsenden Ausmaßen der dort gebauten Kulissen, als deren Höhepunkt das Babylon-Set für D. W. Griffiths 'Intolerance' (USA 1916) gelten kann. Noch war das Zelluloid zu lichthungrig und die Scheinwerfer zu schwach, um die Aufnahmen vollständig in den ebenso begrenzten wie kontrollierbaren Innenraum der barackenhaften Filmstudios zu verlegen. Aber auch wenn die technische Entwicklung diesen Schritt bald ermöglichte, stand ihm das Verlangen des jungen Mediums entgegen, seine Eigenständigkeit gegenüber Kammerspielen des Theaters unter Beweis zu stellen. ...
Aus theoretischen Grundlagen zu Beschreibungsmöglichkeiten dreidimensionaler Geometrieobjekte und deren Anwendung in bestehenden Lösungen aus CAD, GIS und VR, wird ein Konzept zu dreidimensionalen Analysen erarbeitet. Dieses Konzept beinhaltet Objektanalysen wie Volumen, Schwerpunkt und Trägheitsmomente, Beziehungsanalysen wie Berührt, Überlappt, im Abstand oder gleiche Form sowie Verschneidungsanalysen über die Mengenoperationen Schnitt, Differenz und Vereinigung.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.