Refine
Document Type
- Master's Thesis (46)
- Part of a Book (17)
- Conference Proceeding (12)
- Doctoral Thesis (12)
- Article (9)
- Diploma Thesis (4)
- Report (3)
- Book (2)
- Preprint (1)
Institute
- Professur Baubetrieb und Bauverfahren (21)
- Professur Medienphilosophie (15)
- Professur Grundbau (8)
- Institut für Strukturmechanik (ISM) (6)
- Professur Verkehrsplanung und Verkehrstechnik (6)
- Professur Baumechanik (5)
- Professur Bodenmechanik (5)
- Professur Stahlbau (5)
- Professur Geschichte und Theorie künstlicher Welten (4)
- Professur Siedlungswasserwirtschaft (4)
- Junior-Professur Augmented Reality (3)
- Professur Bauphysik (3)
- Professur Baustatik und Bauteilfestigkeit (3)
- Professur Verkehrsbau (3)
- Professur Holz- und Mauerwerksbau (2)
- Professur Massivbau I (2)
- Professur Wasserbau (2)
- Institut für Europäische Urbanistik (1)
- Professur Baumanagement und Bauwirtschaft (1)
- Professur Betriebswirtschaftslehre im Bauwesen (1)
- Professur Computergestütztes kooperatives Arbeiten (1)
- Professur Informatik im Bauwesen (1)
- Professur Informations- und Wissensverarbeitung (1)
- Professur Massivbau II (1)
- Professur Raumplanung und Raumforschung (1)
- Professur Tragwerkslehre (1)
- Universitätsbibliothek (1)
Keywords
- 2005 (16)
- Medien (16)
- Archiv für Mediengeschichte (15)
- Geisteswissenschaften (15)
- Kulturphilosophie (14)
- Arbeitsschutz (13)
- Baustelle (11)
- Angewandte Mathematik (6)
- Baubetriebslehre (6)
- Strukturmechanik (6)
Year of publication
- 2005 (106) (remove)
Die Kurzfassung ist auf deutsch und die ganze Arbeit + Anhänge auf französisch.
AUSGANGSPUNKT
Die Spannung zwischen Sanierung und sozialem Wandel Nach dem Wegzug der mittleren Schichten aus den Innenstädten gibt es seit mehr als 50 Jahren ein öffentliches Bestreben, europäische Städte zu sanieren. Damit soll die Attraktivität dieser Stadtteile gesteigert sowie Investitionen gefördert werden. In mehreren wissenschaftlichen Arbeiten und empirischen Untersuchungen über die Ergebnisse dieser Sanierungspolitik haben Forscher vor den negativen Effekten für die Anwohner gewarnt und den Begriff der „Gentrifizierung“ eingeführt. Die Aufwertung der Innenstädte sei mit einem sozialen Umstrukturierungsprozess durch den wachsenden Druck am Wohnungsmarkt und eine kontinuierliche Mietpreiserhöhung verbunden.
FRAGESTELLUNG
Die Sanierungsprojekte, die in den 80er-Jahren im Rahmen der I.B.A. entwickelt wurden, sind international als „good practice“ bezeichnet worden. Die zwölf Leitsätze der „behutsamen Stadterneuerung“ sind das Vorzeigekind der deutschen Sanierungspraxis. Diese Erfahrungen wurden nach dem Fall der Mauer auf die Situation im Prenzlauer Berg übertragen. Die vorliegende Arbeit (in französischer Sprache) ist der Frage nachgegangen, inwiefern die behutsame Stadterneuerung in Berlin Prenzlauer Berg als Modell städtebaulicher Politik im Altbaugebiet dienen kann? „Modell“ ist dabei nicht als Reproduktionsmodell, sondern im Sinne von „Vorbild“ gemeint. ...
50 Jahre Dissertationen an der Hochschule für Architektur und Bauwesen und der Bauhaus-Universität
(2005)
Diese Veröffentlichung dokumentiert über einen Zeitraum von 50 Jahren die an unserer Hochschule entstandenen Dissertationen, deren Zahl sich auf 1100 beläuft. Damit werden ein wichtiger Teil der Hochschulgeschichte Weimars und zugleich ein Teil der Hochschulgeschichte der DDR aufgearbeitet. Die Bibliographie liefert Bausteine für eine Geschichte der Disziplinen und Fakultäten an der Weimarer Hochschule und darüber hinaus für eine Sozialgeschichte der Wissenschaftler in Thüringen. So hat z. B. eine Vielzahl der heute in leitender Stellung an der Universität Tätigen – sowohl Professoren als auch Mitarbeiter der Universitätsverwaltung – in Weimar promoviert. Das lässt sich auch ausdehnen auf Personen in führenden wissenschaftlichen, politischen oder wirtschaftlichen Positionen in der Region oder im Ort. Hier könnte die vorliegende Bibliographie Anstoß für weitere Forschungen geben.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Monitoring systems usually used to control tailings, primarily pore water pressure gages and observation wells, are not self evidently representative for mechanical considerations. Therefore an effective risk assessment and risk management is necessary to get additional information to determine indicators for critical situations. Several tailings observations showed an alteration in chemical and radiological parameters during rising saturation induced by climatic changes. These parameters are appropriate to stress indices. A systematically research on correlations between changes in stress indices and the phreatic surface is part of the research activities of the Bauhaus University in Weimar. The contribution presents the principle of this kind of monitoring, the soil mechanical background, details of the equipment and first results.
The report is part of the research project 'TAILSAFE'. The project is supported by the european union. Basics of design and investigation procedures are presented within the report. Furthermore possible applications of design and investigation procedures are evaluated concerning to a smooth work during all using phases of a tailings facility, that is the planning and execution. Finally recomendations are given to optimise the handling with significant standards.
Spaziergänge zu den Wolken. Gerhard Langs 'Cloud Walks' und Gerhard Langs Phantombilder von Wolken
(2005)
>Die gegenwärtige Wissenschaft stützt sich auf das Prinzip der Induktion: die meisten Menschen haben ein Phänomen oft genug einem anderen vorausgehen oder nachfolgen sehen, und schon schliessen sie daraus, dass es immer so sein muss. Nun trifft dies aber nur meistens zu, hängt vom Standpunkt ab und unterliegt dem Gesetz der Bequemlichkeit<, schreibt Alfred Jarry in seinem 1898 fertig gestellten Roman 'Gestes et opinions du doctour Faustroll, pataphysicien', der unumstößlich erscheinende Grundsätze und zeitgenössische Theorien der Wissenschaft phantasiereich aus den Angeln hebt. ...
Klangwolken
(2005)
In einer Musik, die ihren Rückhalt nicht mehr in überlieferten Formen sucht, verstehen sich Anfänge nicht von selbst. Richard Wagner hat sich dieser Schwierigkeit ästhetischer Formsetzung auf eine ebenso einfache wie elegante Weise entledigt. Das Vorspiel seiner Oper 'Das Rheingold' (1854) hört über 136 Takte hinweg nicht auf anzufangen. ... Der Anfang des 'Rheingoldes' ist scheinbar den Gesetzen der Natur abgelauscht. ...
Wenn Wolken als Grenzfiguren zwischen dem Darstellbaren und dem Nicht-Darstellbaren gerade von der bildenden Kunst immer wieder als Herausforderung begriffen worden sind, dieses Terrain mit ihren Mitteln zu erforschen, so ist es im 20. Jahrhundert allen voran der Surrealismus, der sie in diesem Sinne für sich entdeckt. Dabei geht es nicht allein um ihre Gestaltqualitäten und den Deutungshorizont, den diese eröffnen. Sie erweisen sich vielmehr als ideales Medium für ein künstlerisches Programm, das sich für das Informe interessiert und für den Prozess, das eine Ästhetik der Wandelbarkeit und der Verwandlung im Experiment mit den künstlerischen Mitteln verfolgt, die zugleich mit dem Streben nach mentaler Grenzüberscheitung korrespondieren. ...
>The dust and smoke of continents in flame will defeat the light of the sun, and utter darkness will reign anew upon the world. [...] Eternal snows will cover the Sahara desert; the vast rain forests of the Amazon, destroyed by hail, will disappear from the face of the planet, and the age of rock and heart transplant will revert to ist glacial infancy.< Diese eindringliche Beschreibung der Folgen eines nukearen Schlagabtausches stammt aus einer Rede, die der Literaturnobelpreisträger Gabriel García Márquez am 6. August 1986, dem Jahrestag der Bombardierung Hiroshimas, vor einer Versammlung von Politikern, Intellektuellen und Umweltaktivisten gehalten hat. Die hier so dramatisch geschilderte Vorstellung, einem Atomkrieg würde eine neue Eiszeit, ein so genannter 'nuklearer Winter' folgen, war erst drei Jahre zuvor von einer Gruppe von Wissenschaftlern um den Klimaforscher Richard Turco und dem Astronomen Carl Sagan der Öffentlichkeit vorgestellt worden. ...
Alles beginnt in Francis Ford Coppolas 'Bram Stokers's Dracula' mit, alles emergiert aus der Wolke: rechte Hälfte der Einstellung hell, linke dunkel, wölkt sich Dunst um die Kuppel mit dem christlichen Steinkreuz, verdichtet, schickt sich an, den Buchstaben des Gesetzes der westlich-abendländischen Hemisphäre zu verschlingen, schluckt ihn schließlich ganz, bevor das aufgerichtete Kreuz, paradigmatisches Zeichen des Christentums; Phallus, herausragender Signifikant des Symbolischen und damit der Ära der bewegten Lettern Gutenbergs, auf rotem Grund zerschellt. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
'Vielleicht sollten wir aufhören, darüber zu streiten, ob die dräuenden, jagenden Wolken seiner Bergfilme die gleichen waren, aus denen Hitlers Flugzeuge am Anfang des Reichsparteitagsfilms nach Nürnberg herabschwebte.' Dieser Stoßseufzer Matthias Fancks, seines Zeichens Enkel des berühmtesten Protagonisten des Genre Bergfilm in der Weimarer Republik, Dr. Arnold Fanck, dürfte auf absehbare Zeit seiner Erfüllung harren. Als zu wirkungsmächtig hat sich jenes Verdikt erwiesen, das hier zugleich noch einmal aufgerufen wird, nämlich Siegfried Kracauers (retrospektive) Deutung des Bergfilms Fanck'scher Prägung - und auch und besonders deren Wolkenbilder - als einer Präfiguration faschistischer Ästhetik, wie sie in dem als >messianische Ankunft< inszenierten Flug Hitlers durch die Wolkendecke über Nürnberg in Leni Riefenstahls einschlägigem Propagandafilm ihren sinnfälligen Kulminationspunkt gefunden habe ...
In der Gründerzeit der amerikanischen Filmindustrie gab es ein paar Jahre, in denen Hollywood geradezu im Raum schwelgte: in den Weiten der vielfältigen kalifornischen Landschaft und in den stetig wachsenden Ausmaßen der dort gebauten Kulissen, als deren Höhepunkt das Babylon-Set für D. W. Griffiths 'Intolerance' (USA 1916) gelten kann. Noch war das Zelluloid zu lichthungrig und die Scheinwerfer zu schwach, um die Aufnahmen vollständig in den ebenso begrenzten wie kontrollierbaren Innenraum der barackenhaften Filmstudios zu verlegen. Aber auch wenn die technische Entwicklung diesen Schritt bald ermöglichte, stand ihm das Verlangen des jungen Mediums entgegen, seine Eigenständigkeit gegenüber Kammerspielen des Theaters unter Beweis zu stellen. ...
Wolken modellieren
(2005)
Wolkenformationen und ihre Verwandlungen auf bilddigitalem Weg zu simulieren und in klimatologische Studien zu integrieren, ist eine der komplexesten Aufgaben der aktuellen Umweltphysik. Die Schwierigkeit erklärt sich zum einen sicherlich aus der Konturlosigkeit der nebulösen Gebilde - ihre formale Instabilität und dynamische Prozessualität widerspricht und widersetzt sich der Prognosetätigkeit der Meteorologen bzw. Klimatologen. Immer wieder stellt sich dabei die Frage nach der Codier- und Fixierbarkeit der diffusen Formverläufe, nach der Umrissbildung und Bestimmung eines prinzipiell ungeklärten Figur-Grund-Verhältnisses. Im Folgenden soll die Problemstellung komplexer Simulationstechniken auf klimatologische Bildgebungsverfahren angewandt werden. ...
Norbert Wieners >Cybernetics> von 1948 geht aus von einem Vergleich zählender, durchmusternder Astronomie mit der neuen, statistikbasierten Meteorologie. Das Buch beginnt mit der ersten Strophe von >Weißt du vieviel Sternlein stehen<. ... Dieses Liedchen ist ein interessantes Thema für die Philosophie und die Geschichte der Wissenschaft, indem es zwei Wissenschaften nebeneinander stellt, die einerseits sich beide mit der Beobachtung des Himmels über uns beschäftigen, andererseits aber beinahe in jeder Beziehung höchst gegensätzlich sind. Die Astronomie ist die älteste der Wissenschaften, während die Meteorologie zu den jüngsten zählt, die erst anfangen, den Namen zu verdienen. ...
Wolkenbotschaft
(2005)
Lange Zeit, so scheint es, machten die Wolken und ein wolkiger Himmel den Schlaf der Physik. Als nämlich Galileo Galilei im März 1610 und mit einiger Hast seinen >Sidereus Nuncius<, seine Sternenbotschaft oder seinen Sternenboten publizierte, musste er mit dem Protokoll langer und schlafloser Winternächte auch einige Pausen, einige Lücken und Leerstellen verzeichnen. Denn dieser Sternenbote, der die astronomische Nachricht von neuen und bisher ungesehenen Gestirnen vom nächtlichen Himmel auf die Erde herabholte, wurde verschiedentlich und auf empfindliche Weise gestört. ...
Während der Sommermonate der Jahre 1821 und 1822 ging der englische Landschaftsmaler John Constable (1776-1837) jeden Morgen von seinem Haus in Lower Terrace am Südende des Dorfes Hamstead zu den Hängen am Prospect Walk, um Wolkenbilder zu malen. Täglich kehrte er an denselben Ort zurück, um ein Bild des Himmels im Verlauf der Zeit zu malen. Später wurden die mehr als hundert losen Blätter als >Cloud Studies< zusammengefasst und gehören seither zu den am meisten bewunderten Werken der zeitgenössischen Landschaftsmalerei und zum Bilderkanon der europäischen Romantik. Constable war keineswegs der erste Maler, der Wolken nach der Natur malte, aber er gehörte zu den ersten, der die handwerklichen Techniken einer alten Kunst - der Malerei - mit den Definitionen der Meteorologie - einer jungen Wissenschaft - verknüpfte. ...
Eignet sich das perspektivische System zur Repräsentation von Phänomenen, die die gewohnten Maße der menschlichen Ordnung sprengen? Anders gesagt: Bieten göttliche Handlungen, die diese Welt auf das Jenseits hin öffnen, und allgemeiner mystische - oder sogar nur physische - Begegnungen zwischen Himmel und Erde, bieten sie Stoff zur Repräsentation? ...
Schleierwolken des Realen
(2005)
In seinem XX. Seminar hat Jacques Lacan ein Modell vorgeschlagen, zu dem seine eigenen Erläuterungen relativ kryptisch blieben. An den Ecken eines Dreiecks sind die drei Kategorien des Symbolischen, des Imaginären und des Realen angeordnet, an den Seiten des Dreiecks finden sich drei Reste des Realen ... Die Wolke, so wie sie im Folgenden auftritt, lässt sich dem Kontinuum des Realen zuordnen, das im Symbolischen nicht aufgehen kann. Über die drei realen Reste wird es aber möglich, in einzelnen historischen Episoden Wolkeneffekter auszumachen und zu benennen. ...
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
Die projektgetriebene Bauwirtschaft wird dominiert durch einen branchenspezifischen Preiswettbewerb. Eine wissenschaftliche Auseinandersetzung mit den Gründen für diesen Preiswettbewerb und den Voraussetzungen für einen Leistungswettbewerb hat bislang kaum stattgefunden. Im Rahmen der vorliegenden Dissertation werden zunächst die bauwirtschaftlichen Besonderheiten hinsichtlich Bauwerk, Bauleistungen und Branchenstruktur, untersucht und die Auswirkung auf den Wettbewerb herausgearbeitet. Ziel einer Strategie des nicht preisbasierten Wettbewerbs muss es demnach insbesondere sein, die Risiken der Transaktion für den Kunden zu minimieren und die Nutzeneinschätzung des Kunden vor dem Kauf zu verbessern. In der vorliegenden Arbeit wird erstmals ein Grundmodell entwickelt, welches sämtliche Treiber eines Leistungswettbewerbs integriert. Grundlage hierfür sind die wirtschaftswissenschaftlichen Theorien der Produktdifferenzierung und der Differenzierungsstrategie aus den Bereichen Volkswirtschaftslehre, Marketing Management und Strategisches Management. Die Bestandteile des Modells auf Projektebene sind Qualität, Zeit und Varietät. Die Treiber auf Unternehmensebene sind Innovation und Marke. Neben den unmittelbaren Treibern des Leistungswettbewerbs wirken sich die Unternehmensstrukturen und Kernkompetenzen, die Zielmarktbestimmung und das Strategische Sourcing mittelbar auf die Performance des Unternehmens aus. Die Wirkungsweise der Treiber und die jeweilige Bedeutung für einen Leistungswettbewerb in der Bauwirtschaft werden im einzelnen dargestellt und erläutert. Die Dissertation stellt eine Grundlagenarbeit zum Thema Wettbewerbsstrategien in der Bauwirtschaft dar. Die Aspekte des Leistungswettbewerbs, in Abgrenzung zum Preiswettbewerb, stehen im Mittelpunkt der Arbeit. Im Zuge der Diskussion der Einzelaspekte wird qualitativ nachgewiesen, dass die Umsetzung einer Strategie des nicht preisbasierten Wettbewerbs in der Bauwirtschaft, einen positiven Einfluss auf die Performance des Unternehmens hat.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
The effective and efficient cooperation in communities and groups requires that the members of the community or group have adequate information about each other and the environment. In this paper, we outline the basic challenges of managing awareness information. We analyse the management of awareness information in face-to-face situations, and discuss challenges and requirements for the support of awareness management in distributed settings. Finally, after taking a look at related work, we present a simple, yet powerful framework for awareness management based on constraint pattern named COBRA.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
Among all imaging techniques that have been invented throughout the last decades, computer graphics is one of the most successful tools today. Many areas in science, entertainment, education, and engineering would be unimaginable without the aid of 2D or 3D computer graphics. The reason for this success story might be its interactivity, which is an important property that is still not provided efficiently by competing technologies – such as holography. While optical holography and digital holography are limited to presenting a non-interactive content, electroholography or computer generated holograms (CGH) facilitate the computer-based generation and display of holograms at interactive rates [2,3,29,30]. Holographic fringes can be computed by either rendering multiple perspective images, then combining them into a stereogram [4], or simulating the optical interference and calculating the interference pattern [5]. Once computed, such a system dynamically visualizes the fringes with a holographic display. Since creating an electrohologram requires processing, transmitting, and storing a massive amount of data, today’s computer technology still sets the limits for electroholography. To overcome some of these performance issues, advanced reduction and compression methods have been developed that create truly interactive electroholograms. Unfortunately, most of these holograms are relatively small, low resolution, and cover only a small color spectrum. However, recent advances in consumer graphics hardware may reveal potential acceleration possibilities that can overcome these limitations [6]. In parallel to the development of computer graphics and despite their non-interactivity, optical and digital holography have created new fields, including interferometry, copy protection, data storage, holographic optical elements, and display holograms. Especially display holography has conquered several application domains. Museum exhibits often use optical holograms because they can present 3D objects with almost no loss in visual quality. In contrast to most stereoscopic or autostereoscopic graphics displays, holographic images can provide all depth cues—perspective, binocular disparity, motion parallax, convergence, and accommodation—and theoretically can be viewed simultaneously from an unlimited number of positions. Displaying artifacts virtually removes the need to build physical replicas of the original objects. In addition, optical holograms can be used to make engineering, medical, dental, archaeological, and other recordings—for teaching, training, experimentation and documentation. Archaeologists, for example, use optical holograms to archive and investigate ancient artifacts [7,8]. Scientists can use hologram copies to perform their research without having access to the original artifacts or settling for inaccurate replicas. Optical holograms can store a massive amount of information on a thin holographic emulsion. This technology can record and reconstruct a 3D scene with almost no loss in quality. Natural color holographic silver halide emulsion with grain sizes of 8nm is today’s state-of-the-art [14]. Today, computer graphics and raster displays offer a megapixel resolution and the interactive rendering of megabytes of data. Optical holograms, however, provide a terapixel resolution and are able to present an information content in the range of terabytes in real-time. Both are dimensions that will not be reached by computer graphics and conventional displays within the next years – even if Moore’s law proves to hold in future. Obviously, one has to make a decision between interactivity and quality when choosing a display technology for a particular application. While some applications require high visual realism and real-time presentation (that cannot be provided by computer graphics), others depend on user interaction (which is not possible with optical and digital holograms). Consequently, holography and computer graphics are being used as tools to solve individual research, engineering, and presentation problems within several domains. Up until today, however, these tools have been applied separately. The intention of the project which is summarized in this chapter is to combine both technologies to create a powerful tool for science, industry and education. This has been referred to as HoloGraphics. Several possibilities have been investigated that allow merging computer generated graphics and holograms [1]. The goal is to combine the advantages of conventional holograms (i.e. extremely high visual quality and realism, support for all depth queues and for multiple observers at no computational cost, space efficiency, etc.) with the advantages of today’s computer graphics capabilities (i.e. interactivity, real-time rendering, simulation and animation, stereoscopic and autostereoscopic presentation, etc.). The results of these investigations are presented in this chapter.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Mit der Einführung des semiprobabilistischen Sicherheitskonzeptes im Bauwesen wurden auch die Berechnungs- und Nachweisgrundlagen für Brücken neu definiert. Für die praktische Anwendung auf nationaler Ebene und die Präzisierung der Festlegungen des EC’s wurde ein ARS mit konsistenten Regeln zur Ermittlung von Kräften und Verformungen für Brückenlager erstellt. Schwerpunkt der Arbeit ist die Ermittlung von Kräften und Verformungen an stahlbewehrten Elastomerlagern nach den Normengrundlagen der DIN 1072 und des DIN-Fachbericht 101 (in Erweiterung durch den Entwurf des ARS vom 25.07.2005) an einem komplexen Spannbeton-Brückentragwerk, um einen Normenvergleich bezüglich des Sicherheitsniveaus anstellen zu können. Die Berechnungen wurden unter Verwendung des FE-Programmsystems ANSYS am nichtlinearen, komplexen Gesamtsystem durchgeführt. Im Vorfeld erfolgte dazu ein grundlegender Vergleich der Sicherheitskonzepte, der Lastannahmen und maßgebenden Lastfallkombinationen. Für die Windlastannahmen wurden die aktuellen Regelungen der DIN 1055-4 (2005-03) und der EN 1991-1-4 (2005-07) angewandt. Für die Vorbemessung und Nachweise des Spannbeton-Überbaus wurde ein InfoCAD-FE-Modell genutzt. Resultierend in der Lagerdimensionierung wurde anhand der Untersuchungsergebnisse die Vergleichsanalyse des jeweils erreichbaren Sicherheitsniveaus durchgeführt. Unter der betrachteten Bemessungssituation ist das erreichte Sicherheitsniveau nach neuer Normung vergleichbar mit dem des bisherigen Erfahrungsbereiches der DIN 1072.
Die Finite-Elemente-Methode entwickelte sich in den letzten beiden Jahrzehnten zu einem wichtigen und mächtigen Werkzeug für Berechnungen im Ingenieurwesen. Waren zu Beginn dieser Entwicklung nur kleine Probleme lösbar, sind mit der heutigen Rechentechnik Systeme mit vielen Tausend Freiheitsgraden berechenbar. Durch diese Entwicklung werden Berechnungen von sehr komplizierten Strukturen möglich. Besonders in der Automobilindustrie kann mit einem solchen Verfahren die Konstruktion von Strukturen verbessert und optimiert werden. Um gute Ergebnisse bei den Berechnungen erzielen zu können müssen Programme entwickelt werden, die entsprechende mathematische Methoden enthalten. Besonders im Maschinenbau, aber auch in anderen Ingenieurbereichen wie dem Bauwesen, werden häufig gekrümmte dünne Schalenstrukturen untersucht. Eine effiziente und logische Konsequenz daraus ist die Nutzung von Schalenelementen innerhalb der FE-Berechnungen. Wird nun noch Wert auf eine realitätsnahe Modellierung gelegt, dann lässt es sich oft nicht vermeiden von der im Bauwesen üblichen Theorie erster Ordnung in eine nichtlineare Berechnungstheorie zu wechseln. Hierfür sind Methoden notwendig, die es vermögen diese Theorie abzubilden. Sollen Schalenstrukturen mit großen Verschiebungen betrachtet werden, ist es notwendig, die linearen Elementformulierungen um die nichtlinearen Ansätze der Strukturmechanik zu erweitern. Die Grundlage dieser Formulierung stellt oft die Lagrange'sche Betrachtungsweise dar, die Berechnungen an Strukturen mit großen Verformungen zulässt. Die Inhalte dieser Formulierung werden in Abschnitt 1.5 dieser Arbeit betrachtet. Räumlich veränderlichen Strukturen, also solche mit großen Verformungen, sind im Allgemeinen mit großen Rotationen verknüpft. Diese Rotationen werden bei Volumenelementen durch die unterschiedliche Verschiebung zweier benachbarter Elementknoten realisiert. Bei der Formulierung von dünnen Schalenelementen wird hingegen die Struktur als gekrümmte Raumfläche betrachtet. Da in Dickenrichtung nur ein Elementknoten zur Verfügung steht, muss die Rotation über eine andere Formulierung in die Berechnung einfließen. Ansätze zu allgemeinen großen Rotationen werden im Kapitel 2 betrachtet und für den Einsatz in einer Elementformulierung vorbereitet. Für die beschriebenen Schalenstrukturen werden häufig vierknotige Elemente genutzt, da mit ihnen Strukturen in einfacher Weise abgebildet werden können. Ein weiterer Vorteil besteht in der sich ergebenden geringen Bandbreite der Elementmatrizen. Diese Elementgruppe besitzt jedoch bei der klassischen isoparametrischen Formulierung einen großen Nachteil, der in der Erzeugung von parasitären Steifigkeitsanteilen besteht. Um dieses Sperrverhalten, was auch als 'Locking' bekannt ist, zu minimieren wurden in der Vergangenheit verschiedene Ansätze entwickelt. Ein sehr effizienter Ansatz zur Minimierung des Transversalschublockings bei bilinearen Schalenelementen stellt das Verfahren der veränderten Verzerrungsverläufe auf Elementebene dar. Dieses Verfahren wird vielfach in der Literatur aufgegriffen und als 'Assumed-Natural-Strain'-Ansatz oder als 'Mixed Interpolation of Tensorial Components' bezeichnet. Dieses Verfahren wird im Abschnitt 1.6 vorgestellt. Das Programmsystem SLang ermöglicht eine Berechnung von Strukturen mittels der Finite-Elemente-Methode. Um mit diesem Programm auch nichtlineare Probleme an Schalentragwerken berechnen zu können, wird im Rahmen dieser Diplomarbeit ein vierknotiges nichtlineares Schalenelement implementiert, das die genannten Ansätze für große Verformungen und finite Rotationen enthält. Für die Vermeidung von Transversalschublocking wird ein ANS-Ansatz in die Formulierung integriert. Das Kapitel 3 beschreibt die Formulierung dieses SHELL4N-Elementes. Dort werden die Elementmatrizen und deren Aufbau ausführlich dargestellt. Einige numerische Berechnungsbeispiele mit diesem neuen Element werden zur Evaluierung im Kapitel 4 dieser Arbeit dargestellt.
Ziel dieser Diplomarbeit war es unter Verwendung von Messwerten und mathematischen Grundlagen eine Ermittlung der Tragfähigkeit vorhandener Straßenkonstruktionen. Ausgangspunkt waren Messungen auf zwei verschiedenen Strecken (L 2141 Andisleben-Dachwig, L1042 Gierstedt-Kleinfahner). Die Messungen wurden jeweils mit dem Benkelmannbalken und dem Falling-Weight-Deflectometer vorgenommen. Beide Verfahren unterscheiden sich durch die Art der Lateintragung. Die Lasteintragung erfolgt mit dem Benkelmannbalken statisch und mit dem Falling-Weight-Deflectometer dynamisch. Daraus folgt, dass die aus den Einsenkungswerten ermittelten E-Module mittels Benkelmannbalken statische E-Module und mittels Falling-Weight-Deflectometer. dynamische E-Module sind. Der E-Modul einer Schicht ist ein Maß für den Verformungswiderstand einer Straßenkonstruktion. Jede Straßenkonstruktion weist ein kompliziertes Verformungsverhalten auf. Betonstraßen besitzen in der Regel größere E-Module als Asphaltstraßen, die sich aber viskoelastisch und viskoplastisch verformen können. Der E-Modul einer Schicht ist auch von der jeweiligen Schichthöhe abhängig. Grundsätzlich gilt, je mehr Einsenkungswerte von einer Straßenkonstruktion zur Verfügung stehen, desto genauer fallen die Beurteilungen hinsichtlich ihrer Tragfähigkeit aus. Die mathematische Ermittlung der Tragfähigkeit einer Straßenkonstruktion erfolgt über die Festlegung eines mathematischen Modells. Es wurden verschiedene Modelle untersucht. Das einfachste Modell zur Beschreibung einer Straßenkonstruktion ist der elastisch- isotrope Halbraum, wobei der gesamte Straßenkörper durch einen einzigen E-Modul beschrieben wird. Eine wesentlich exaktere Beschreibung einer Straßenkonstruktion ist das Zweischichtensystem. In diesem System wird der bituminöse Aufbau mit der Schichtdicke h und dem E-Modul E1 gekennzeichnet und die Unterlage (Frostschutzschicht und Untergrund zusammengefasst) mit dem E-Modul E2 beschrieben. Das Zweischichtensystem hat den Vorteil, dass ein erkennbarer E-Modul Sprung zwischen der gebundenen Schicht (E1) und der ungebundnen Schicht (E2) entsteht. Ein drei oder mehrschichtiges System hier anzuwenden ist sehr schwierig, da dieses nicht eindeutig bestimmt ist. Das Zweischichtensystem ist eindeutig bestimmt und liefert genügend gute Ergebnisse, um die Tragfähigkeit zu beschreiben.
Bei der grundbautechnischen Bemessung und der Errichtung von Bauwerken im Grundwasser sind die wesentlichen Einwirkungen auf hydrodynamische Effekte zurückzuführen. Die zu-verlässige Funktion eines solchen Bauwerkes ist maßgeblich von der richtigen Einschätzung der unterschiedlichen Effekte abhängig. Aufgabe ist es, hydraulisch bedingte Versagensformen wie Hydraulischer Grundbruch, innere Erosion, Aufschwimmen und Auftrieb zu charakterisieren und voneinander abzugrenzen, ty-pische Beispiele dieser Versagensformen zu nennen, Interaktionen zwischen ihnen aufzu-zeichnen und zu quantifizieren sowie Einflussparameter und Grenzzustände zu beschreiben. Aufbauend auf diesen Betrachtungen soll am praktischen Beispiel einer Baugrubensicherung durch konventionelle Rechnung und numerische Simulation das Versagensprinzip des Hyd-raulischen Grundbruches in nicht bindigem Boden nachvollzogen werden. Die Ergebnisse der Analyse sind unter dem Gesichtspunkt der Richtigkeit der zugrunde liegenden physikalischen Gesetzmäßigkeiten zu bewerten.
Der Baugrund ist durch seine geologische Entstehung und verschiedener anthropogener Einflüsse geprägt. Dadurch ist er in seinen physikalischen und geometrischen Eigenschaften inhomogen. Aufgrund des oftmals geringen Erkundungsumfangs durch wenige punktförmige Aufschlüsse unterliegen die Baugrunddaten einer zufälligen und systematischen räumlichen Streuung. Die Unsicherheit der Messergebnisse ist u.a durch Fehlerquellen in den Messverfahren, in den empirischen Beziehungen zur Bestimmung der Baugrundparameter und bei der Datenbearbeitung sowie in der Heterogenität des Mediums Boden begründet. In der Praxis werden aus den Erkundungsergebnissen des Baugrundes Schichtenverzeichnisse erstellt, in denen Homogenbereiche definiert werden können. Mittels definierter Schichtmächtigkeiten oder festgelegter Schichtgrenzen lässt sich ein dreidimensionales geologisches Schichtenmodell aufbauen, das aus mehreren miteinander verbundenen zweidimensionalen Datensätzen besteht. Für Interpolationen innerhalb eines Untersuchungsraumes im geologischen Modell haben sich geostatistische Methoden als geeignet erwiesen. Die Modellierung des Baugrundes mit Hilfe von geostatistischen Verfahren in der Praxis geschieht bisher in der Regel auf der Annahme deterministischer Eingangsgrößen. Die Untersuchung des Einflusses streuender und unsicherer Ausgangskennwerte auf die Ergebnisse der einzelnen Stufen der geostatistischen Modellbildung erlaubt eine bessere Beurteilung der Berechnungsergebnisse. In der Geotechnik wird deshalb versucht, die Vorteile geostatistischer Verfahren in bodenmechanische Nachweise einzubeziehen. Bodenkenngrößen können damit qualifizierter und mit verbesserter Aussagesicherheit in die Gründungsberechnungen und Nachweise eingehen. Baugrunderkundungen sind ein Kostenfaktor bei der Entwicklung und Durchführung eines Bauprojektes. Der Baugrund kann deswegen unter dem Gesichtspunkt der Wirtschaftlichkeit nur an wenigen Stellen untersucht werden. Großflächige Areale, die z.B. für eine Ansiedlung von Industrie und Gewerbe vorgesehen sind, werden im Rahmen einer Vorerkundung punktuell beprobt. Sind dann innerhalb von Lokalbereichen konkrete Projekte geplant, werden diese Flächen in einer Nacherkundung detailliert und spezifisch untersucht. Ziel dieser Arbeit ist die Entwicklung von Strategien, die es erlauben, unter Einbeziehung von Ergebnissen aus Vorerkundungsuntersuchungen und anderen zusätzlichen Informationsquellen eine optimale Anordnung der Punkte für eine Nacherkundung eines Lokalbereiches mit möglichst geringen zusätzlichen Kosten zu finden. Mit Hilfe einer optimierten Messnetzkonstellation und einer verbesserten Aussagekraft der Messwerte soll die Aussagesicherheit der räumlichen Schätzung der Baugrundkenngrößen an unbeprobten Orten verbessert und gesteigert werden. Hierzu gilt es die Unsicherheiten aus dem Messnetz und aus den Baugrundkenngrößen zu analysieren, miteinander zu verknüpfen und Strategien zur Reduktion der Unsicherheiten zu entwickeln.
In displacement oriented methods of structural mechanics may static and dynamic equilibrium conditions lead to large coupled nonlinear systems of equations. In many cases they are solved iteratively utilizing derivatives of Newton's method. Alternatively, the equations may be expressed in terms of the Karush-Kuhn-Tucker conditions of an optimization problem and, therefore, may be solved using methods of mathematical programming. To begin with, the work deals with the fundamentals of the formulation as optimization problem. In particular, the requirements of material nonlinearity and contact situations are analyzed. Proximately, an algorithm is implemented which utilizes the usually sparse structure of the Hessian matrix, whereby particularly the convergence behaviour is analyzed and adjusted. The implementation was tested using examples from statics and dynamics of large systems. The results are verified considering the accuracy comparing alternative solutions (e.g. explicit methods). The potential areas of application is shown and the efficiency of the method is evaluated.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Die vorliegende Arbeit beschäftigt sich mit der dynamischen Analyse der Sprottetalbrücke infolge aufgetretener Asphaltschäden. Sie beinhaltet die Erstellung eines FE-Modells, der Darstellung der theoretischen Grundlagen der Dynamik sowie die Auswertung von berechneten Eigenformen und Asphaltspannungen unter Berücksichtigung der derzeit gültigen Normen.
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
Die vorliegende Arbeit befasst sich mit der verkehrsplanerischen Untersuchung der Verkehrsanbindung des Klinikums Bad Hersfeld. Auf der theoretischen Grundlage des Verkehrsplanungsprozesses wurde der Planungsablauf methodisch beschrieben. Im Anschluss erfolgte die Zustandsanalyse am konkreten Beispiel -Verkehrsanbindung des Klinikums Bad Hersfeld - in enger Zusammenarbeit mit den Anwohnern des Wohngebietes, der Stadt Bad Hersfeld, der Polizei und des Krankenhauses. Im Rahmen der Analyse wurde ein Zielsystem aufgestellt und eine Mängelanalyse durchgeführt. Auf Basis der gewonnenen Erkenntnisse wurden anschließend verschiedene Lösungsvorschläge erörtert. Anschließend wurde anhand eines Bewertungssystems und eines einfachen Rangordnungsverfahrens eine Vorzugsvariante benannt und deren Vor- und Nachteile beschrieben.
Am Beispiel des ICE-Knotens Erfurt werden positive Erfahrungen bei der Umsetzung der Baustellenverordnung berichtet. Die Erfahrungen haben gezeigt, dass konkrete Vorgaben und das Festlegen und Fordern bestimmter Sicherheitsvorkehrungen die Sicherheit auf der Baustelle wesentlich mitbestimmen. Ein wichtiges Hilfsmittel dazu ist ein konkreter SiGe-Plan, dessen Realisierung durch permanente Sicherheitsbegehungen kontrolliert werden muss. Durch eine zielgerichtete Einflussnahme und sachgemäße Arbeitsweise der Fachfirmen wurden die Bauabläufe realisiert, ohne dass es zu schweren Unfällen und Störungen insbesondere im Bahnverkehr kam. Die Baustellenverordnung mit ihren Forderungen war dabei ein wichtiges Instrumentarium, welches durch die DB AG vollinhaltlich umgesetzt wurde.
Speziell für die Sandwich-Platten der Außenfassade von DDR-Plattenbauten, die in ihrem Inneren in den meisten Fällen Mineralwolle (Handelsname: Kamilit) enthalten, wurden belastungsarme Abbruch- bzw. Rückbautechnologien untersucht und durch Gefahrstoffmessungen begleitet. Es werden Vorschläge für zukünftig zu bevorzugende Abbruchtechnologien unterbreitet.
Sieben Bestandsbauten der Herzogin-Anna-Amalia-Bibliothek Weimar sollten umgenutzt und durch zwei oberirdische und drei unterirdische Neubauten ergänzt werden. Im Beitrag näher beschrieben: Schadstofferkundung und Beurteilung der Gefahren der Baumaßnahmen, Sicherheitsmaßnahmen, Durchführung von Reinigungsarbeiten