Refine
Document Type
- Master's Thesis (51)
- Conference Proceeding (25)
- Part of a Book (17)
- Doctoral Thesis (12)
- Bachelor Thesis (10)
- Article (9)
- Diploma Thesis (5)
- Report (3)
- Book (2)
- Preprint (1)
Institute
- Professur Baubetrieb und Bauverfahren (25)
- Institut für Strukturmechanik (19)
- Professur Medienphilosophie (15)
- Professur Grundbau (8)
- Professur Verkehrsplanung und Verkehrstechnik (7)
- Professur Baumechanik (6)
- Professur Stahlbau (6)
- Professur Bodenmechanik (5)
- Professur Geschichte und Theorie künstlicher Welten (5)
- Professur Siedlungswasserwirtschaft (5)
- Professur Baustatik und Bauteilfestigkeit (4)
- Professur Verkehrsbau (4)
- Juniorprofessur Augmented Reality (3)
- Professur Bauphysik (3)
- Professur Wasserbau (3)
- Professur Abfallwirtschaft (2)
- Professur Betriebswirtschaftslehre im Bauwesen (2)
- Professur Holz- und Mauerwerksbau (2)
- Professur Massivbau I (2)
- Professur Massivbau II (2)
- Institut für Europäische Urbanistik (1)
- Professur Allgemeine Baustoffkunde (1)
- Professur Baumanagement und Bauwirtschaft (1)
- Professur Computergestütztes kooperatives Arbeiten (1)
- Professur Informatik im Bauwesen (1)
- Professur Informations- und Wissensverarbeitung (1)
- Professur Raumplanung und Raumforschung (1)
- Professur Tragwerkslehre (1)
- Universitätsbibliothek (1)
Keywords
- Angewandte Mathematik (19)
- Strukturmechanik (19)
- 2005 (16)
- Medien (16)
- Archiv für Mediengeschichte (15)
- Geisteswissenschaften (15)
- Kulturphilosophie (14)
- Arbeitsschutz (13)
- Baustelle (11)
- Baubetriebslehre (6)
Year of publication
- 2005 (136) (remove)
Wolkenbotschaft
(2005)
Lange Zeit, so scheint es, machten die Wolken und ein wolkiger Himmel den Schlaf der Physik. Als nämlich Galileo Galilei im März 1610 und mit einiger Hast seinen >Sidereus Nuncius<, seine Sternenbotschaft oder seinen Sternenboten publizierte, musste er mit dem Protokoll langer und schlafloser Winternächte auch einige Pausen, einige Lücken und Leerstellen verzeichnen. Denn dieser Sternenbote, der die astronomische Nachricht von neuen und bisher ungesehenen Gestirnen vom nächtlichen Himmel auf die Erde herabholte, wurde verschiedentlich und auf empfindliche Weise gestört. ...
Die Kurzfassung ist auf deutsch und die ganze Arbeit + Anhänge auf französisch.
AUSGANGSPUNKT
Die Spannung zwischen Sanierung und sozialem Wandel Nach dem Wegzug der mittleren Schichten aus den Innenstädten gibt es seit mehr als 50 Jahren ein öffentliches Bestreben, europäische Städte zu sanieren. Damit soll die Attraktivität dieser Stadtteile gesteigert sowie Investitionen gefördert werden. In mehreren wissenschaftlichen Arbeiten und empirischen Untersuchungen über die Ergebnisse dieser Sanierungspolitik haben Forscher vor den negativen Effekten für die Anwohner gewarnt und den Begriff der „Gentrifizierung“ eingeführt. Die Aufwertung der Innenstädte sei mit einem sozialen Umstrukturierungsprozess durch den wachsenden Druck am Wohnungsmarkt und eine kontinuierliche Mietpreiserhöhung verbunden.
FRAGESTELLUNG
Die Sanierungsprojekte, die in den 80er-Jahren im Rahmen der I.B.A. entwickelt wurden, sind international als „good practice“ bezeichnet worden. Die zwölf Leitsätze der „behutsamen Stadterneuerung“ sind das Vorzeigekind der deutschen Sanierungspraxis. Diese Erfahrungen wurden nach dem Fall der Mauer auf die Situation im Prenzlauer Berg übertragen. Die vorliegende Arbeit (in französischer Sprache) ist der Frage nachgegangen, inwiefern die behutsame Stadterneuerung in Berlin Prenzlauer Berg als Modell städtebaulicher Politik im Altbaugebiet dienen kann? „Modell“ ist dabei nicht als Reproduktionsmodell, sondern im Sinne von „Vorbild“ gemeint. ...
50 Jahre Dissertationen an der Hochschule für Architektur und Bauwesen und der Bauhaus-Universität
(2005)
Diese Veröffentlichung dokumentiert über einen Zeitraum von 50 Jahren die an unserer Hochschule entstandenen Dissertationen, deren Zahl sich auf 1100 beläuft. Damit werden ein wichtiger Teil der Hochschulgeschichte Weimars und zugleich ein Teil der Hochschulgeschichte der DDR aufgearbeitet. Die Bibliographie liefert Bausteine für eine Geschichte der Disziplinen und Fakultäten an der Weimarer Hochschule und darüber hinaus für eine Sozialgeschichte der Wissenschaftler in Thüringen. So hat z. B. eine Vielzahl der heute in leitender Stellung an der Universität Tätigen – sowohl Professoren als auch Mitarbeiter der Universitätsverwaltung – in Weimar promoviert. Das lässt sich auch ausdehnen auf Personen in führenden wissenschaftlichen, politischen oder wirtschaftlichen Positionen in der Region oder im Ort. Hier könnte die vorliegende Bibliographie Anstoß für weitere Forschungen geben.
Wolken modellieren
(2005)
Wolkenformationen und ihre Verwandlungen auf bilddigitalem Weg zu simulieren und in klimatologische Studien zu integrieren, ist eine der komplexesten Aufgaben der aktuellen Umweltphysik. Die Schwierigkeit erklärt sich zum einen sicherlich aus der Konturlosigkeit der nebulösen Gebilde - ihre formale Instabilität und dynamische Prozessualität widerspricht und widersetzt sich der Prognosetätigkeit der Meteorologen bzw. Klimatologen. Immer wieder stellt sich dabei die Frage nach der Codier- und Fixierbarkeit der diffusen Formverläufe, nach der Umrissbildung und Bestimmung eines prinzipiell ungeklärten Figur-Grund-Verhältnisses. Im Folgenden soll die Problemstellung komplexer Simulationstechniken auf klimatologische Bildgebungsverfahren angewandt werden. ...
Eignet sich das perspektivische System zur Repräsentation von Phänomenen, die die gewohnten Maße der menschlichen Ordnung sprengen? Anders gesagt: Bieten göttliche Handlungen, die diese Welt auf das Jenseits hin öffnen, und allgemeiner mystische - oder sogar nur physische - Begegnungen zwischen Himmel und Erde, bieten sie Stoff zur Repräsentation? ...
Norbert Wieners >Cybernetics> von 1948 geht aus von einem Vergleich zählender, durchmusternder Astronomie mit der neuen, statistikbasierten Meteorologie. Das Buch beginnt mit der ersten Strophe von >Weißt du vieviel Sternlein stehen<. ... Dieses Liedchen ist ein interessantes Thema für die Philosophie und die Geschichte der Wissenschaft, indem es zwei Wissenschaften nebeneinander stellt, die einerseits sich beide mit der Beobachtung des Himmels über uns beschäftigen, andererseits aber beinahe in jeder Beziehung höchst gegensätzlich sind. Die Astronomie ist die älteste der Wissenschaften, während die Meteorologie zu den jüngsten zählt, die erst anfangen, den Namen zu verdienen. ...
'Vielleicht sollten wir aufhören, darüber zu streiten, ob die dräuenden, jagenden Wolken seiner Bergfilme die gleichen waren, aus denen Hitlers Flugzeuge am Anfang des Reichsparteitagsfilms nach Nürnberg herabschwebte.' Dieser Stoßseufzer Matthias Fancks, seines Zeichens Enkel des berühmtesten Protagonisten des Genre Bergfilm in der Weimarer Republik, Dr. Arnold Fanck, dürfte auf absehbare Zeit seiner Erfüllung harren. Als zu wirkungsmächtig hat sich jenes Verdikt erwiesen, das hier zugleich noch einmal aufgerufen wird, nämlich Siegfried Kracauers (retrospektive) Deutung des Bergfilms Fanck'scher Prägung - und auch und besonders deren Wolkenbilder - als einer Präfiguration faschistischer Ästhetik, wie sie in dem als >messianische Ankunft< inszenierten Flug Hitlers durch die Wolkendecke über Nürnberg in Leni Riefenstahls einschlägigem Propagandafilm ihren sinnfälligen Kulminationspunkt gefunden habe ...
Alles beginnt in Francis Ford Coppolas 'Bram Stokers's Dracula' mit, alles emergiert aus der Wolke: rechte Hälfte der Einstellung hell, linke dunkel, wölkt sich Dunst um die Kuppel mit dem christlichen Steinkreuz, verdichtet, schickt sich an, den Buchstaben des Gesetzes der westlich-abendländischen Hemisphäre zu verschlingen, schluckt ihn schließlich ganz, bevor das aufgerichtete Kreuz, paradigmatisches Zeichen des Christentums; Phallus, herausragender Signifikant des Symbolischen und damit der Ära der bewegten Lettern Gutenbergs, auf rotem Grund zerschellt. ...
In der Gründerzeit der amerikanischen Filmindustrie gab es ein paar Jahre, in denen Hollywood geradezu im Raum schwelgte: in den Weiten der vielfältigen kalifornischen Landschaft und in den stetig wachsenden Ausmaßen der dort gebauten Kulissen, als deren Höhepunkt das Babylon-Set für D. W. Griffiths 'Intolerance' (USA 1916) gelten kann. Noch war das Zelluloid zu lichthungrig und die Scheinwerfer zu schwach, um die Aufnahmen vollständig in den ebenso begrenzten wie kontrollierbaren Innenraum der barackenhaften Filmstudios zu verlegen. Aber auch wenn die technische Entwicklung diesen Schritt bald ermöglichte, stand ihm das Verlangen des jungen Mediums entgegen, seine Eigenständigkeit gegenüber Kammerspielen des Theaters unter Beweis zu stellen. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
Schleierwolken des Realen
(2005)
In seinem XX. Seminar hat Jacques Lacan ein Modell vorgeschlagen, zu dem seine eigenen Erläuterungen relativ kryptisch blieben. An den Ecken eines Dreiecks sind die drei Kategorien des Symbolischen, des Imaginären und des Realen angeordnet, an den Seiten des Dreiecks finden sich drei Reste des Realen ... Die Wolke, so wie sie im Folgenden auftritt, lässt sich dem Kontinuum des Realen zuordnen, das im Symbolischen nicht aufgehen kann. Über die drei realen Reste wird es aber möglich, in einzelnen historischen Episoden Wolkeneffekter auszumachen und zu benennen. ...
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
Spaziergänge zu den Wolken. Gerhard Langs 'Cloud Walks' und Gerhard Langs Phantombilder von Wolken
(2005)
>Die gegenwärtige Wissenschaft stützt sich auf das Prinzip der Induktion: die meisten Menschen haben ein Phänomen oft genug einem anderen vorausgehen oder nachfolgen sehen, und schon schliessen sie daraus, dass es immer so sein muss. Nun trifft dies aber nur meistens zu, hängt vom Standpunkt ab und unterliegt dem Gesetz der Bequemlichkeit<, schreibt Alfred Jarry in seinem 1898 fertig gestellten Roman 'Gestes et opinions du doctour Faustroll, pataphysicien', der unumstößlich erscheinende Grundsätze und zeitgenössische Theorien der Wissenschaft phantasiereich aus den Angeln hebt. ...
Klangwolken
(2005)
In einer Musik, die ihren Rückhalt nicht mehr in überlieferten Formen sucht, verstehen sich Anfänge nicht von selbst. Richard Wagner hat sich dieser Schwierigkeit ästhetischer Formsetzung auf eine ebenso einfache wie elegante Weise entledigt. Das Vorspiel seiner Oper 'Das Rheingold' (1854) hört über 136 Takte hinweg nicht auf anzufangen. ... Der Anfang des 'Rheingoldes' ist scheinbar den Gesetzen der Natur abgelauscht. ...
>The dust and smoke of continents in flame will defeat the light of the sun, and utter darkness will reign anew upon the world. [...] Eternal snows will cover the Sahara desert; the vast rain forests of the Amazon, destroyed by hail, will disappear from the face of the planet, and the age of rock and heart transplant will revert to ist glacial infancy.< Diese eindringliche Beschreibung der Folgen eines nukearen Schlagabtausches stammt aus einer Rede, die der Literaturnobelpreisträger Gabriel García Márquez am 6. August 1986, dem Jahrestag der Bombardierung Hiroshimas, vor einer Versammlung von Politikern, Intellektuellen und Umweltaktivisten gehalten hat. Die hier so dramatisch geschilderte Vorstellung, einem Atomkrieg würde eine neue Eiszeit, ein so genannter 'nuklearer Winter' folgen, war erst drei Jahre zuvor von einer Gruppe von Wissenschaftlern um den Klimaforscher Richard Turco und dem Astronomen Carl Sagan der Öffentlichkeit vorgestellt worden. ...
Wenn Wolken als Grenzfiguren zwischen dem Darstellbaren und dem Nicht-Darstellbaren gerade von der bildenden Kunst immer wieder als Herausforderung begriffen worden sind, dieses Terrain mit ihren Mitteln zu erforschen, so ist es im 20. Jahrhundert allen voran der Surrealismus, der sie in diesem Sinne für sich entdeckt. Dabei geht es nicht allein um ihre Gestaltqualitäten und den Deutungshorizont, den diese eröffnen. Sie erweisen sich vielmehr als ideales Medium für ein künstlerisches Programm, das sich für das Informe interessiert und für den Prozess, das eine Ästhetik der Wandelbarkeit und der Verwandlung im Experiment mit den künstlerischen Mitteln verfolgt, die zugleich mit dem Streben nach mentaler Grenzüberscheitung korrespondieren. ...
Planen in China
(2005)
Bauen in China ist aktuell geworden. Viele Planer und Investoren wenden sich verstärkt diesem Markt zu. Dennoch sind viele Schwierigkeiten mit einer derartigen Entscheidung. In China zu arbeiten verbunden. Alle Schritte müssen wohlüberlegt sein und bedürfen sorgfältiger Recherchen in den verschiedenen Bereichen.
Um den thermoplastischen Baustoff Bitumen verarbeiten zu können, muss dieser in einen niedrigviskosen Zustand überführt werden. Dazu gibt es verschiedene Wege. Eine Möglichkeit dafür ist die Emulgierung des Bitumens in Wasser. Daraus entstehen die kaltverarbeitbaren Bitumenemulsionen. Bitumenemulsionen sind besonders für Anwendungen im Bereich des Straßenerhaltes ein geeigneter Baustoff. Die Dünnschicht-Bauweise Oberflächenbehandlung ist eine der häufigsten eingesetzten Anwendungen von Bitumenemulsionen im Straßenbau. Im Rahmen der Arbeit wurde geprüft, ob es möglich und sinnvoll ist, Wachse als Additive zur Modifizierung von Bitumenemulsionen (für die Anwendung im Bereich von Oberflächenbehandlungen) einzusetzen. Dazu wurde im theoretischen Teil der Arbeit durch Recherche des umfassenden Begriffes Wachs ein Überblick zum Thema gegeben und eine Einteilung der verschiedenartigen Wachse vorgenommen. Im praktischen Teil wurde ein Ausgangsbitumen mit ausgesuchten Wachsen (auf Grundlage der theoretischen Recherche) in verschiedenen Anteilen modifiziert und die Bindemittelkennwerte ermittelt. Weiterhin wurden auf Basis der vorangegangenen Bindemitteluntersuchungen einige Additive ausgewählt und diese zur Herstellung von Bitumenemulsionen eingesetzt. Die hergestellten Emulsionen wurden mit den üblichen Prüfverfahren untersucht und die Ergebnisse miteinander verglichen.
Diese Arbeit stellt die Implementierung von Scheibenelementen mit B-Spline Ansätzen n-ter Ordnung speziell für rechteckige Gebiete mit orthogonaler Vernetzung vor. Dabei kam insbesondere eine spezielle elementbasierte Formulierung auf Grundlage der einzelnen B-Spline Segmente zum Einsatz, die zur Aufbringung von Randbedingungen an den Rändern modifizierte B-Splines benutzt. In der Folge entstehen verschiedene Elementtypen zur Diskretisierung von rechteckigen Gebieten, deren Erzeugung, Speicherung und Anwendung im Zusammenhang mit der Finiten Elemente Methode Gegenstand der Arbeit sind. Anhand von untersuchten Beispielen werden die erfolgreiche Implementierung nachgewiesen und verschiedene Eigenschaften der Methode herausgestellt.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Innerhalb der Arbeit wurden vorliegende Druckversuche an bewehrten Elastomerlagern hinsichtlich des Druckstauchungsverhaltens systematisch ausgewertet. Die Druckversuche wurden an Lagern verschiedener Hersteller durchgeführt. Die Versuchsdurchführung und Auswertung erfolgte nach DIN 4141-140 bzw. nach EN 1337-3. Die ermittelten Druckstauchungswerte in Form des ideellen E-Moduls wurden anschließend den vereinfachten Berechnungsansätzen der Normen DIN 4141-14/A1 und EN 1337-3, sowie den Berechnungsansätzen nach Topaloff gegenüber gestellt. Als Nebenaspekt der Arbeit wurde eine am Lehrstuhl vorliegende Versuchsdatenbank auf ihre Eignung und Funktionalität untersucht.
Die Finite-Elemente-Methode entwickelte sich in den letzten beiden Jahrzehnten zu einem wichtigen und mächtigen Werkzeug für Berechnungen im Ingenieurwesen. Waren zu Beginn dieser Entwicklung nur kleine Probleme lösbar, sind mit der heutigen Rechentechnik Systeme mit vielen Tausend Freiheitsgraden berechenbar. Durch diese Entwicklung werden Berechnungen von sehr komplizierten Strukturen möglich. Besonders in der Automobilindustrie kann mit einem solchen Verfahren die Konstruktion von Strukturen verbessert und optimiert werden. Um gute Ergebnisse bei den Berechnungen erzielen zu können müssen Programme entwickelt werden, die entsprechende mathematische Methoden enthalten. Besonders im Maschinenbau, aber auch in anderen Ingenieurbereichen wie dem Bauwesen, werden häufig gekrümmte dünne Schalenstrukturen untersucht. Eine effiziente und logische Konsequenz daraus ist die Nutzung von Schalenelementen innerhalb der FE-Berechnungen. Wird nun noch Wert auf eine realitätsnahe Modellierung gelegt, dann lässt es sich oft nicht vermeiden von der im Bauwesen üblichen Theorie erster Ordnung in eine nichtlineare Berechnungstheorie zu wechseln. Hierfür sind Methoden notwendig, die es vermögen diese Theorie abzubilden. Sollen Schalenstrukturen mit großen Verschiebungen betrachtet werden, ist es notwendig, die linearen Elementformulierungen um die nichtlinearen Ansätze der Strukturmechanik zu erweitern. Die Grundlage dieser Formulierung stellt oft die Lagrange'sche Betrachtungsweise dar, die Berechnungen an Strukturen mit großen Verformungen zulässt. Die Inhalte dieser Formulierung werden in Abschnitt 1.5 dieser Arbeit betrachtet. Räumlich veränderlichen Strukturen, also solche mit großen Verformungen, sind im Allgemeinen mit großen Rotationen verknüpft. Diese Rotationen werden bei Volumenelementen durch die unterschiedliche Verschiebung zweier benachbarter Elementknoten realisiert. Bei der Formulierung von dünnen Schalenelementen wird hingegen die Struktur als gekrümmte Raumfläche betrachtet. Da in Dickenrichtung nur ein Elementknoten zur Verfügung steht, muss die Rotation über eine andere Formulierung in die Berechnung einfließen. Ansätze zu allgemeinen großen Rotationen werden im Kapitel 2 betrachtet und für den Einsatz in einer Elementformulierung vorbereitet. Für die beschriebenen Schalenstrukturen werden häufig vierknotige Elemente genutzt, da mit ihnen Strukturen in einfacher Weise abgebildet werden können. Ein weiterer Vorteil besteht in der sich ergebenden geringen Bandbreite der Elementmatrizen. Diese Elementgruppe besitzt jedoch bei der klassischen isoparametrischen Formulierung einen großen Nachteil, der in der Erzeugung von parasitären Steifigkeitsanteilen besteht. Um dieses Sperrverhalten, was auch als 'Locking' bekannt ist, zu minimieren wurden in der Vergangenheit verschiedene Ansätze entwickelt. Ein sehr effizienter Ansatz zur Minimierung des Transversalschublockings bei bilinearen Schalenelementen stellt das Verfahren der veränderten Verzerrungsverläufe auf Elementebene dar. Dieses Verfahren wird vielfach in der Literatur aufgegriffen und als 'Assumed-Natural-Strain'-Ansatz oder als 'Mixed Interpolation of Tensorial Components' bezeichnet. Dieses Verfahren wird im Abschnitt 1.6 vorgestellt. Das Programmsystem SLang ermöglicht eine Berechnung von Strukturen mittels der Finite-Elemente-Methode. Um mit diesem Programm auch nichtlineare Probleme an Schalentragwerken berechnen zu können, wird im Rahmen dieser Diplomarbeit ein vierknotiges nichtlineares Schalenelement implementiert, das die genannten Ansätze für große Verformungen und finite Rotationen enthält. Für die Vermeidung von Transversalschublocking wird ein ANS-Ansatz in die Formulierung integriert. Das Kapitel 3 beschreibt die Formulierung dieses SHELL4N-Elementes. Dort werden die Elementmatrizen und deren Aufbau ausführlich dargestellt. Einige numerische Berechnungsbeispiele mit diesem neuen Element werden zur Evaluierung im Kapitel 4 dieser Arbeit dargestellt.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
We present PhoneGuide – an enhanced museum guidance approach that uses camera-equipped mobile phones and on-device object recognition. Our main technical achievement is a simple and light-weight object recognition approach that is realized with single-layer perceptron neuronal networks. In contrast to related systems which perform computational intensive image processing tasks on remote servers, our intention is to carry out all computations directly on the phone. This ensures little or even no network traffic and consequently decreases cost for online times. Our laboratory experiments and field surveys have shown that photographed museum exhibits can be recognized with a probability of over 90%. We have evaluated different feature sets to optimize the recognition rate and performance. Our experiments revealed that normalized color features are most effective for our method. Choosing such a feature set allows recognizing an object below one second on up-to-date phones. The amount of data that is required for differentiating 50 objects from multiple perspectives is less than 6KBytes.
This master thesis explores an important and under-researched topic on the so-called bridging of length scales (from >meso< to >macro<), with the concept of homogenization in which the careful characterization of mechanical response requires that the developed material model >bridge< the representations of events that occur at two different scales. The underlying objective here is to efficiently incorporate material length scales in the classical continuum plasticity/damage theories through the concept of homogenization theory. The present thesis is devoted to computational modeling of heterogeneous materials, primarily to matrix-inclusion type of materials. Considerations are focused predominantly on the elastic and damage behavior as a response to quasistatic mechanical loading. Mainly this thesis focuses to elaborate a sound numerical homogenization model which accounts for the prediction of overall properties with the application of different types of boundary conditions namely: periodic, homogeneous and mixed type of boundary conditions over two-dimensional periodic and non-periodic RVEs and three-dimensional non-periodic RVEs. Identification of the governing mechanisms and assessing their effect on the material behavior leads one step further. Bringing together this knowledge with service requirements allows for functional oriented materials design. First, this thesis gives attention on providing the theoretical basic mechanisms involved in homogenization techniques and a survey will be made on existing analytical methods available in literature. Second, the proposed frameworks are implemented in the well known finite element software programs ANSYS and SLang. Simple and efficient algorithms in FORTRAN are developed for automated microstructure generation using RSA algorithm in order to perform a systematic numerical testing of microstructures of composites. Algorithms are developed to generate constraint equations in periodic boundary conditions and different displacements applied spatially over the boundaries of the RVE in homogeneous boundary conditions. Finally, nonlinear simulations are performed at mesolevel, by considering continuum scalar damage behavior of matrix material with the linear elastic behavior of aggregates with the assumption of rigid bond between constituents.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
In Deutschland hat sich das vollautomatische Bauen bisher vergleichsweise bescheiden entwickelt. Ein hoher Automatisierungsgrad ist dagegen seit Jahren bei den stationären Mischanlagen von Baustoffen, wie Beton und Asphalt sowie in der Serienfertigung standardisierter Betonwaren zu finden. Jedoch fehlen in Deutschland die Voraussetzungen, um grundlegend neu konzipierte, flexibel automatisierte oder roboterisierte Maschinen und Systeme zu entwickeln und einzusetzen. Zur Schaffung dieser Voraussetzungen soll die vorliegende Arbeit einen Beitrag leisten. Sie betrachtet ausschließlich die Skelettbauweise. Diese stellt ein Teilgebiet des Betonfertigteilbaus dar. Da eine Automatisierungslösung grundsätzlich erst bei großen Objekten mit einer hohen Wiederholungsrate der Prozesse und Elemente wirtschaftlich ist, wird die Montage eines Mehrzweckkomplexes untersucht. Die Tragstruktur dieses Gebäudes setzt sich, charakteristisch für die Skelettbauweise, aus Stützen und Bindern zusammen. Dabei werden im Hinblick auf die Aufgabenstellung dem herkömmlichen Montageablauf die Besonderheiten und bautechnischen Voraussetzungen einer automatisierten Montage hinzugefügt. Es wird eingrenzend speziell die Montage einer Fertigteilstütze und eines Unterzuges aufgezeigt. Nach einem einleitenden Kapitel sind in Kapitel 2 die Grundlagen der Automatisierung dargestellt. Darin werden die Gründe für eine Automatisierung und deren theoretischen Vorraussetzungen beleuchtet. Vornehmlich umfasst dies die Erläuterung der Anforderungen an Automatisierungsgeräte und automatisierungsgerechte Fertigteile. Im sich anschließenden Kapitel 3 werden die Vorraussetzungen der Planung, der Vermessung und der Herstellung umfassend dargelegt. Die Planungs-voraussetzungen beschreiben den ganzheitlichen Lösungsansatz von Entwurf, Planung, Herstellung, Ausführung (Montage) und Betrieb der Gebäude. Die verschiedenen Technologien zur Positionsbestimmung, Identifikation und Objektverfolgung werden in den vermessungstechnischen Grundlagen erläutern. Um alle Bereiche, die vor dem Beginn der eigentlichen Montage notwendig sind zu beleuchten wird schließlich in den herstellerseitigen Vorraussetzungen insbesondere beschrieben, welche optischen Markierungen, Sensoren und andere Hilfsmittel in die Fertigteile zu integrieren sind. Das Kapitel 4 beschreibt detailliert die beispielhafte Montage der Fertigteilstütze und des -unterzuges. Ergänzend sind in die einzelnen Schritten der Montage selbst entwickelte Varianten integriert. Als Grundlage werden zu jedem Prozess Gemeinsamkeiten aller Varianten aufgeführt. Daran schließen sich nach Bedarf individuelle Erläuterungen an. Die Varianten sind aus Überlegungen des Autors und aus den Konsultationen mit dem betreuenden Lehrstuhl entwickelt worden. Sie werden in diesem Teil der Arbeit detailliert beschrieben und ihre Eigenarten und Verwendungszwecke erläutert. Im Ganzen gesehen ergibt dieses Kapitel eine komplette Montage mit verschiedenen Möglichkeiten die einzelnen Schritte auszuführen. Im Kapitel 5 werden zu den jeweiligen Varianten die Vor- und Nachteile knapp und übersichtlich dargestellt. Aus welchen Gründen eine Variante weiterverfolgt werden sollte oder sie nicht umsetzbar ist, ist in einem sich jeweils anschließenden kurzen Fazit begründet. Anschließend wird unter teilweiser Verwendung der Varianten eine Vorzugsvariante zur automatisierten Montage entwickelt. Auf detailliertere Ausführungen wurde hier verzichtet um sich nicht zu wiederholen und Redundanzen zu vermeiden. Ausführlich wurden die einzelnen verwendeten Varianten bereits im Kapitel 4 beschrieben. Das Kapitel 6 untersucht die wirtschaftlichen Potentiale einer automatisierten Fertigteilmontage und stellt die Kosten einer automatisierten Montage, denen einer herkömmlichen Montage gegenüber. Dabei wurden verschiedene Annahmen getroffen, die aus den Ergebnissen der vorliegenden Arbeit, den Ergebnissen der Diplomarbeit von Frau Lauterbach und weiteren Literaturrecherchen abgeleitet wurden. Kapital 7 fasst die Ergebnisse der Arbeit zusammen und gibt Hinweise auf notwendige weiterführende Forschungen und Untersuchungen.